Anthropic Altera Políticas de Segurança em Resposta à Pressão do Pentágono e Concorrência!

A Anthropic muda suas políticas de segurança em meio à pressão do Pentágono! Descubra como essa decisão pode impactar o futuro da inteligência artificial.

3 min de leitura

(Imagem de reprodução da internet).

Anthropic Flexibiliza Políticas de Segurança em Resposta à Concorrência

A Anthropic, empresa criada por ex-funcionários da OpenAI preocupados com os riscos da inteligência artificial, está alterando seu princípio fundamental de segurança devido à crescente concorrência. A companhia anunciou uma nova estrutura de segurança não vinculativa, que pode ser ajustada no futuro.

CONTINUA DEPOIS DA PUBLICIDADE

Em uma postagem em seu blog na terça-feira (24), a Anthropic destacou que as falhas na Política de Escalabilidade Responsável, vigente há dois anos, podem comprometer sua competitividade em um mercado de IA em rápida expansão. O anúncio coincide com uma disputa significativa com o Pentágono dos Estados Unidos sobre diretrizes de IA.

Pressão do Pentágono e Mudanças na Política

Não está claro se a decisão da Anthropic está relacionada ao ultimato dado pelo Pentágono ao CEO Dario Amodei, que exigiu a revogação das medidas de segurança da empresa sob a ameaça de perder um contrato de US$ 200 milhões. O Pentágono também indicou que poderia colocar a Anthropic em uma “lista negra” do governo americano.

CONTINUA DEPOIS DA PUBLICIDADE

A empresa afirmou que a política anterior visava criar um consenso na indústria sobre a mitigação dos riscos da IA, mas que essas medidas foram amplamente ignoradas. Além disso, a Anthropic observou que a política estava desalinhada com o atual clima político em Washington, que é antirregrulamentação.

Novas Diretrizes e Roteiro de Segurança

A nova política de segurança inclui um “Roteiro de Segurança de Fronteira”, que estabelece diretrizes e salvaguardas autoimpostas. A Anthropic reconheceu que essa nova estrutura é mais flexível do que a anterior, substituindo compromissos rígidos por objetivos públicos que serão avaliados abertamente.

LEIA TAMBÉM!

Essa mudança foi anunciada um dia após o Secretário de Defesa dos EUA, Pete Hegseth, ter dado um prazo ao CEO Dario Amodei para reverter as medidas de segurança, sob pena de perder o contrato com o Pentágono e ser incluída em uma lista de riscos governamentais.

Preocupações com Armas e Vigilância

De acordo com uma fonte próxima à reunião com Hegseth, a Anthropic não está disposta a abrir mão de suas preocupações sobre armas controladas por IA e vigilância em massa de cidadãos americanos. A empresa acredita que a IA não é confiável o suficiente para operar armamentos e que não existem regulamentações adequadas para o uso da IA em vigilância.

Pesquisadores de IA elogiaram a posição da Anthropic nas redes sociais e expressaram apreensão quanto ao uso da IA para vigilância governamental. A empresa sempre se destacou por priorizar a segurança em suas operações e recentemente doou US$ 20 milhões para um grupo político que defende salvaguardas em IA.

Concorrência e Avanços no Setor

A Anthropic enfrenta crescente pressão e concorrência, tanto do governo quanto de outras empresas. Hegseth planeja invocar a Lei de Produção de Defesa contra a Anthropic, caso a empresa não atenda às exigências do Pentágono. Além disso, a Anthropic e a OpenAI estão em uma corrida para lançar novas ferramentas de IA corporativas.

Jared Kaplan, diretor científico da Anthropic, comentou que a mudança na política foi motivada mais pela segurança do que pela concorrência. Ele destacou que interromper o treinamento de modelos de IA não seria benéfico, considerando o rápido avanço do setor.

Autor(a):

Com formação em Jornalismo e especialização em Saúde Pública, Lara Campos é a voz por trás de matérias que descomplicam temas médicos e promovem o bem-estar. Ela colabora com especialistas para garantir informações confiáveis e práticas para os leitores.

Sair da versão mobile