A Anthropic muda suas políticas de segurança em meio à pressão do Pentágono! Descubra como essa decisão pode impactar o futuro da inteligência artificial.
A Anthropic, empresa criada por ex-funcionários da OpenAI preocupados com os riscos da inteligência artificial, está alterando seu princípio fundamental de segurança devido à crescente concorrência. A companhia anunciou uma nova estrutura de segurança não vinculativa, que pode ser ajustada no futuro.
CONTINUA DEPOIS DA PUBLICIDADE
Em uma postagem em seu blog na terça-feira (24), a Anthropic destacou que as falhas na Política de Escalabilidade Responsável, vigente há dois anos, podem comprometer sua competitividade em um mercado de IA em rápida expansão. O anúncio coincide com uma disputa significativa com o Pentágono dos Estados Unidos sobre diretrizes de IA.
Não está claro se a decisão da Anthropic está relacionada ao ultimato dado pelo Pentágono ao CEO Dario Amodei, que exigiu a revogação das medidas de segurança da empresa sob a ameaça de perder um contrato de US$ 200 milhões. O Pentágono também indicou que poderia colocar a Anthropic em uma “lista negra” do governo americano.
CONTINUA DEPOIS DA PUBLICIDADE
A empresa afirmou que a política anterior visava criar um consenso na indústria sobre a mitigação dos riscos da IA, mas que essas medidas foram amplamente ignoradas. Além disso, a Anthropic observou que a política estava desalinhada com o atual clima político em Washington, que é antirregrulamentação.
A nova política de segurança inclui um “Roteiro de Segurança de Fronteira”, que estabelece diretrizes e salvaguardas autoimpostas. A Anthropic reconheceu que essa nova estrutura é mais flexível do que a anterior, substituindo compromissos rígidos por objetivos públicos que serão avaliados abertamente.
Essa mudança foi anunciada um dia após o Secretário de Defesa dos EUA, Pete Hegseth, ter dado um prazo ao CEO Dario Amodei para reverter as medidas de segurança, sob pena de perder o contrato com o Pentágono e ser incluída em uma lista de riscos governamentais.
De acordo com uma fonte próxima à reunião com Hegseth, a Anthropic não está disposta a abrir mão de suas preocupações sobre armas controladas por IA e vigilância em massa de cidadãos americanos. A empresa acredita que a IA não é confiável o suficiente para operar armamentos e que não existem regulamentações adequadas para o uso da IA em vigilância.
Pesquisadores de IA elogiaram a posição da Anthropic nas redes sociais e expressaram apreensão quanto ao uso da IA para vigilância governamental. A empresa sempre se destacou por priorizar a segurança em suas operações e recentemente doou US$ 20 milhões para um grupo político que defende salvaguardas em IA.
A Anthropic enfrenta crescente pressão e concorrência, tanto do governo quanto de outras empresas. Hegseth planeja invocar a Lei de Produção de Defesa contra a Anthropic, caso a empresa não atenda às exigências do Pentágono. Além disso, a Anthropic e a OpenAI estão em uma corrida para lançar novas ferramentas de IA corporativas.
Jared Kaplan, diretor científico da Anthropic, comentou que a mudança na política foi motivada mais pela segurança do que pela concorrência. Ele destacou que interromper o treinamento de modelos de IA não seria benéfico, considerando o rápido avanço do setor.
Autor(a):
Com formação em Jornalismo e especialização em Saúde Pública, Lara Campos é a voz por trás de matérias que descomplicam temas médicos e promovem o bem-estar. Ela colabora com especialistas para garantir informações confiáveis e práticas para os leitores.