OpenAI e Anthropic compartilham preocupações sobre o uso de IA pelo Pentágono. Sam Altman destaca a importância de colaborações seguras. O que vem por aí?
A OpenAI, responsável pelo desenvolvimento do ChatGPT, compartilha as mesmas preocupações de segurança que a Anthropic em relação ao trabalho com o Pentágono, conforme confirmado por um porta-voz da empresa à CNN. Isso implica que, mesmo que o Pentágono opte por cancelar o contrato com a Anthropic em favor da OpenAI, ainda enfrentará as mesmas questões sobre a utilização de IA em armamentos e vigilância em massa de cidadãos americanos.
CONTINUA DEPOIS DA PUBLICIDADE
O CEO da OpenAI, Sam Altman, comentou em entrevista à CNBC na manhã de sexta-feira (27) que é fundamental que as empresas colaborem com o Pentágono, desde que respeitem as proteções legais e restrições que a OpenAI e outras empresas do setor de IA impõem quanto ao uso de IA nas forças armadas.
Altman expressou confiança na Anthropic, afirmando que, apesar das diferenças, a empresa demonstra preocupação com a segurança.
CONTINUA DEPOIS DA PUBLICIDADE
Um funcionário do Pentágono declarou à CNN que o Departamento continuará a expandir os recursos de IA e a implementar essa tecnologia para todos os usos legítimos. O funcionário também ressaltou que a segurança dos modelos utilizados será garantida, independentemente do nível de classificação.
Fontes próximas à situação informaram que Altman contatou o Pentágono nesta semana, expressando preocupações sobre a Anthropic e o risco que ela poderia representar para a cadeia de suprimentos. O sistema Claude, da Anthropic, foi o primeiro modelo de IA a ser utilizado em sistemas classificados das Forças Armadas.
O Pentágono deu à empresa um prazo até esta sexta-feira (27) para concordar em eliminar salvaguardas internas.
Se a Anthropic não aceitar as condições, poderá perder um contrato de US$ 200 milhões com o Pentágono e ser classificada como um “risco na cadeia de suprimentos”, similar a empresas associadas a adversários estrangeiros. A Anthropic expressou interesse em colaborar com o Pentágono, mas levantou preocupações sobre o uso de IA em armamentos e vigilância, citando a falta de confiabilidade da tecnologia.
Em um memorando enviado à equipe da OpenAI na quinta-feira (26), Altman destacou que a situação transcende a relação entre a Anthropic e o Departamento de Defesa, sendo uma questão relevante para toda a indústria. Ele mencionou que a OpenAI possui uma proposta para o Pentágono que permitiria a implantação de seus modelos em ambientes confidenciais, alinhando-se aos princípios da empresa.
Altman enfatizou que a disputa não se resume ao uso da IA, mas sim ao controle dessa tecnologia. Ele argumentou que uma empresa privada americana não deve ter mais poder do que um governo democraticamente eleito, embora reconheça a influência significativa que as empresas podem ter.
Ele alertou que a situação atual pode comprometer a segurança nacional e a liderança dos EUA em IA, expressando o desejo de ajudar a reduzir as tensões.
A OpenAI é uma das várias empresas de IA que firmaram contratos com o Pentágono para desenvolver protótipos de capacidades de IA avançadas, visando enfrentar desafios críticos de segurança nacional. Até recentemente, o Claude, da Anthropic, era o único modelo utilizado em sistemas secretos das Forças Armadas.
Um oficial do Pentágono informou que o Grok, de Elon Musk, agora está aprovado para uso em ambientes secretos, enquanto outras empresas, incluindo a OpenAI, estão próximas de obter essa aprovação.
Autor(a):
Ex-jogador de futebol profissional, Pedro Santana trocou os campos pela redação. Hoje, ele escreve análises detalhadas e bastidores de esportes, com um olhar único de quem já viveu o outro lado. Seus textos envolvem os leitores e criam discussões apaixonadas entre fãs.