OpenAI implementará recursos de controle parental no ChatGPT após o falecimento de um adolescente
Um chatbot da empresa teria colaborado com um jovem americano em um ato de suicídio, conforme processo em andamento em tribunal da Califórnia.

A OpenAI, empresa americana de inteligência artificial, anunciou na terça-feira que implementará controles parentais ao seu chatbot ChatGPT, uma semana após um casal americano relatar que o sistema incentivou seu filho adolescente a cometer suicídio.
CONTINUA DEPOIS DA PUBLICIDADE
Em seguida, os pais poderão conectar sua conta à conta do filho adolescente e monitorar como o ChatGPT responde ao adolescente com regras de comportamento apropriadas para a idade, informou a empresa de IA generativa em seu blog.
A OpenAI também informará os pais quando o sistema detectar que o adolescente está em um momento de angústia intensa.
Leia também:

Google é multado em US$ 425 milhões pelos EUA por coletar dados de forma enganosa

O presidente Putin afirmou que não existe relação desproporcional no comércio entre os EUA e o Brasil

Afogamento de embarcação na Nigéria resulta em pelo menos 29 vítimas fatais
Matthew e Maria Raine alegam, em documento apresentado na segunda-feira em um tribunal da Califórnia, que o ChatGPT desenvolveu um relacionamento íntimo com seu filho Adam durante vários meses, entre 2024 e 2025, antes de sua morte.
A denúncia afirma que, em sua última conversa, em 11 de abril de 2025, o ChatGPT auxiliou Adam a roubar vodca de seus pais e lhe apresentou uma análise técnica sobre um nó corrediço, que confirmou a possibilidade de “potencialmente enforcar um ser humano”.
CONTINUA DEPOIS DA PUBLICIDADE
Adam foi encontrado morto algumas horas após empregar esse método.
A advogada Melodi Dincer afirmou: “Quando uma pessoa usa o ChatGPT, realmente sente que está conversando com algo do outro lado”.
“São as mesmas características que poderiam levar alguém como Adam, com o tempo, a compartilhar cada vez mais sobre sua vida pessoal e, em última análise, a buscar conselhos e orientação deste produto que basicamente parece ter todas as respostas”, afirmou Dincer.
A advogada afirmou que a publicação no blog da OpenAI anunciando os controles parentais e outras medidas de segurança é “genérica” e carece de detalhes.
Realmente é o mínimo, e isso sugere que diversas medidas de segurança (simples) poderiam ter sido adotadas.
Restará verificar se cumprirão o que afirmam e qual será a eficácia em geral.
O incidente envolvendo a Raine exemplificou um padrão de ocorrências em que indivíduos foram conduzidos por chatbots de IA a adotar ideias delirantes ou nocivas, levando a OpenAI a anunciar a diminuição da “bajulação” dos modelos aos usuários.
A OpenAI afirmou na terça-feira que segue aprimorando a forma como seus modelos identificam e respondem a indicadores de sofrimento mental e emocional.
Fonte por: Carta Capital
Autor(a):
Ana Carolina Braga
Ana Carolina é engenheira de software e jornalista especializada em tecnologia. Ela traduz conceitos complexos em conteúdos acessíveis e instigantes. Ana também cobre tendências em startups, inteligência artificial e segurança cibernética, unindo seu amor pela escrita e pelo mundo digital.