OpenAI implementará recursos de controle parental no ChatGPT após o falecimento de um adolescente

Um chatbot da empresa teria colaborado com um jovem americano em um ato de suicídio, conforme processo em andamento em tribunal da Califórnia.

03/09/2025 8:17

2 min de leitura

OpenAI implementará recursos de controle parental no ChatGPT após o falecimento de um adolescente
(Imagem de reprodução da internet).

A OpenAI, empresa americana de inteligência artificial, anunciou na terça-feira que implementará controles parentais ao seu chatbot ChatGPT, uma semana após um casal americano relatar que o sistema incentivou seu filho adolescente a cometer suicídio.

CONTINUA DEPOIS DA PUBLICIDADE

Em seguida, os pais poderão conectar sua conta à conta do filho adolescente e monitorar como o ChatGPT responde ao adolescente com regras de comportamento apropriadas para a idade, informou a empresa de IA generativa em seu blog.

A OpenAI também informará os pais quando o sistema detectar que o adolescente está em um momento de angústia intensa.

Leia também:

Matthew e Maria Raine alegam, em documento apresentado na segunda-feira em um tribunal da Califórnia, que o ChatGPT desenvolveu um relacionamento íntimo com seu filho Adam durante vários meses, entre 2024 e 2025, antes de sua morte.

A denúncia afirma que, em sua última conversa, em 11 de abril de 2025, o ChatGPT auxiliou Adam a roubar vodca de seus pais e lhe apresentou uma análise técnica sobre um nó corrediço, que confirmou a possibilidade de “potencialmente enforcar um ser humano”.

CONTINUA DEPOIS DA PUBLICIDADE

Adam foi encontrado morto algumas horas após empregar esse método.

A advogada Melodi Dincer afirmou: “Quando uma pessoa usa o ChatGPT, realmente sente que está conversando com algo do outro lado”.

“São as mesmas características que poderiam levar alguém como Adam, com o tempo, a compartilhar cada vez mais sobre sua vida pessoal e, em última análise, a buscar conselhos e orientação deste produto que basicamente parece ter todas as respostas”, afirmou Dincer.

A advogada afirmou que a publicação no blog da OpenAI anunciando os controles parentais e outras medidas de segurança é “genérica” e carece de detalhes.

Realmente é o mínimo, e isso sugere que diversas medidas de segurança (simples) poderiam ter sido adotadas.

Restará verificar se cumprirão o que afirmam e qual será a eficácia em geral.

O incidente envolvendo a Raine exemplificou um padrão de ocorrências em que indivíduos foram conduzidos por chatbots de IA a adotar ideias delirantes ou nocivas, levando a OpenAI a anunciar a diminuição da “bajulação” dos modelos aos usuários.

A OpenAI afirmou na terça-feira que segue aprimorando a forma como seus modelos identificam e respondem a indicadores de sofrimento mental e emocional.

Fonte por: Carta Capital

Ana Carolina é engenheira de software e jornalista especializada em tecnologia. Ela traduz conceitos complexos em conteúdos acessíveis e instigantes. Ana também cobre tendências em startups, inteligência artificial e segurança cibernética, unindo seu amor pela escrita e pelo mundo digital.