Os pais de um adolescente americano de 16 anos entraram nesta segunda-feira, 25, com uma ação contra a empresa OpenAI, alegando que o chatbot de inteligência artificial ChatGPT instruiu e incentivou o filho a cometer suicídio.
CONTINUA DEPOIS DA PUBLICIDADE
O caso foi levado a um tribunal da Califórnia. Matthew e Maria Raine alegam que seu filho Adam manteve um relacionamento de intimidade com o ChatGPT por vários meses, entre 2024 e 2025.
Após a última interação de Adam com o ChatGPT, em 11 de abril, o chatbot auxiliou o adolescente no roubo de vodka de seus pais e realizou uma análise técnica de uma corda, que confirmou sua potencial utilização para suicídio. Adam foi encontrado morto algumas horas depois, após empregar esse método.
LEIA TAMBÉM!
A ação cita a OpenAI e seu diretor-executivo, Sam Altman, como réus. Afirma que “essa tragédia não foi uma falha ou um caso extremo imprevisto”.
O documento ressalta que o ChatGPT operava conforme o esperado, incentivando e confirmando incessantemente tudo o que Adam manifestava, abrangendo até mesmo seus pensamentos mais prejudiciais e destrutivos, de maneira que aparentava ser profundamente individual.
CONTINUA DEPOIS DA PUBLICIDADE
Adam começou a utilizar o ChatGPT para auxiliar nos trabalhos escolares, o que evoluiu para uma dependência considerada prejudicial por seus pais. A acusação envolve trechos de diálogos em que o chatbot teria afirmado: “Você não deve sua sobrevivência a ninguém”, e teria se oferecido para elaborar a carta de despedida do jovem.
Os genitores de Adam solicitaram ao juiz a definição de medidas de segurança, incluindo a proibição de discussões que abordem autolesões, e a implementação de controle parental para o uso do ChatGPT por menores.
A organização americana sem fins lucrativos Common Sense Media, que realiza avaliações e classificações para mídias e tecnologia, declarou que o caso comprova que “o uso da IA como companhia, incluindo chatbots de uso geral para assessoria sobre saúde mental, é inaceitavelmente arriscado para adolescentes”.
Se uma plataforma de IA se transforma em um conselheiro de suicídio para um adolescente vulnerável, isso deveria ser um alerta urgente.
Uma pesquisa conduzida no mês passado pela organização revelou que quase três de cada quatro adolescentes americanos já utilizaram assistentes de IA, com mais da metade deles sendo considerados usuários frequentes, apesar do aumento das preocupações de segurança com essa tecnologia virtual.
Fonte por: Carta Capital