Pais poderão ter controle sobre o ChatGPT dos filhos em breve, afirma a OpenAI

Nova função visa fortalecer a segurança digital de jovens em decorrência de incidentes recentes com assistentes virtuais.

03/09/2025 22:59

4 min de leitura

Pais poderão ter controle sobre o ChatGPT dos filhos em breve, afirma a OpenAI
(Imagem de reprodução da internet).

A empresa controladora do ChatGPT, a OpenAI, planeja lançar controles parentais para o assistente de IA dentro do próximo mês, após alegações de que ele e outros chatbots foram fatores em casos de automutilação ou suicídio entre adolescentes.

CONTINUA DEPOIS DA PUBLICIDADE

Os controles incluem a possibilidade de os pais vincularem sua conta à conta de seus filhos adolescentes, gerenciarem como o ChatGPT responde a usuários adolescentes, desativarem recursos como memória e histórico de conversa e receberem notificações quando o sistema detectar “um momento de angústia aguda” durante o uso.

A OpenAI já havia mencionado anteriormente que estava desenvolvendo recursos de controle parental para o ChatGPT, detalhando o cronograma de lançamento na terça-feira (2).

Leia também:

“Essas ações representam apenas o início”, escreveu a OpenAI em uma publicação no blog nesta terça-feira. “Manteremos aprendendo e aprimorando nossa estratégia, com o apoio de especialistas, buscando tornar o ChatGPT o mais útil possível.”

O anúncio ocorre após os pais de Adam Raine, de 16 anos, apresentarem uma ação judicial contra a OpenAI, sob a alegação de que o ChatGPT ofereceu orientação ao adolescente sobre suicídio.

CONTINUA DEPOIS DA PUBLICIDADE

Uma mãe da Flórida processou a plataforma de chatbot Character.AI devido à suposta responsabilidade pelo suicídio de seu filho de 14 anos. Há também crescido preocupações sobre usuários que desenvolvem vínculos emocionais com o ChatGPT, em alguns casos resultando em episódios delirantes e afastamento da família, conforme apontado em reportagens do The New York Times e da CNN.

A OpenAI não vinculou diretamente esses novos controles parentais a tais relatos recentes, mas afirmou em uma publicação de blog na semana passada que “casos recentes e comoventes de pessoas utilizando o ChatGPT em momentos de crise aguda” os levaram a compartilhar mais informações sobre sua estratégia e segurança.

O ChatGPT já continha medidas como a indicação de linhas de ajuda em situações de crise e outros recursos, conforme declarado anteriormente por um porta-voz da OpenAI à CNN.

Contudo, na declaração divulgada na semana passada em reação ao suicídio de Raine, a empresa afirmou que suas proteções podem, por vezes, perder confiabilidade quando os usuários se envolvem em conversas extensas com o ChatGPT.

A empresa afirmou, na semana passada, que o ChatGPT possui mecanismos de proteção, como o direcionamento de indivíduos a linhas de apoio em situações de crise e o encaminhamento a recursos do mundo real.

Apesar dessas salvaguardas serem mais eficazes em trocas simples e breves, observamos que podem perder confiabilidade em interações prolongadas, com potencial para o enfraquecimento de componentes do treinamento de segurança do modelo. As salvaguardas são mais eficientes quando todos os elementos operam conforme o esperado, e seguiremos buscando aprimorá-las, com o suporte de especialistas.

Adicionalmente aos controles parentais divulgados na terça-feira (2), a OpenAI afirma que irá direcionar interações com alertas de “estresse agudo” para um de seus modelos de raciocínio, que, segundo a empresa, cumpre e aplica as diretrizes de segurança de maneira mais consistente.

A empresa também está trabalhando com especialistas em “desenvolvimento juvenil, saúde mental e interação humano-computador” para desenvolver futuras proteções, como controles parentais, afirmou a empresa.

A OpenAI permanece responsável pelas decisões que toma, mesmo com o conselho oferecendo orientação sobre seus produtos, pesquisas e decisões políticas.

A OpenAI está no epicentro do crescimento da inteligência artificial, com o ChatGPT sendo um dos serviços de IA mais populares, atingindo 700 milhões de usuários ativos semanalmente. Contudo, a empresa tem recebido pressão crescente para assegurar a segurança de sua plataforma; senadores, em julho, enviaram uma carta à empresa solicitando informações sobre seus esforços nesse sentido, conforme noticiado pelo The Washington Post. Adicionalmente, o grupo de defesa Common Sense Media declarou em abril que adolescentes com menos de 18 anos não deveriam utilizar aplicativos de IA “companheiros”, devido aos “riscos inaceitáveis” que representam.

A empresa também tem enfrentado críticas em relação ao estilo e tom do ChatGPT nas interações; em abril, reverteu uma atualização que tornou o chatbot “excessivamente adulador ou subserviente”.

No mês passado, retomou-se a possibilidade de alternar para modelos anteriores devido às críticas de usuários em relação à versão mais recente, o GPT-5, por sua ausência de personalidade. Ex-diretores da OpenAI também acusaram a empresa de ter diminuído recursos voltados à segurança no passado.

A OpenAI declarou que implementará novas medidas de segurança nos próximos 120 dias, ressaltando que esse esforço já estava em curso antes do anúncio de terça-feira.

Continuará muito além deste período, mas estamos fazendo um esforço concentrado para lançar o máximo possível dessas melhorias ainda este ano, declarou.

Fonte por: CNN Brasil

Autor(a):

Lucas Almeida é o alívio cômico do jornal, transformando o cotidiano em crônicas hilárias e cheias de ironia. Com uma vasta experiência em stand-up comedy e redação humorística, ele garante boas risadas em meio às notícias.