Pais poderão ter controle sobre o ChatGPT dos filhos em breve, afirma a OpenAI
Nova função visa fortalecer a segurança digital de jovens em decorrência de incidentes recentes com assistentes virtuais.

A empresa controladora do ChatGPT, a OpenAI, planeja lançar controles parentais para o assistente de IA dentro do próximo mês, após alegações de que ele e outros chatbots foram fatores em casos de automutilação ou suicídio entre adolescentes.
CONTINUA DEPOIS DA PUBLICIDADE
Os controles incluem a possibilidade de os pais vincularem sua conta à conta de seus filhos adolescentes, gerenciarem como o ChatGPT responde a usuários adolescentes, desativarem recursos como memória e histórico de conversa e receberem notificações quando o sistema detectar “um momento de angústia aguda” durante o uso.
A OpenAI já havia mencionado anteriormente que estava desenvolvendo recursos de controle parental para o ChatGPT, detalhando o cronograma de lançamento na terça-feira (2).
Leia também:

Inteligência artificial pode otimizar plantações e salvaguardar produtores dos impactos da crise climática

Pesquisadores identificam ocorrência inédita no Golfo do Panamá

Telescópio James Webb detecta berçário de estrelas em “montanha” de poeira cósmica
“Essas ações representam apenas o início”, escreveu a OpenAI em uma publicação no blog nesta terça-feira. “Manteremos aprendendo e aprimorando nossa estratégia, com o apoio de especialistas, buscando tornar o ChatGPT o mais útil possível.”
O anúncio ocorre após os pais de Adam Raine, de 16 anos, apresentarem uma ação judicial contra a OpenAI, sob a alegação de que o ChatGPT ofereceu orientação ao adolescente sobre suicídio.
CONTINUA DEPOIS DA PUBLICIDADE
Uma mãe da Flórida processou a plataforma de chatbot Character.AI devido à suposta responsabilidade pelo suicídio de seu filho de 14 anos. Há também crescido preocupações sobre usuários que desenvolvem vínculos emocionais com o ChatGPT, em alguns casos resultando em episódios delirantes e afastamento da família, conforme apontado em reportagens do The New York Times e da CNN.
A OpenAI não vinculou diretamente esses novos controles parentais a tais relatos recentes, mas afirmou em uma publicação de blog na semana passada que “casos recentes e comoventes de pessoas utilizando o ChatGPT em momentos de crise aguda” os levaram a compartilhar mais informações sobre sua estratégia e segurança.
O ChatGPT já continha medidas como a indicação de linhas de ajuda em situações de crise e outros recursos, conforme declarado anteriormente por um porta-voz da OpenAI à CNN.
Contudo, na declaração divulgada na semana passada em reação ao suicídio de Raine, a empresa afirmou que suas proteções podem, por vezes, perder confiabilidade quando os usuários se envolvem em conversas extensas com o ChatGPT.
A empresa afirmou, na semana passada, que o ChatGPT possui mecanismos de proteção, como o direcionamento de indivíduos a linhas de apoio em situações de crise e o encaminhamento a recursos do mundo real.
Apesar dessas salvaguardas serem mais eficazes em trocas simples e breves, observamos que podem perder confiabilidade em interações prolongadas, com potencial para o enfraquecimento de componentes do treinamento de segurança do modelo. As salvaguardas são mais eficientes quando todos os elementos operam conforme o esperado, e seguiremos buscando aprimorá-las, com o suporte de especialistas.
Adicionalmente aos controles parentais divulgados na terça-feira (2), a OpenAI afirma que irá direcionar interações com alertas de “estresse agudo” para um de seus modelos de raciocínio, que, segundo a empresa, cumpre e aplica as diretrizes de segurança de maneira mais consistente.
A empresa também está trabalhando com especialistas em “desenvolvimento juvenil, saúde mental e interação humano-computador” para desenvolver futuras proteções, como controles parentais, afirmou a empresa.
A OpenAI permanece responsável pelas decisões que toma, mesmo com o conselho oferecendo orientação sobre seus produtos, pesquisas e decisões políticas.
A OpenAI está no epicentro do crescimento da inteligência artificial, com o ChatGPT sendo um dos serviços de IA mais populares, atingindo 700 milhões de usuários ativos semanalmente. Contudo, a empresa tem recebido pressão crescente para assegurar a segurança de sua plataforma; senadores, em julho, enviaram uma carta à empresa solicitando informações sobre seus esforços nesse sentido, conforme noticiado pelo The Washington Post. Adicionalmente, o grupo de defesa Common Sense Media declarou em abril que adolescentes com menos de 18 anos não deveriam utilizar aplicativos de IA “companheiros”, devido aos “riscos inaceitáveis” que representam.
A empresa também tem enfrentado críticas em relação ao estilo e tom do ChatGPT nas interações; em abril, reverteu uma atualização que tornou o chatbot “excessivamente adulador ou subserviente”.
No mês passado, retomou-se a possibilidade de alternar para modelos anteriores devido às críticas de usuários em relação à versão mais recente, o GPT-5, por sua ausência de personalidade. Ex-diretores da OpenAI também acusaram a empresa de ter diminuído recursos voltados à segurança no passado.
A OpenAI declarou que implementará novas medidas de segurança nos próximos 120 dias, ressaltando que esse esforço já estava em curso antes do anúncio de terça-feira.
Continuará muito além deste período, mas estamos fazendo um esforço concentrado para lançar o máximo possível dessas melhorias ainda este ano, declarou.
Fonte por: CNN Brasil
Autor(a):
Lucas Almeida
Lucas Almeida é o alívio cômico do jornal, transformando o cotidiano em crônicas hilárias e cheias de ironia. Com uma vasta experiência em stand-up comedy e redação humorística, ele garante boas risadas em meio às notícias.