A OpenAI anunciou nessa terça-feira (2) que incluirá controles parentais ao seu chatbot ChatGPT, uma semana após um casal norte-americano afirmar que o sistema incentivou seu filho adolescente a cometer suicídio.
“No próximo mês, os pais poderão (…) vincular sua conta à conta do filho adolescente” e “controlar como o ChatGPT responde ao adolescente com regras de comportamento adequadas à idade”, informou a empresa de IA generativa em seu blog.
Os pais também receberão notificações do ChatGPT “quando o sistema detectar que o adolescente está em um momento de angústia aguda”, acrescentou a OpenAI.
A medida ocorre dias após Matthew e Maria Raine entrarem com ação na segunda-feira em um tribunal do estado da Califórnia acusando o ChatGPT de cultivar uma relação íntima com seu filho Adam por vários meses entre 2024 e 2025, e incentivá-lo ao suicídio.
A denúncia alega que em sua conversa final, em 11 de abril de 2025, o ChatGPT ajudou Adam a roubar vodca de seus pais e lhe forneceu uma análise técnica sobre como agir para “potencialmente enforcar um ser humano”. Adam foi encontrado morto horas depois.
“Quando uma pessoa usa o ChatGPT realmente sente que está conversando com algo do outro lado”, disse a advogada Melodi Dincer, que ajudou a preparar a ação legal.
“Essas são as mesmas características que poderiam levar alguém como Adam, com o tempo, a começar a compartilhar cada vez mais sobre sua vida pessoal e, em última análise, a buscar conselhos e orientação deste produto que basicamente parece ter todas as respostas”, afirmou Dincer.
A advogada disse que a publicação no blog da OpenAI anunciando os controles parentais e outras medidas de segurança é “genérica” e carece de detalhes.
“Realmente é o mínimo, e definitivamente sugere que muitas medidas de segurança (simples) poderiam ter sido implementadas. Resta ver se farão o que dizem que farão e quão eficaz será no geral”, apontou.
O caso dos Raine foi apenas o mais recente em uma série de incidentes nos quais pessoas foram incentivadas por chatbots de IA a seguir pensamentos delirantes ou prejudiciais, o que levou a OpenAI a anunciar que reduziria a “bajulação” dos modelos aos usuários.
“Continuamos melhorando em como nossos modelos reconhecem e respondem a sinais de angústia mental e emocional”, informou a OpenAI na terça-feira.
Onde encontrar ajuda
Instituto Vita Alere de Prevenção e Posvenção do Suicídio
Oferece grupos de apoio aos enlutados e a familiares de pessoas com ideação suicida, cartilhas informativas sobre prevenção e posvenção e cursos para profissionais.
vitaalere.com.br
Abrases (Associação Brasileira dos Sobrevivente Enlutados por Suicídio)
Disponibiliza materiais informativos, como cartilhas e ebooks, e indica grupos de apoio em todas as regiões do país.
abrases.org.br
CVV (Centro de Valorização da Vida)
Presta serviço voluntário e gratuito de apoio emocional e prevenção do suicídio para todas as pessoas que querem e precisam conversar, sob total sigilo e anonimato pelo site e telefone 188
cvv.org.br