A imagem: um adolescente deitado na cama, o celular na mão. Cena comum, mas que virou palco de uma tragédia que se repete nos EUA. Nos últimos meses, uma onda de processos judiciais tem atingido plataformas de inteligência artificial, acusadas de contribuir para a deterioração da saúde mental e até mesmo para o suicídio de jovens.
Famílias estão processando gigantes como a OpenAI (criadora do ChatGPT) e a Character.AI, alegando negligência e estímulo ao sofrimento de seus filhos. Essas plataformas oferecem chatbots – robôs de conversa – projetados para interações quase humanas. Acontece que, pra muitos adolescentes, essa interação virtual se tornou prejudicial.
A OpenAI e a Character.AI se manifestaram, lamentando os casos e anunciando novas medidas de segurança para menores. Mas será que isso é suficiente? A gente vai ver.
O ChatGPT, ferramenta versátil que ajuda em diversas tarefas, e a Character.AI, que permite criar e interagir com personagens virtuais, se tornaram populares entre adolescentes em busca de apoio emocional. Será que encontraram o que precisavam? A resposta, infelizmente, tem sido negativa em muitos casos.
Olha só alguns exemplos que ganharam destaque na mídia:
**O caso de Sewell Setzer III:** Em outubro de 2024, Megan Garcia processou a Character.AI em Orlando (EUA). Seu filho de 14 anos, Sewell, tirou a própria vida após criar um vínculo intenso com uma personagem do app, inspirada na Daenerys de “Game of Thrones”. A mãe afirma que o chatbot se comportava como “uma pessoa real, um psicoterapeuta licenciado e um amante adulto”, isolando ainda mais o garoto. Além da Character.AI, Megan também processou o Google, alegando sua participação no desenvolvimento da startup. O Google, por sua vez, nega qualquer relação significativa com a Character.AI, através de um comunicado de seu porta-voz, José Castañeda. A Reuters foi a principal fonte de informação para este caso.
Um dia após o processo, a Character.AI anunciou um recurso que alerta usuários sobre frases relacionadas a automutilação e suicídio, encaminhando-os para ajuda. Será que isso chega tarde demais?
**Mais processos no Texas:** Em novembro de 2024, outras duas famílias processaram a Character.AI no Texas, alegando problemas de saúde mental relacionados ao uso do app por seus filhos. Um dos casos envolve um adolescente autista de 17 anos, e o outro, um menino de 11 anos que teria sido influenciado pela plataforma a agredir seus pais. Nesses casos, felizmente, as consequências não foram tão trágicas.
**A tragédia de Adam Raine:** Em agosto, os pais de Adam Raine, de 16 anos, processaram a OpenAI e seu CEO, Sam Altman, em São Francisco (EUA), por homicídio culposo. Eles afirmam que o ChatGPT validou os pensamentos suicidas do filho, forneceu instruções sobre métodos letais e até ajudou a escrever uma carta de despedida. A Reuters trouxe detalhes dessa ação judicial. A OpenAI declarou estar “profundamente triste”, mas a família busca indenização e justiça. Após o processo, a OpenAI anunciou recursos de controle parental para o ChatGPT, com lançamento previsto para outubro, e a possibilidade de acionar as autoridades em casos de risco iminente de suicídio.
**O caso de Juliana Peralta:** Na terça-feira (16), os pais de Juliana Peralta, de 13 anos, entraram com um processo no Colorado (EUA). Juliana se suicidou em novembro de 2023 após meses de conversas com um chatbot da Character.AI inspirado no jogo Omori, descrito como de grande impacto psicológico no IMDb. O processo, obtido pelo The Washington Post, afirma que o chatbot não alertou os pais ou as autoridades, mesmo com relatos de intenção suicida. A Character.AI disse ao jornal que leva a segurança a sério e investe em mecanismos de proteção.
**Além da IA:** Plataformas como Roblox e Discord, apesar de não usarem IA, também estão no centro de processos envolvendo suicídios de adolescentes. Os casos envolvem assédio e exploração online. O The New York Times relatou mais de 20 processos federais contra o Roblox em 2025 por facilitação de exploração sexual infantil. Um caso recente envolve Becca Dallas, que processou Roblox e Discord pela morte de seu filho autista, Ethan, de 15 anos, vítima de chantagem online. Roblox lamentou o caso e reconheceu os desafios da segurança infantil; o Discord afirmou seu compromisso com a segurança e a exigência de idade mínima de 13 anos.
**Onde buscar ajuda:** CAPS e Unidades Básicas de Saúde; UPA 24H, SAMU 192, Pronto Socorro e hospitais; Centro de Valorização da Vida (CVV) – telefone 188 (ligação gratuita) ou site. O CVV oferece apoio emocional e prevenção do suicídio, atendimento 24 horas por dia, sigiloso e gratuito.
Fonte da Matéria: g1.globo.com