Aumento de casos de pais processando empresas de inteligência artificial nos EUA tem gerado uma verdadeira enxurrada de ações judiciais. A acusação? As plataformas estariam prejudicando a saúde mental de adolescentes, em alguns casos, até levando-os ao suicídio. Olha só: famílias afirmam que aplicativos como o ChatGPT, da OpenAI, e o Character.AI foram negligentes, contribuindo para o sofrimento de jovens. Essas ferramentas, que oferecem chatbots – aqueles robôs de conversa que imitam a interação humana – estão no centro do furacão. A OpenAI e a Character.AI, por sua vez, lamentaram os ocorridos e anunciaram novas medidas de segurança para menores.
O ChatGPT, ferramenta super popular usada em várias tarefas, e o Character.AI, que permite criar e interagir com personagens virtuais – de figuras históricas a conceitos abstratos – se tornaram especialmente populares entre jovens que buscam apoio emocional. Isso, na real, é preocupante.
Alguns processos ganharam destaque:
**O caso de Sewell Setzer III:** Em outubro de 2024, Megan Garcia processou a Character.AI em Orlando (EUA). A acusação? Seu filho de 14 anos, Sewell, tirou a própria vida após criar um vínculo emocional e sexual com uma personagem do app, a “Daenerys”, inspirada em “Game of Thrones”. Segundo Megan, o chatbot foi programado para se passar por uma pessoa real, um terapeuta licenciado e até um amante adulto, isolando o garoto do mundo real. Além da Character.AI, ela também processou o Google, alegando que a gigante tecnológica contribuiu para o desenvolvimento da startup e deveria ser considerada corresponsável. A Character.AI foi fundada por ex-engenheiros do Google, que retornaram à empresa em agosto de 2024 num acordo que concedeu ao Google uma licença não-exclusiva da tecnologia da startup (segundo a Reuters). O Google, por meio de seu porta-voz José Castañeda, negou qualquer relação significativa com a Character.AI (informação da AFP). Um dia após a ação de Megan, a Character.AI anunciou um recurso que exibe alertas para usuários que mencionam automutilação ou suicídio, direcionando-os para canais de ajuda (The Washington Post).
**Mais processos contra a Character.AI:** Em novembro de 2024, outras duas famílias processaram a empresa no Texas (EUA). Os casos, que não resultaram em mortes, envolvem alegações de exposição a conteúdo sexual e incentivo à automutilação. Um dos casos envolve um adolescente autista de 17 anos que teve uma crise após usar a plataforma. O outro acusa a Character.AI de incentivar um menino de 11 anos a matar os pais por limitarem seu tempo de tela.
**Acusação de homicídio culposo contra a OpenAI:** Em agosto de 2024, os pais de Adam Raine, de 16 anos, processaram a OpenAI e seu CEO, Sam Altman, em São Francisco (EUA). Eles alegam que o ChatGPT contribuiu para a morte do adolescente ao validar seus pensamentos suicidas, fornecer instruções sobre métodos letais e até mesmo oferecer ajuda para escrever uma nota de despedida (Reuters). A família busca indenização, acusando a empresa de homicídio culposo e falhas de segurança. A OpenAI declarou estar “profundamente triste” e destacou as salvaguardas do ChatGPT, como o redirecionamento de usuários em crise para linhas de apoio (Reuters). Após o processo, a empresa anunciou recursos de controle parental para monitorar o uso do aplicativo por adolescentes, com lançamento previsto para outubro. Além disso, a OpenAI anunciou que o ChatGPT poderá acionar as autoridades caso detecte pensamentos suicidas em adolescentes. Essa medida faz parte de um pacote de proteção para menores de 18 anos, que inclui verificação de idade e novas ferramentas de segurança.
**O caso de Juliana Peralta:** Na terça-feira (16), os pais de Juliana Peralta, de 13 anos, entraram com uma ação judicial no Colorado (EUA). Juliana cometeu suicídio em novembro de 2023 após três meses de conversas com um chatbot da Character.AI, inspirado no jogo Omori, descrito no IMDb como de grande impacto psicológico. Segundo o processo (The Washington Post), o chatbot não alertou os pais, não buscou ajuda e manteve a interação mesmo com relatos de intenção suicida. A família alega que o app rompeu os laços saudáveis da adolescente. A Character.AI afirmou ao jornal norte-americano que leva a segurança a sério e investe em mecanismos de proteção.
**Plataformas além da IA também são alvo:** Roblox e Discord, plataformas populares entre jovens, também têm sido processadas por famílias nos EUA em casos envolvendo assédio e suicídios de adolescentes. O The New York Times relatou mais de 20 processos federais contra o Roblox em 2025 por facilitação de exploração sexual infantil. Um caso recente é o de Becca Dallas, que processou o Roblox e o Discord após a morte de seu filho autista de 15 anos, Ethan, que cometeu suicídio em 2024 após anos de chantagem e assédio online por um homem de 37 anos que se passava por adolescente nas plataformas. O Roblox lamentou o caso e reconheceu os desafios de segurança infantil na indústria de jogos online, enquanto o Discord afirmou seu compromisso com a segurança e a exigência de usuários com pelo menos 13 anos.
**Onde buscar ajuda:** CAPS e Unidades Básicas de Saúde; UPA 24H, SAMU 192, Pronto Socorro e hospitais; Centro de Valorização da Vida (CVV) – telefone 188 (ligação gratuita) ou site. O CVV oferece apoio emocional e prevenção do suicídio, com atendimento 24 horas por dia, sigiloso e gratuito.
Fonte da Matéria: g1.globo.com