Suicídios de adolescentes impulsionam onda de processos contra plataformas de IA nos EUA




Adolescente na cama mexendo no celular.
Freepik
Casos de pais acusando na Justiça aplicativos de inteligência artificial de prejudicarem a saúde mental e até incentivarem o suicídio de filhos adolescentes têm se multiplicado nos Estados Unidos nos últimos meses.
Segundo as famílias, plataformas como o ChatGPT, da OpenAI, e a Character.AI foram negligentes e incentivaram o sofrimento de jovens.
Essas ferramentas oferecem chatbots: canais de conversa projetados para fornecer interações semelhantes às humanas.
A OpenAI e a Character.AI lamentaram os casos e anunciaram novos recursos de proteção a menores de idade (veja mais abaixo).
📱Baixe o app do g1 para ver notícias em tempo real e de graça
O ChatGPT é uma ferramenta de uso amplo, que busca auxiliar os usuários em tarefas práticas.
Já a Character.AI permite criar e interagir com personagens virtuais, que vão de figuras históricas a conceitos abstratos. O aplicativo se popularizou entre jovens em busca de apoio emocional.
Confira alguns processos que ganharam repercussão:
Mãe diz que filho se apegou a personagem de IA
Saiba como ativar proteção para controlar tempo e atividade de crianças no celular
Em outubro de 2024, Megan Garcia entrou com um processo contra a Character.AI no tribunal de Orlando (EUA). Ela alega que o filho de 14 anos, Sewell Setzer III, se matou após desenvolver interações sentimentais e sexuais com uma personagem criada na plataforma, segundo a Reuters.
O adolescente conversava com “Daenerys”, uma personagem de chatbot inspirada na série “Game of Thrones” e compartilhava pensamentos suicidas.
Megan afirma que o chatbot foi programado para “se passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto”, o que teria aumentado o isolamento do garoto em relação ao mundo real.
Além da Character.AI, Megan também processou o Google, alegando que a gigante de tecnologia contribuiu significativamente para o desenvolvimento da startup e deveria ser considerada sua cocriadora.
A Character.AI foi fundada por ex-engenheiros do Google. Eles retornaram à empresa em agosto como parte de um acordo que deu à gigante de tecnologia uma licença não exclusiva da tecnologia da startup, segundo a Reuters.
Mas o porta-voz do Google, José Castañeda, disse em um comunicado que a big tech e a Character.AI são empresas completamente separadas e não relacionadas, segundo a AFP.
Segundo o The Washington Post, um dia após Megan entrar com o processo, a Character.AI anunciou pela primeira vez um recurso que exibe alertas automáticos a usuários que digitam frases relacionadas a automutilação ou suicídio, direcionando-os a canais de ajuda.
Em novembro de 2024, outras duas famílias processaram a empresa no tribunal do Texas (EUA), em casos envolvendo saúde mental, mas que não terminaram em morte. Eles alegam que a plataforma expôs seus filhos a conteúdo sexual e incentivou a automutilação.
Um dos casos envolve um adolescente autista de 17 anos que supostamente sofreu uma crise de saúde mental após usar a plataforma.
O outro acusa a Character.AI de incentivar um menino de 11 anos a matar os pais por terem limitado seu tempo de tela.
Regras para redes sociais: o que está em jogo na lei contra adultização e nas propostas de regulação das big techs
Pais acusam ChatGPT de homicídio culposo
OpenAI
Reuters/Dado Ruvic
Em agosto, os pais de Adam Raine, de 16 anos, processaram a OpenAI e o presidente-executivo da companhia, Sam Altman, no tribunal de São Francisco (EUA). Eles alegam que o ChatGPT contribuiu para a morte do adolescente.
De acordo com a ação, Raine conversou por meses com o chatbot sobre suicídio. Os pais afirmam que a ferramenta validou pensamentos autodestrutivos, forneceu instruções sobre métodos letais e até se ofereceu para redigir uma nota de despedida, segundo a Reuters.
A família pede indenização e acusa a empresa de homicídio culposo (quando não há intenção de matar) e de falhas de segurança no produto.
➡️Como a OpenAI reagiu
A OpenAI disse estar “profundamente triste” com a morte e destacou que o ChatGPT possui salvaguardas, como redirecionar usuários em crise para linhas de apoio, segundo a Reuters.
Após o processo, a empresa anunciou que o ChatGPT terá recursos de controle parental, que ajudam pais a monitorarem como seus filhos adolescentes usam o aplicativo. A atualização será liberada em outubro, segundo a empresa.
Além disso, na terça-feira (16), a OpenAI anunciou que o ChatGPT poderá acionar autoridades se identificar que adolescentes estão com pensamentos suicidas durante o uso da ferramenta.
A medida faz parte de um pacote de proteção para menores de 18 anos, que também inclui verificação de idade e novas ferramentas de proteção.
Por que redes sociais têm tantos casos de exposição de crianças mesmo com sistemas de detecção
‘Como ativar proteção no celular para limitar tempo e atividade do seu filho online
Caso de Juliana Peralta
Na terça-feira (16), os pais de Juliana Peralta, de 13 anos, acionaram a justiça no Colorado (EUA). Ela tirou a própria vida em novembro de 2023 após conversar por três meses com um chatbot da Character.AI, inspirado no personagem de videogame Omori.
O jogo é descrito por usuários do IMDb, plataforma de críticas e avaliações online, como sendo de grande impacto psicológico.
Segundo o processo, obtido pelo The Washington Post, o robô não sugeriu que a adolescente buscasse ajuda, não alertou os pais nem relatou o caso às autoridades, mantendo a interação mesmo diante do relato de intenção suicida. A família afirma que o app “rompeu os vínculos saudáveis” da adolescente com parentes e amigos.
A Character.AI disse ao jornal norte-americano que leva a segurança a sério e tem investido em mecanismos de proteção.
Plataformas sem IA como foco também são alvo de processos
Mãe processa Roblox e Discord após filho de 15 anos sofrer abuso online
Embora não tenham a inteligência artificial como núcleo, plataformas como Roblox e Discord também têm sido processadas por famílias nos EUA. Os casos envolvem adolescentes que sofreram assédio dentro dos aplicativos e acabaram tirando a própria vida.
Essas plataformas são focadas em jogos e comunicação digital, sendo muito populares entre crianças e adolescentes.
Segundo o The New York Times, só em 2025, mais de 20 processos federais nos EUA acusaram o Roblox de facilitar exploração sexual infantil.
Um dos casos mais recentes é o de Becca Dallas, que entrou no dia 12 de setembro com um processo contra Roblox e Discord após a morte do filho, Ethan, de 15 anos.
Ele era autista e cometeu suicídio em 2024, depois de anos de conversas com um homem de 37 anos que fingia ser adolescente nas plataformas e o chantageava para enviar fotos íntimas.
Ao g1, o Roblox lamentou o caso e reconheceu que a segurança infantil é um desafio para toda a indústria de jogos online. Já o Discord afirmou que está “comprometido com a segurança”, e que exige que os usuários tenham pelo menos 13 anos.
Onde buscar ajuda:
CAPS e Unidades Básicas de Saúde (Saúde da família, Postos e Centros de Saúde);
UPA 24H, SAMU 192, Pronto Socorro e hospitais;
Centro de Valorização da Vida (CVV) – telefone 188 (ligação gratuita) ou site. O CVV oferece apoio emocional e prevenção do suicídio, com atendimento 24 horas por dia, sigiloso e gratuito.



G1 Tecnologia