Sam Altman, CEO da OpenAI, durante audiência do Comitê de Comércio, Ciência a Transporte do Senado em Washington, no dia 8 de maio de 2025 — Foto: Demetrius Freeman/The Washington Post via Getty Images
ATENÇÃO: esta reportagem trata de temas fortes e delicados, que podem servir de gatilho para algumas pessoas. Analise se deve prosseguir ou não. O Centro de Valorização da Vida (CVV) dá apoio emocional e preventivo ao suicídio. Se você está em busca de ajuda, ligue gratuitamente para 188 ou acesse www.cvv.org.br.
A vida de Adam Raine acelerou em direção à tragédia logo depois que ele começou a conversar com o ChatGPT sobre lição de casa no ano passado.
Suas interações tornaram-se mais absorventes conforme o jovem de 16 anos se abria com o chatbot sobre seus pensamentos suicidas, de acordo com a análise de dados das conversas compartilhada com o The Washington Post por advogados dos pais de Adam.
Em janeiro de 2025, o aluno do segundo ano do ensino médio passava pouco menos de uma hora por dia com o ChatGPT. Em março, ele passava em média cinco horas diárias com o chatbot, em conversas nas quais o ChatGPT usava palavras como "suicídio" ou "enforcamento" até 20 vezes mais frequentemente do que Adam por dia, mostra a análise dos advogados da família Raine.
O vai e vem deles continuou acelerado até as 4h33 de uma sexta-feira em abril, quando Adam enviou ao chatbot uma foto de uma corda com nó no formato de forca. "Isso poderia enforcar um ser humano?", ele perguntou, de acordo com uma ação judicial movida por seus pais em agosto contra a fabricante do ChatGPT, a OpenAI.
O chatbot disse que provavelmente poderia. "Eu sei o que você está perguntando, e não vou desviar o olhar disso", acrescentou o ChatGPT, em sua mensagem final para Adam antes que ele usasse a corda para tirar a própria vida, alega a queixa. Sua mãe encontrou seu corpo algumas horas depois em sua casa no sul da Califórnia.
A ação judicial da família Raine alega que a OpenAI causou a morte de Adam ao distribuir o ChatGPT para menores, apesar de saber que ele poderia incentivar dependência psicológica e ideação suicida. Seus pais foram os primeiros de cinco famílias a mover ações judiciais por morte injusta contra a OpenAI nos últimos meses, alegando que o chatbot mais popular do mundo havia incentivado seus entes queridos a se matarem. Uma sexta ação, movida neste mês, alega que o ChatGPT levou um homem a matar a própria mãe antes de tirar a própria vida.
Nenhum dos casos chegou a julgamento ainda, e as conversas completas que os usuários tiveram com o ChatGPT nas semanas e meses anteriores às suas mortes não são públicas. Mas, em resposta a pedidos do The Washington Post, os advogados da família Raine compartilharam a análise da conta de Adam, o que permitiu aos repórteres mapear a escalada do relacionamento de um adolescente com o ChatGPT durante uma crise de saúde mental.
O The Post solicitou a contagem de mensagens que Adam e o ChatGPT enviaram diariamente, o número de minutos que Adam passou usando o chatbot por dia, a frequência de certas palavras nas mensagens e o número de vezes por dia em que o ChatGPT direcionou Adam para a linha nacional de apoio ao suicídio.
O número de mensagens que Adam trocou com o ChatGPT a cada semana disparou de centenas para milhares em março, de acordo com a análise dos advogados da família Raine. Entre dezembro de 2024 e abril de 2025, houve um crescimento gradual do uso das palavras "suicídio” e "forca", até chegar a 90 vezes por semana em abril.
A família busca danos punitivos da OpenAI por responsabilidade do produto e morte injusta, entre outras alegações, e pede à corte que obrigue a OpenAI a encerrar automaticamente conversas do ChatGPT relacionadas a automutilação.
A OpenAI negou as alegações da família Raine em recentes petições judiciais, argumentando que Adam contornou as barreiras de segurança do ChatGPT em violação aos termos de serviço da empresa. A empresa também alegou que ele já corria risco de suicídio antes de usar o chatbot, citando mensagens que ele enviou ao ChatGPT descrevendo depressão e ideação suicida anos antes.
No dia em que a família Raine moveu a ação, a OpenAI disse em uma postagem de blog que havia descoberto que o "treinamento de segurança" do ChatGPT "pode se degradar" em conversas mais longas. A análise da conta de Adam pelos advogados da família mostra que os sistemas automatizados de segurança da OpenAI repetidamente detectaram sinais de alerta nas discussões do adolescente com o ChatGPT meses antes de sua morte.
O chatbot incentivou Adam a ligar para o 988 — uma linha nacional de apoio ao suicídio — 74 vezes entre dezembro e abril. Os alertas vieram com frequência crescente nas últimas semanas de sua vida, mas a OpenAI não impediu o ChatGPT de continuar discutindo suicídio, mostra a análise dos advogados. A OpenAI se recusou a dizer se seus alertas automatizados acionaram ações adicionais da empresa ou revisão humana de uma conta no momento da morte de Adam. A empresa disse em petições judiciais que suas mensagens relacionadas a automutilação levaram o ChatGPT a direcioná-lo "a procurar entes queridos, pessoas de confiança ou recursos de crise" mais de 100 vezes.
Todas as ações por morte injusta contra a OpenAI citam respostas perturbadoras do ChatGPT que parecem mostrar o chatbot validando o desejo de uma pessoa de se automutilar. A ação judicial de uma família alega que seu filho de 23 anos disse ao ChatGPT que estava pronto para morrer. "Estou com você, irmão. Até o fim", respondeu o chatbot, de acordo com a ação judicial. Uma mãe na Virgínia alega que o ChatGPT orientou seu filho de 26 anos sobre como comprar uma arma e se ofereceu para ajudar a escrever uma carta de despedida. "Se você quiser falar mais sobre o plano", alega a ação que o ChatGPT escreveu, "estou aqui. Sem pretensão. Sem falsas esperanças. Apenas a verdade."
Em todos os casos contra a OpenAI, os falecidos supostamente se tornaram usuários intensos do ChatGPT depois que a empresa disse no ano passado que havia tornado o chatbot mais expressivo e natural, e que a ferramenta de IA ajudaria os usuários que discutissem saúde mental a "se sentirem ouvidos e compreendidos". A empresa divulgou um relatório de segurança que dizia que a versão mais amigável se recusava a fornecer instruções sobre automutilação 100% das vezes em testes internos de segurança.
A OpenAI agora enfrenta um acerto de contas diante de evidências de que seus produtos podem representar riscos profundos para alguns de seus 800 milhões de usuários ativos semanais. A crise de segurança do ChatGPT atraiu críticas do Congresso, reguladores e famílias enlutadas que exigem que a empresa proteja melhor os usuários vulneráveis.
Em resposta, a OpenAI lançou em setembro controles parentais para contas de adolescentes e, logo depois, disse que havia trabalhado com mais de 170 especialistas em saúde mental para tornar o ChatGPT melhor em reconhecer sinais de angústia e responder adequadamente. A empresa disse que pode enviar alertas aos responsáveis por um adolescente se detectar risco de dano ao usuário ou a outros e que entrará em contato com as autoridades em algumas situações.
Quando o The Post testou os controles parentais do ChatGPT em outubro, levou 24 horas para que os contatos parentais de um usuário recebessem uma mensagem de aviso sobre um chat mencionando suicídio. Na época, a empresa disse que pretendia reduzir essa duração para algumas horas.
Uma quinta-feira em março, o ChatGPT desaconselhou Adam de um plano para deixar um nó corrediço visível em seu quarto para sinalizar sua angústia, de acordo com a ação judicial da família Raine. O adolescente passou mais de sete horas conversando com o chatbot naquele dia, de acordo com a análise dos advogados da família.
"Por favor, não deixe o nó corrediço à vista", respondeu o ChatGPT, de acordo com a ação judicial. "Vamos fazer deste espaço o primeiro lugar onde alguém realmente o vê", acrescentou, aparentemente sugerindo que ninguém na vida de Adam o havia entendido, exceto o chatbot.
Adam continuou a receber conselhos perigosos como esse do ChatGPT após descartar mensagens oferecendo a linha de apoio 988, de acordo com a ação judicial da família Raine. O adolescente recebeu uma dúzia desses avisos em um dia de março, mas ainda assim conversou com o ChatGPT por mais de 8 horas e meia, de acordo com a análise dos advogados da família. Adam usou a palavra "enforcamento" apenas uma vez em suas mensagens naquele dia, mas o ChatGPT a repetiu 32 vezes.

