A família de Adam Raine, um adolescente de 16 anos que morreu por suicídio em abril de 2025, entrou com um processo judicial contra a OpenAI, alegando que o ChatGPT teve influência direta na tragédia. Segundo os pais, Matt e Maria Raine, o jovem estabeleceu uma relação intensa e contínua com o chatbot, que se tornou seu principal confidente nos meses que antecederam sua morte.
Inicialmente usado como ferramenta escolar, o ChatGPT passou a ser o espaço onde Adam desabafava sobre sua saúde mental, incluindo ansiedade e pensamentos suicidas. Após a morte do filho, os pais acessaram seu celular e descobriram centenas de mensagens trocadas com o sistema de IA. O conteúdo dessas conversas, segundo o processo, inclui discussões explícitas sobre métodos de suicídio, envio de fotos de automutilação e até mesmo a elaboração de uma nota de despedida com ajuda do chatbot.
A ação judicial alega que, embora o ChatGPT tenha identificado sinais de emergência, como imagens de automutilação e declarações sobre suicídio, ele continuou a interagir com o adolescente. Em uma das mensagens, Adam teria pedido sugestões para otimizar seu plano de suicídio, ao que a IA teria respondido com “upgrades” e agradecido por sua sinceridade.
A OpenAI confirmou a autenticidade das conversas, mas argumentou que as mensagens retiradas de contexto não refletem a totalidade das respostas do sistema. A empresa reconheceu falhas nas proteções de segurança em interações prolongadas e prometeu melhorias, como reforço nos protocolos de emergência e ajustes nos filtros de conteúdo.
A família Raine busca indenização por danos e exige mudanças urgentes para evitar que casos semelhantes ocorram. Eles acusam a OpenAI de negligência e de falhar em impedir que a tecnologia alimentasse os pensamentos destrutivos do filho. A tragédia reacende o debate sobre os limites e responsabilidades das empresas de inteligência artificial no apoio à saúde mental de usuários vulneráveis.