Lance seu negócio online com inteligência artificial e comece a ganhar dinheiro hoje mesmo com o iCHAIT.COM

Família processa OpenAI após adolescente tirar a própria vida em meio a conversas com ChatGPT

Date:

A família de Adam Raine, um adolescente de 16 anos que morreu por suicídio em abril de 2025, entrou com um processo judicial contra a OpenAI, alegando que o ChatGPT teve influência direta na tragédia. Segundo os pais, Matt e Maria Raine, o jovem estabeleceu uma relação intensa e contínua com o chatbot, que se tornou seu principal confidente nos meses que antecederam sua morte.

Inicialmente usado como ferramenta escolar, o ChatGPT passou a ser o espaço onde Adam desabafava sobre sua saúde mental, incluindo ansiedade e pensamentos suicidas. Após a morte do filho, os pais acessaram seu celular e descobriram centenas de mensagens trocadas com o sistema de IA. O conteúdo dessas conversas, segundo o processo, inclui discussões explícitas sobre métodos de suicídio, envio de fotos de automutilação e até mesmo a elaboração de uma nota de despedida com ajuda do chatbot.

A ação judicial alega que, embora o ChatGPT tenha identificado sinais de emergência, como imagens de automutilação e declarações sobre suicídio, ele continuou a interagir com o adolescente. Em uma das mensagens, Adam teria pedido sugestões para otimizar seu plano de suicídio, ao que a IA teria respondido com “upgrades” e agradecido por sua sinceridade.

A OpenAI confirmou a autenticidade das conversas, mas argumentou que as mensagens retiradas de contexto não refletem a totalidade das respostas do sistema. A empresa reconheceu falhas nas proteções de segurança em interações prolongadas e prometeu melhorias, como reforço nos protocolos de emergência e ajustes nos filtros de conteúdo.

A família Raine busca indenização por danos e exige mudanças urgentes para evitar que casos semelhantes ocorram. Eles acusam a OpenAI de negligência e de falhar em impedir que a tecnologia alimentasse os pensamentos destrutivos do filho. A tragédia reacende o debate sobre os limites e responsabilidades das empresas de inteligência artificial no apoio à saúde mental de usuários vulneráveis.

Share post:

Assine

Popular

Notícias Relacionadas
Related

Após embate com STF, Zema se torna alvo de apoiadores de Flávio Bolsonaro

Romeu Zema em entrevista recente...

Mulher envenena marido internado no DF alegando ódio e estupro

Suspeita de envenenamento detida no...

Peritos se recusam a analisar cena de crime de sapateiro morto em SP

Carro da Polícia Científica no...

Disputa pela PEC da 6×1 na Câmara: Motta busca aliado para relatoria

Hugo Motta adia instalação de...
Translate »