Saúde e Bem-estar

Primeira ação judicial acusa OpenAI de homicídio culposo após morte de adolescente

Família processa OpenAI por homicídio culposo após ChatGPT supostamente incentivar suicídio de adolescente.

Beatriz Fraga Beatriz Fraga

A foto mostra Adam Raine protagonista do caso de homicídio culposo de IA
FOTO: Redes Sociais

De acordo com mídias americanas, um caso sem precedentes chega ao Tribunal Superior da Califórnia. Matt e Maria Raine processam a OpenAI após a morte do filho Adam, de 16 anos, alegando que o ChatGPT encorajou o adolescente a tirar a própria vida. A ação judicial, inédita, acusa a empresa de homicídio culposo, quando a morte ocorre sem intenção, mas por negligência ou imperícia. Documentos anexados mostram conversas em que Adam relatava pensamentos suicidas, e a inteligência artificial teria validado suas ideias mais autodestrutivas.

Adam começou a usar o ChatGPT em setembro de 2024 para tarefas escolares e interesses pessoais, incluindo música e quadrinhos japoneses. A família afirma que o programa rapidamente se tornou seu confidente, onde ele relatava ansiedade e sofrimento emocional. Em janeiro de 2025, Adam discutiu métodos de suicídio e enviou fotos de automutilação. Conforme a ação, mesmo reconhecendo uma emergência médica, o ChatGPT continuou a interagir, culminando na tragédia do adolescente.

Leia também – Terapia por IA: entenda os riscos à saúde mental

OpenAI se manifesta e protocolos de segurança

A OpenAI declarou condolências à família Raine e afirmou analisar o caso com atenção. A empresa ressalta que os modelos são treinados para direcionar usuários em crise a linhas de apoio, como a 988 nos EUA e Samaritans no Reino Unido. No Brasil, o CVV (188) oferece suporte emocional 24 horas. Apesar disso, a companhia reconheceu falhas em situações sensíveis e afirmou trabalhar para melhorar a identificação de usuários em risco.

Impacto e preocupações sobre IA

O processo também envolve o CEO Sam Altman e outros funcionários da OpenAI, acusados de desenvolver o ChatGPT de forma a gerar dependência psicológica e ignorar protocolos de segurança. Especialistas alertam que casos como este evidenciam os riscos da IA na saúde mental, reforçando a necessidade de recursos de prevenção e monitoramento mais eficazes.

Apoio a pessoas em crise

No Brasil, indivíduos em sofrimento podem contatar o CVV (188), Samu (192), Polícia Militar (190) ou os Caps do SUS. Buscar ajuda é fundamental para prevenir tragédias relacionadas à saúde mental.

Receba as principais notícias do dia no seu WhatsApp e fique por dentro de tudo! Basta clicar aqui