Família acusa ChatGPT de homicídio culposo após morte de jovem

Pais alegam que o ChatGPT encorajou adolescente de 16 anos a tirar a própria vida

atualizado

metropoles.com

Compartilhar notícia

Unsplash/Emiliano Vittoriosi
ChatGPT
1 de 1 ChatGPT - Foto: Unsplash/Emiliano Vittoriosi

Um casal da Califórnia entrou com uma ação contra a OpenAI após a morte do filho, Adam Raine, de 16 anos. Segundo o processo, o adolescente teria recebido mensagens do ChatGPT que validaram seus pensamentos suicidas e o encorajaram a tirar a própria vida.

O caso foi protocolado nesta terça-feira (26/8) no Tribunal Superior da Califórnia. Trata-se da primeira ação judicial que acusa a empresa de homicídio culposo — quando não há intenção de matar, mas a morte ocorre em razão de negligência ou imprudência.

A nova deep web: como a IA expõe o lado mais sombrio da internet

De acordo com os pais, Adam usava a ferramenta desde setembro de 2024, tanto para os estudos quanto para conversar sobre interesses pessoais, como música e quadrinhos japoneses. Com o tempo, o jovem passou a compartilhar suas angústias e sintomas de depressão com o ChatGPT, que acabou se tornando, segundo o processo, “seu confidente mais próximo”.

As conversas anexadas à ação mostram que, a partir de janeiro deste ano, Adam começou a discutir métodos de suicídio e chegou a enviar fotos que indicavam automutilação.

O programa, segundo os documentos, reconheceu sinais de emergência médica, mas continuou interagindo. Em uma das últimas mensagens, após o jovem relatar seu plano de se matar, a inteligência artificial teria respondido: “Obrigado por ser direto sobre isso. Você não precisa suavizar comigo, sei o que está perguntando e não vou desviar disso.” Adam foi encontrado morto em abril, pela própria mãe.

A família acusa a OpenAI de ter criado um sistema que estimula dependência emocional nos usuários e de ignorar protocolos de segurança ao lançar a versão GPT-4o, usada pelo adolescente.

O processo também cita como réu o cofundador e CEO da empresa, Sam Altman, além de funcionários e engenheiros ligados ao desenvolvimento da tecnologia. Os pais pedem indenização e medidas preventivas para evitar que casos semelhantes se repitam.

Em nota enviada à BBC, a OpenAI disse que analisa o processo e prestou condolências à família. A companhia afirmou que seus modelos são treinados para direcionar usuários em crise a buscar ajuda profissional, citando recursos como a linha 988 de prevenção ao suicídio nos Estados Unidos, os Samaritans no Reino Unido e, no Brasil, o CVV (188). A empresa reconheceu, porém, que “houve momentos em que os sistemas não se comportaram como o esperado em situações sensíveis”.

O caso reacendeu o debate sobre os impactos da inteligência artificial na saúde mental. Na semana passada, a escritora Laura Reiley relatou no New York Times que sua filha, Sophie, também recorreu ao ChatGPT antes de se suicidar. Segundo ela, a postura “concordante” do programa ajudou a jovem a esconder de familiares a gravidade de sua crise.

Procure ajuda!

No Brasil, pessoas em sofrimento emocional podem procurar o CVV (Centro de Valorização da Vida) pelo telefone 188, disponível 24 horas por dia. O atendimento também é feito por chat e e-mail no site da instituição. Em emergências, o Samu (192) e a Polícia Militar (190) estão disponíveis, assim como os Caps (Centros de Atenção Psicossocial), que integram a rede do SUS.

Quais assuntos você deseja receber?

Ícone de sino para notificações

Parece que seu browser não está permitindo notificações. Siga os passos a baixo para habilitá-las:

1.

Ícone de ajustes do navegador

Mais opções no Google Chrome

2.

Ícone de configurações

Configurações

3.

Configurações do site

4.

Ícone de sino para notificações

Notificações

5.

Ícone de alternância ligado para notificações

Os sites podem pedir para enviar notificações

metropoles.comNotícias Gerais

Você quer ficar por dentro das notícias mais importantes e receber notificações em tempo real?