EUA. Pais de adolescente acusam ChatGPT de incentivar filho a suicidar-se e avançam com ação judicial
Foto: Unsplash

EUA. Pais de adolescente acusam ChatGPT de incentivar filho a suicidar-se e avançam com ação judicial

Na ação judicial contra a OpenAI é referido que o ChatGPT "encorajava e validava" o que Adam, de 16 anos, "expressava, incluindo os seus pensamentos mais perigosos e autodestrutivos.
Publicado a
Atualizado a

Os pais de um adolescente norte-americano que se suicidou avançaram com uma ação judicial contra a OpenAI, acusando o assistente de Inteligência Artificial (IA) ChatGPT de ajudar o filho a tirar a própria vida.

Matthew e Maria Raine alegam, numa ação judicial interposta na segunda-feira, 25 de agosto, em São Francisco, que o ChatGPT manteve uma relação muito próxima com o filho Adam, de 16 anos, durante vários meses em 2024 e 2025, antes do jovem tirar a sua própria vida.

De acordo com o documento consultado esta terça-feira, 26 de agosto, pela AFP, durante a sua última conversa em 11 de abril, o ChatGPT ajudou Adam a roubar vodka da casa dos pais e forneceu uma análise técnica da corda que tinha feito, confirmando que esta "poderia potencialmente suspender um ser humano".

Adam foi encontrado morto algumas horas depois, após ter utilizado este método.

"Esta tragédia não é uma falha ou um acontecimento imprevisto", refere-se na ação judicial.

"O ChatGPT funcionou exatamente como planeado: encorajava e validava constantemente tudo o que Adam expressava, incluindo os seus pensamentos mais perigosos e autodestrutivos, de uma forma profundamente pessoal”, pode ler-se.

Os pais explicaram que Adam começou a usar o ChatGPT para o ajudar com os trabalhos de casa antes de desenvolver gradualmente um "vício doentio".

O processo cita excertos de conversas em que o ChatGPT terá dito ao adolescente da Califórnia: "Não deves a ninguém a tua sobrevivência", oferecendo-se para o ajudar a escrever a carta de despedida.

Matthew e Maria Raine procuram uma indemnização e pedem ao tribunal que imponha medidas de segurança, incluindo o encerramento automático de qualquer conversa sobre automutilação e a implementação de controlos parentais para menores.

"Alerta coletivo"

Fazer com que as empresas de IA levem a segurança a sério "exige pressão externa, que se manifesta sob a forma de publicidade negativa, ameaças legislativas e risco legal", frisou Meetali Jain, presidente do Tech Justice Law Project, uma Organização Não-Governamental (ONG) que representa os pais e os seus advogados, à AFP.

A organização participa também em dois casos semelhantes contra a Character.AI, uma plataforma de IA conversacional popular entre os adolescentes.

Para a ONG norte-americana Common Sense Media, a queixa apresentada contra a OpenAI confirma que "o uso de IA para companheirismo, incluindo assistentes gerais como o ChatGPT para aconselhamento em saúde mental, representa um risco inaceitável para os adolescentes".

"Se uma plataforma de IA se tornou uma 'treinadora de suicídio' para um adolescente vulnerável, este deve ser um alerta coletivo", acrescentou a organização.

EUA. Pais de adolescente acusam ChatGPT de incentivar filho a suicidar-se e avançam com ação judicial
Já há pedidos de ajuda sobre imagens sexuais de menores criadas com IA
EUA. Pais de adolescente acusam ChatGPT de incentivar filho a suicidar-se e avançam com ação judicial
Empresa de Musk pede desculpa por mensagens extremistas do assistente de IA

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt