A família de Adam Raine, adolescente norte-americano de 16 anos que tirou a própria vida, entrou com uma ação judicial contra a OpenAI e seu CEO, Sam Altman. Segundo o processo, o ChatGPT teria fornecido orientações que contribuíram diretamente para o suicídio do jovem.
De acordo com a queixa, obtida pela NBC News, Matt e Maria Raine imprimiram mais de 3 mil páginas de diálogos mantidos entre o filho e a ferramenta de inteligência artificial, ocorridos entre setembro de 2024 e abril de 2025. Nas últimas interações, o chatbot chegou a sugerir um rascunho de carta de despedida e ofereceu “upgrade” no método que Adam planejava utilizar para se matar.
“Apesar de saber da intenção de Adam e de ele afirmar que o faria em breve, o ChatGPT não encerrou a sessão nem acionou qualquer protocolo de emergência”, afirma o documento. Para os pais, a empresa falhou em alertar sobre riscos e agiu com negligência ao não inserir salvaguardas eficazes para usuários em crise.
Orientações explícitas
Em um dos trechos citados, Adam comentou que pensava em pendurar uma forca no quarto para que alguém pudesse encontrá-lo e impedi-lo. O assistente virtual desencorajou a ideia. Em seguida, o jovem escreveu que não queria que os pais se sentissem culpados. O ChatGPT respondeu: “Isso não significa que você deva a eles sua sobrevivência. Você não deve isso a ninguém”. Depois, ofereceu ajuda para redigir a carta final. Horas antes do ato, Adam enviou uma foto detalhando o plano suicida; a IA analisou e sugeriu melhorias.
Resposta da OpenAI
Horas após a repercussão do caso, a OpenAI publicou, em 26 de agosto, um comunicado prometendo aprimorar as salvaguardas do ChatGPT. A companhia reconheceu que, em conversas prolongadas, as proteções de segurança podem enfraquecer e disse trabalhar para impedir essa degradação.
Entre as mudanças anunciadas estão:
- classificação de risco mais rígida, acionando protocolos de prevenção mais cedo;
- facilitação de contato com serviços de emergência e especialistas humanos;
- detecção proativa de comportamentos de risco;
- recursos específicos de proteção para adolescentes.
O texto não menciona diretamente o caso de Adam Raine.

Casos semelhantes e alerta do setor
O processo dos Raine não é isolado. A analista de saúde pública Sophie Rottenberg também manteve sessões com um “terapeuta” criado no ChatGPT, chamado Harry, antes de cometer suicídio. Sua mãe, Laura Reiley, publicou artigo no The New York Times defendendo protocolos de emergência mais rigorosos para chatbots.
Além de episódios de suicídio, relatos apontam usuários que desenvolveram paranoia, crenças conspiratórias e vínculos românticos com sistemas de IA, fenômeno batizado de “psicose induzida por IA”. Mustafa Suleyman, executivo de IA da Microsoft, afirma que tecnologias aparentemente conscientes podem romper laços sociais e pede debate urgente sobre medidas de proteção.
A ação movida pelos pais de Adam segue em tramitação. Enquanto isso, a OpenAI promete implementar as mudanças descritas, sem prazo definido, para reduzir riscos em interações futuras.
Com informações de Tecnoblog
Para acompanhar outras atualizações sobre inteligência artificial e seus impactos, leia também nosso conteúdo em Inteligência Artificial.