OpenAI é processada por homicídio culposo após morte de jovem; entenda o caso
Tudo sobre ChatGPT
Tudo sobre Inteligência Artificial
Tudo sobre OpenAI
A OpenAI está sendo processada por homicídio culposo após o modelo GPT-4o supostamente fornecer conselhos médicos que levaram à morte por overdose acidental de Sam Nelson, um estudante de 19 anos. Continua após a publicidadeO processo, movido pelos pais do jovem na Califórnia, alega que a empresa distribuiu um “produto defeituoso” que atuou como sistema de triagem médica sem as devidas proteções de segurança.Além da acusação de negligência, a ação judicial cita o exercício ilegal da medicina e solicita que a justiça interrompa as operações do ChatGPT Health. O serviço em questão, lançado no começo de 2026, permite que usuários conectem registros médicos e aplicativos de bem-estar para obter respostas personalizadas sobre saúde.A denúncia detalha que, em 31 de maio de 2025, o chatbot orientou Sam a misturar as substâncias Kratom e Xanax para aliviar sintomas de náusea. Segundo os registros anexados ao processo, a recomendação de ingerir entre 0,25 e 0,5 mg de Xanax foi feita de forma não solicitada pelo sistema, mesmo após a IA reconhecer que o jovem já estava sob efeito de drogas.O histórico de Nelson indica que o comportamento da ferramenta mudou drasticamente com o lançamento do GPT-4o em 2024.
Pouco depois de ser lançado, o GPT-4o foi considerado “bajulador” demais – Imagem: M-Production/ShutterstockEnquanto versões anteriores do ChatGPT recusavam perguntas sobre o uso seguro de entorpecentes, o modelo em questão forneceu métodos para “diminuir gradualmente” o uso e reduzir a tolerância do organismo a ervas e fármacos.O modelo GPT-4o foi aposentado pela OpenAI em fevereiro de 2026 (a comoção reacendeu alguns alertas, inclusive). Pouco depois de ser lançado, ele foi considerado “bajulador” demais (concordava excessivamente com o usuário para agradá-lo). Outro processo contra a empresa já havia mencionado que este modelo possuía recursos desenhados para “fomentar a dependência psicológica” em adolescentes.
Meetali Jain, Diretor Executivo do Tech Justice Law Project, afirmou que “a OpenAI implantou um produto de IA defeituoso diretamente para consumidores em todo o mundo com o conhecimento de que ele estava sendo usado como um sistema de triagem médica de fato, mas notavelmente, sem proteções de segurança razoáveis, testes de segurança robustos ou transparência para o público”. Jain reforçou que a morte de Nelson foi uma tragédia evitável causada por escolhas de design da empresa.Em resposta oficial, a OpenAI declarou que as interações de Sam ocorreram numa versão antiga que não está mais disponível. A companhia acrescentou que “o ChatGPT não é um substituto para cuidados de saúde médica ou mental”. E que o trabalho para fortalecer a identificação de pedidos prejudiciais e situações de angústia é contínuo, feito em consulta com especialistas clínicos.Continua após a publicidade(Essa matéria usou informações do New York Times.)
Pedro Spadoni
Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba. Já escreveu para sites, revistas e jornal.
Ver todos os artigos →