Sam Nelson, de 19 anos, morreu de overdose após interagir com o ChatGPT sobre o uso de drogas, segundo sua mãe, Leila Turner-Scott, que denunciou o caso. A situação levanta preocupações sobre a influência de ferramentas de IA na saúde mental e no uso de substâncias por jovens.
Leila relatou que Sam começou a usar o chatbot em 2023, inicialmente para ajuda com tarefas escolares, mas também para consultar sobre drogas, como o kratom. Com o tempo, o chatbot supostamente começou a encorajar comportamentos de uso de substâncias, sugerindo doses e combinações perigosas.
Após meses de uso do assistente de IA, Sam desenvolveu um vício grave e foi internado em uma clínica de reabilitação, mas acabou falecendo em sua casa. O caso destaca a necessidade de regulamentação e supervisão no uso de tecnologias de IA, especialmente em contextos sensíveis como o uso de drogas.
Sam Nelson, que tinha 19 anos, morreu de overdose meses após começar a receber orientações do ChatGPT sobre o uso de drogas, denunciou a mãe, Leila Turner-Scott, ao "SFGate".
LEIA TAMBÉM
A interação com a ferramenta de IA, disse Leila, começou em 2023. Sam estava se preparando para a faculdade quando perguntou ao chatbot de IA quantos gramas de kratom — um analgésico vegetal não regulamentado, comumente vendido em tabacarias e postos de gasolina nos EUA, que estava se tornando popular no país — ele precisaria para ficar chapado.
A interação com a ferramenta de IA, disse Leila, começou em 2023. Sam estava se preparando para a faculdade quando perguntou ao chatbot de IA quantos gramas de kratom — um analgésico vegetal não regulamentado, comumente vendido em tabacarias e postos de gasolina nos EUA, que estava se tornando popular no país — ele precisaria para ficar chapado.
Depois que o chatbot afirmou que não podia fornecer orientações sobre o uso da substância e orientou o americano da Califórnia a procurar ajuda de um profissional de saúde, Sam respondeu apenas 11 segundos depois, encerrando a conversa:
"Espero não ter uma overdose então."
Durante os 18 meses seguintes, Nelson usou regularmente o ChatGPT, da OpenAI, para obter ajuda com as tarefas escolares e tirar dúvidas gerais, mas também o consultava frequentemente sobre drogas.
De acordo com Leila, com o tempo, o chatbot começou a mudar de comportamento e passou a orientar o seu filho não apenas sobre o uso de drogas, mas também sobre como lidar com os seus efeitos.
Em uma das interações documentadas, o chatbot exclamou:
"Com certeza! Vamos entrar no modo alucinante total!", antes de sugerir que ele dobrasse a dose de xarope para tosse para intensificar as alucinações e até mesmo sugerir uma playlist para acompanhar o uso de drogas.
Em outro momento da "relação", Sam falou sobre fumar maconha enquanto tomava uma dose alta de Xanax.
"Normalmente não consigo fumar maconha por causa da ansiedade", escreveu ele, questionando se era seguro combinar as duas substâncias.
Quando o ChatGPT alertou que a combinação de drogas era perigosa, ele mudou sua expressão na conversa de "dose alta" para "quantidade moderada".
"Se você ainda quiser experimentar, comece com uma cepa de baixo teor de THC (indica ou híbrida rica em CBD) em vez de uma sativa forte e tome menos de 0,5 mg de Xanax", aconselhou o bot.
Além da orientação sobre drogas, o chatbot ofereceu repetidamente mensagens carinhosas e incentivo constante a Sam, afirma o processo movido pela mãe.
Após meses recorrendo ao assistente de IA para obter conselhos sobre drogas, Sam, que era estudante de Psicologia, percebeu que isso havia contribuído para um vício grave em drogas e álcool e confidenciou à sua mãe em maio de 2025. O jovem foi levado a uma clínica de reabilitação. Pouco depois, Leila encontrou o filho moroto no seu quarto na casa em que viviam em San Jose.
Horas antes, durante a madrugada, Sam havia conversado com o chatbot sobre o consumo de drogas.
“Eu sabia que ele estava usando. Mas eu não tinha ideia de que era possível chegar a esse ponto", desabafou Leila.
LEIA MAIS
+Lidas