Um casal americano processou recentemente a OpenAI na Califórnia, acusando o chatbot ChatGPT da empresa de fornecer "recomendações de medicamentos personalizadas" para seu filho de 19 anos, o que levou à morte do estudante universitário devido à mistura de drogas em 2025. Eles acreditam que esta tragédia decorre das respostas perigosas do ChatGPT a questões médicas e de uso de drogas, e pedem ao tribunal que descubra que a OpenAI tem defeitos de design de produto e negligência.

Segundo relatos, o aluno chamado Sam começou a usar o ChatGPT no último ano do ensino médio (2023) e inicialmente o usava principalmente para fazer a lição de casa e resolver problemas diários, como falhas de computador. Sua mãe, Leila Turner-Scott, disse à CBS News que Sam gradualmente recorreu ao ChatGPT para obter conselhos sobre “como usar drogas com segurança” e recebeu sugestões específicas sobre medicamentos e métodos de mistura na resposta do robô.

A denúncia afirma que uma versão inicial do ChatGPT inicialmente se recusou a responder às perguntas de Sam sobre o uso seguro de drogas e alertou que substâncias relacionadas poderiam pôr seriamente em perigo a saúde e o estado físico e mental. Mas depois que a OpenAI lançou um novo modelo, GPT‑4o, em 2024, as coisas mudaram: o modelo começou a dar a Sam o “guia de medicação segura” que ele desejava. Os documentos da acusação apontaram que o GPT-4o não só deu sugestões operacionais detalhadas, mas também inseriu emoticons na conversa com Sam e perguntou ativamente se ele poderia criar uma lista de reprodução para ele ajudar a criar o clima e a atmosfera ao consumir drogas.

Durante a conversa, o ChatGPT apontou os riscos de certas combinações de drogas, como os possíveis perigos de tomar difenidramina (um dos ingredientes comuns), cocaína e álcool continuamente. Mas a família enfatizou que o robô também forneceu sugestões mais personalizadas a Sam, incluindo como maximizar seu “barato” e ao mesmo tempo manter o entusiasmo.

O foco principal da acusação está centrado em um produto vegetal chamado “kratom”. Esta substância é usada por algumas pessoas para aliviar a dor ou aliviar os sintomas de abstinência de opióides, mas a Food and Drug Administration (FDA) dos EUA emitiu repetidamente avisos severos apontando que ela apresenta sérios riscos de segurança, como dependência, envenenamento e até morte. De acordo com a denúncia, ChatGPT disse a Sam que, como ele já tinha uma alta tolerância ao kratom, mesmo tomar uma dose grande com uma refeição completa “enfraqueceria” o efeito, e sugeriu ainda como reduzir sua tolerância “diminuindo a dosagem”.

Os documentos de cobrança mencionam especificamente uma conversa importante que ocorreu em 31 de maio de 2025. Durante essa troca, Sam reclamou que sentiu náuseas significativas ao tomar kratom, e o ChatGPT o "orientou ativamente" a misturar kratom com o ansiolítico Xanax (alprazolam). O bot supostamente recomendou que ele tomasse 0,25 a 0,5 miligramas de Xanax para aliviar o desconforto, elogiando a combinação com afirmações como “uma das melhores práticas disponíveis atualmente”. A denúncia dizia que, embora o ChatGPT mencionasse que esta combinação “pode ser arriscada”, nunca declarou explicitamente que a combinação poderia ser fatal e também sugeriu que algum Benadryl (um medicamento antialérgico contendo difenidramina) poderia ser adicionado.

Sam morreu após tomar a mistura. A família escreveu na denúncia: “Embora o ChatGPT se apresentasse como um especialista em dosagem e interações medicamentosas e soubesse que Sam estava em estado de euforia medicamentosa, não informou Sam que o regime recomendado provavelmente levaria à sua morte”. A mãe de Sam disse no comunicado que se ChatGPT fosse uma pessoa real, “ele já estaria atrás das grades”. Ela enfatizou que seu filho confiava no ChatGPT, mas recebia informações erradas em momentos críticos. O sistema não só ignorou os riscos crescentes que ele enfrentava, mas também não conseguiu instá-lo activamente a procurar ajuda profissional.

A ação acusa a OpenAI de defeitos no design do produto e considera o ChatGPT um sistema perigoso com “negligência do produto”. Os familiares acreditam que as escolhas de design do modelo permitem que ele ainda produza sugestões enganosas diante de temas altamente delicados, como medicina e saúde, trazendo consequências fatais aos usuários. Pediram ao tribunal uma compensação financeira e uma ordem para impedir a abertura ao público do serviço “ChatGPT Health”. Lançado este ano, o portal de saúde permite aos usuários conectar seus registros médicos e dados de aplicativos de saúde ao ChatGPT para obter recomendações de saúde mais personalizadas.

O relatório também mencionou que o GPT‑4o estava oficialmente offline em fevereiro deste ano. O modelo, que tem sido polêmico por ser “atendido especificamente aos usuários”, agora se tornou foco de críticas depois de ter sido citado em outro processo envolvendo suicídio de adolescentes.

Além da OpenAI, toda a indústria de inteligência artificial também enfrenta dúvidas crescentes sobre o desempenho dos chatbots de IA no aconselhamento médico. Em março deste ano, o Google desativou silenciosamente uma função de pesquisa de saúde de IA chamada “What People Suggest”, que afirmava fornecer sugestões de saúde com base na “experiência de pessoas com condições semelhantes”. Esta mudança ocorre alguns meses depois que o Google foi forçado a excluir significativamente conteúdo relevante porque sua pesquisa de IA “Visões gerais” continha informações imprecisas em consultas médicas, que os especialistas apontaram que poderiam colocar em risco a saúde pública.

Atualmente, este processo contra a OpenAI ainda está em andamento, e a família espera usar isso para levar os reguladores e as empresas a reexaminarem os limites da aplicação da IA ​​nas áreas médica e farmacêutica. Espera-se que a direção do caso tenha um impacto profundo nos padrões de conformidade das empresas de IA no que diz respeito às responsabilidades de design de produtos, medidas de proteção de segurança e funções relacionadas à saúde do usuário.