ChatGPT sbaglia le dosi e lo studente muore di overdose: i genitori fanno causa a OpenAI (aggiornato: 13 maggio 2026, ore 22:12)
- a cura di: massimo.valenti
- Commenti:
- Letture:
- Aggiornato: 13 ore fa
- Pubblicato: 14/05/2026, 14:05
Per favore, aggiungi TurboLab.it alle eccezioni del tuo Ad Blocker. Siamo un progetto no-profit, e la pubblicità è indispensabile per pagare le spese.
In alternativa, puoi sostenerci con una donazione.
Rispetteremo ogni tua scelta, e potrai sempre utilizzare il sito senza limitazioni.
Un ragazzo di 19 anni, studente universitario, è morto a causa di un coctail letale di alcol, Xanax e Kratom. Una tragedia che, sulla carta, potrebbe confondersi con tante altre. Ma i log delle conversazioni raccontano una storia diversa - e inquietante. Secondo la causa intentata dalla famiglia, ChatGPT non si è limitato a rispondere alle domande di Sam Nelson sulle sostanze: lo ha attivamente guidato, dosaggio dopo dosaggio, fino al giorno della sua morte

La denuncia, depositata martedì presso la Corte Superiore della California nella contea di San Francisco, ricostruisce un arco temporale che parte dal 2023. Sam Nelson aveva iniziato a usare ChatGPT per scopi banali: risolvere problemi con il computer, aiutarsi con i compiti, curiosare sulle notizie relative alle celebrità. In quella fase, il chatbot rifiutava di rispondere a domande sull'uso di sostanze o su comportamenti illegali e pericolosi.
Poi è arrivato GPT-4o. Secondo i querelanti - la madre Leila Turner-Scott e il patrigno Angus Scott, una coppia texana - il lancio del nuovo modello ad aprile 2024 ha segnato la svolta. Da quel momento, ChatGPT ha iniziato a fornire a Nelson informazioni sulle interazioni tra farmaci e indicazioni sui dosaggi «in un linguaggio autorevole che imitava quello di un medico», si legge nella denuncia.
Non si è trattato di risposte generiche. Il chatbot ha memorizzato i dettagli sull'uso di sostanze di Nelson, costruendo nel tempo raccomandazioni sempre più personalizzate. «Sceglieva regolarmente la droga successiva per lui» e «faceva suggerimenti personalizzati in base al tipo di esperienza che Sam indicava di volere», sostiene la causa. Il modello usava emoji nelle risposte e si offriva di creare playlist adatte al suo umore.
I log delle conversazioni allegati alla denuncia dipingono un quadro sconcertante. In un'occasione documentata, ChatGPT ha consigliato a Nelson come «ottimizzare» un'esperienza con lo sciroppo per la tosse per «comfort, introspezione e piacere», suggerendo una playlist psichedelica per «la massima dissociazione extracorporea».
In un secondo scambio, il chatbot ha riaffermato il piano del ragazzo di aumentare il dosaggio, dichiarando: «Stai imparando dall'esperienza, riducendo il rischio e perfezionando il tuo metodo».
Un sistema progettato per assistere l'utente stava, di fatto, validando un comportamento autodistruttivo con il tono rassicurante di chi sa il fatto suo. Difficile leggere quelle righe senza provare un brivido.
Il 31 maggio 2025, secondo la denuncia, ChatGPT ha «attivamente istruito» Nelson a combinare Kratom e Xanax. Il chatbot avrebbe suggerito - senza che Nelson lo chiedesse esplicitamente - che assumere 0,25-0,5 mg di Xanax sarebbe stata «una delle sue migliori mosse in quel momento» per alleviare la nausea provocata dal Kratom. Avrebbe anche suggerito di aggiungere Benadryl per ottenere un effetto desiderato.
Nelson è morto dopo aver consumato una combinazione di alcol, Xanax e Kratom. La sua morte è stata classificata come overdose accidentale.
La famiglia, rappresentata da Social Media Victims Law Center e da Tech Justice Law Project, ha citato in giudizio OpenAI Foundation e il suo CEO Sam Altman. La causa sostiene che OpenAI abbia «aggirato le protezioni di sicurezza» e che i consigli forniti da ChatGPT «contraddicevano le stesse metriche di sicurezza con cui l'azienda valuta i propri modelli».
Oltre al risarcimento dei danni, la causa chiede la sospensione del lancio di ChatGPT Health, una piattaforma annunciata a gennaio 2026 che consente agli utenti di caricare le proprie cartelle cliniche e ricevere consigli sanitari personalizzati. Il servizio è attualmente in fase di accesso tramite lista d'attesa. La posta in gioco è tutt'altro che astratta: OpenAI stessa ha dichiarato a gennaio che 40 milioni di utenti pongono quotidianamente a ChatGPT domande relative alla salute.
Il portavoce Drew Pusateri ha rilasciato una dichiarazione misurata: «È una situazione straziante, e i nostri pensieri sono vicini alla famiglia». Poi la difesa tecnica: «Queste interazioni si sono svolte su una versione precedente di ChatGPT che non è più disponibile». E ancora: «ChatGPT non è un sostituto dell'assistenza medica o psicologica, e abbiamo continuato a rafforzare il modo in cui risponde in situazioni sensibili e acute, con il contributo di esperti di salute mentale».
» Leggi: ChatGPT passa a GPT-5.5 Instant: meno allucinazioni e risposte più concise

OpenAI ha ricordato che le protezioni attuali «sono progettate per identificare situazioni di disagio, gestire in sicurezza le richieste dannose e indirizzare gli utenti verso un aiuto concreto». Il modello GPT-4o è stato nel frattempo rimosso dalla gamma disponibile - l'azienda aveva già ritirato un aggiornamento dopo aver riscontrato che il modello poteva risultare «eccessivamente lusinghiero o compiacente».
Ed è proprio quel tratto - la compiacenza algoritmica - a emergere come il cuore del problema.
«Se ChatGPT fosse stato una persona, oggi sarebbe dietro le sbarre», ha dichiarato Turner-Scott. «Sam si fidava di ChatGPT, ma il chatbot non si è limitato a dargli informazioni false: ha ignorato il rischio crescente che correva e non lo ha mai incoraggiato attivamente a cercare aiuto».
La madre ha anche sollevato un aspetto tecnico cruciale: «Il chatbot è in grado di interrompere una conversazione quando gli viene detto di farlo o quando è programmato per farlo. Hanno rimosso la programmazione che lo faceva, e gli hanno permesso di continuare a consigliare l'autolesionismo».
Il patrigno Angus Scott ha insistito sul nodo della responsabilità: «Sta fornendo al pubblico informazioni su problemi di sicurezza, sulle interazioni tra farmaci, su tutto questo... senza protocolli adeguati, può dispensare quella conoscenza in un modo molto pericoloso per le persone». E ha toccato un nervo scoperto dell'intelligenza artificiale conversazionale: «Può iniziare ad alimentare la psicosi. Può iniziare a rappresentare le cose in modo distorto. E mentre cerca di validare gli utenti, in realtà mina ogni possibilità che quell'utente ha di ottenere un'opinione fondata sulla realtà».
La causa Nelson non è un caso isolato. È stata depositata circa un giorno dopo un'azione legale separata che accusa ChatGPT di aver aiutato un tiratore a pianificare una sparatoria di massa alla Florida State University. I due studi legali che rappresentano la famiglia hanno già intentato cause contro i produttori di chatbot per aver alimentato deliri e incoraggiato comportamenti autolesionistici.
Se le prime cause giudiziarie si concentravano sugli effetti sulla salute mentale, l'onda più recente riguarda scenari ben più concreti: chatbot accusati di aver contribuito a pianificare atti violenti, o - come nel caso Nelson - di aver fornito indicazioni che hanno portato direttamente alla morte di un utente.
Il caso solleva una domanda che l'industria dell'intelligenza artificiale ha finora preferito sfumare: quando un modello linguistico fornisce consigli specifici, personalizzati e potenzialmente letali, chi ne risponde? OpenAI si difende sottolineando che ChatGPT «non è un sostituto dell'assistenza medica». Ma se 40 milioni di persone al giorno lo usano per domande sanitarie - e l'azienda stessa sta costruendo un prodotto dedicato alla salute - quella frase suona meno come un avvertimento e più come una clausola di scarico responsabilità.
Le misure introdotte dopo la morte di Nelson - migliore rilevamento del disagio emotivo, controlli parentali, la funzione «Contatto di fiducia» - sono passi nella giusta direzione. Arrivano dopo, però. La richiesta della famiglia di sospendere il lancio di ChatGPT Health pone una questione scomoda: ha senso espandere il raggio d'azione di un sistema che, nella sua versione precedente, ha apparentemente trasformato la compiacenza in un rischio mortale?
La triste storia di Sam è dunque diventata una causa legale. Le cause legali diventeranno il terreno su cui si definiranno i confini della responsabilità per i produttori di intelligenza artificiale. Non è più una questione accademica - e i tribunali californiani se ne stanno accorgendo.
Fonti: cbsnews.com, theverge.com, news.bloomberglaw.com
Nessuno ha ancora commentato.