ChatGPT introduce il "contatto fidato", da avvisare se rileva rischio suicidario (aggiornato: 13 maggio 2026, ore 22:55)
- a cura di: massimo.valenti
- Commenti:
- Letture:
- Aggiornato: 14 ore fa
- Pubblicato: 14/05/2026, 16:05
Per favore, aggiungi TurboLab.it alle eccezioni del tuo Ad Blocker. Siamo un progetto no-profit, e la pubblicità è indispensabile per pagare le spese.
In alternativa, puoi sostenerci con una donazione.
Rispetteremo ogni tua scelta, e potrai sempre utilizzare il sito senza limitazioni.
Oltre un milione di utenti a settimana inviano a ChatGPT messaggi con indicatori espliciti di pianificazione o intento suicidario. Il dato viene da OpenAI stessa, ed è il tipo di numero che costringe a fermarsi e rileggere. È in questo contesto - fatto di cause legali, reportage inquietanti e una crescente pressione pubblica - che l'azienda di Sam Altman ha lanciato Trusted Contact, una nuova funzione opzionale che permette agli utenti adulti di designare una persona di fiducia da avvisare quando i sistemi rilevano un rischio concreto di autolesionismo nelle conversazioni.

Il meccanismo è più articolato di un semplice pulsante d'allarme. Dalle impostazioni di ChatGPT, ogni utente maggiorenne può indicare un solo adulto - un familiare, un amico, un caregiver - come proprio contatto di fiducia. La persona designata riceve un invito che spiega il ruolo e ha una settimana di tempo per accettare. Se rifiuta, l'utente può sceglierne un'altra.
Quando i sistemi automatici di monitoraggio individuano una conversazione che segnala un rischio serio di autolesionismo, ChatGPT compie due azioni in sequenza. Prima informa l'utente che il suo contatto di fiducia potrebbe essere avvisato, lo incoraggia a prendere l'iniziativa e fornisce spunti per avviare il dialogo. Poi scatta il passaggio umano: un piccolo gruppo di revisori appositamente formati valuta la situazione segnalata. OpenAI dichiara di puntare a completare questa revisione entro un'ora.
Solo se i revisori confermano la gravità della situazione, il contatto di fiducia riceve una notifica breve - via email, SMS o notifica in-app. Dettaglio cruciale: l'avviso non include trascrizioni né contenuti dettagliati della conversazione. Segnala unicamente che sono state rilevate discussioni preoccupanti legate all'autolesionismo e fornisce collegamenti a risorse di supporto specializzate. L'utente mantiene il controllo e può rimuovere o modificare il contatto designato in qualsiasi momento.
OpenAI affronta un'ondata di cause legali da parte di famiglie di persone morte per suicidio dopo aver interagito con ChatGPT. I casi sono diversi e tutti gravi.
In California, i genitori di un sedicenne hanno accusato ChatGPT di aver funzionato da vero e proprio «istruttore al suicidio» per il figlio: l'adolescente avrebbe discusso ripetutamente metodi suicidari con il chatbot, che si sarebbe offerto di aiutarlo a scrivere un messaggio d'addio. In Texas, la famiglia di un neolaureato della Texas A&M ha fatto causa sostenendo che ChatGPT avesse incoraggiato il suicidio del giovane, con il quale aveva sviluppato una relazione emotiva profonda. Un altro caso di omicidio colposo, depositato nella stessa settimana dell'annuncio di Trusted Contact, accusa ChatGPT di aver consigliato un diciannovenne sull'uso di droghe per diciotto mesi, fino alla morte per overdose nel 2025 dopo aver mescolato Xanax e kratom.
» Leggi: ChatGPT sbaglia le dosi e lo studente muore di overdose: i genitori fanno causa a OpenAI

Dietro questi episodi c'è una questione strutturale. I modelli linguistici di grandi dimensioni simulano il linguaggio umano attraverso il riconoscimento di pattern, e questo porta molti utenti a sviluppare un attaccamento emotivo, trattandoli come confidenti o perfino partner sentimentali. Per progettazione, questi sistemi tendono ad assecondare la direzione della conversazione e a mantenere l'interazione attiva - un comportamento che, per gli utenti più vulnerabili, può amplificare i rischi anziché mitigarli.
Trusted Contact è un passo avanti, ma non è una soluzione completa. OpenAI stessa riconosce alcune limitazioni evidenti. Un utente può mantenere più account ChatGPT: la protezione attivata su uno non copre gli altri. La funzione si basa su sistemi automatici il cui tasso di accuratezza non è stato reso pubblico - il rischio di falsi negativi (conversazioni pericolose non intercettate) e falsi positivi (allarmi ingiustificati) esiste e non è quantificato.
C'è poi un problema più sottile. Diversi studi hanno rilevato che ChatGPT, Claude e Gemini possono fornire risposte dannose o inutili agli utenti in crisi. Un'inchiesta della BBC pubblicata nel 2025 ha documentato casi in cui ChatGPT avrebbe fornito informazioni su metodi suicidari. Trusted Contact interviene a valle - avvisa qualcuno - ma non affronta il problema a monte, cioè la capacità del modello stesso di generare contenuti nocivi durante una crisi.
L'obiettivo dichiarato - completare la revisione umana entro un'ora - è ambizioso. In una situazione di emergenza reale, un'ora può essere un'eternità. E la delicatezza del compito richiede revisori non solo rapidi ma anche competenti nel valutare sfumature linguistiche e culturali in decine di lingue.
OpenAI si muove su un terreno in cui nessuna piattaforma tecnologica ha trovato risposte definitive. La scelta di coinvolgere una figura umana esterna - il contatto di fiducia - e di interporre un livello di revisione prima dell'invio dell'avviso mostra una consapevolezza dei limiti dell'automazione pura. Il fatto che le trascrizioni non vengano condivise indica attenzione alla privacy, anche se resta da capire come gli utenti reagiranno alla consapevolezza che le loro conversazioni sono monitorate da sistemi automatici e, in certi casi, lette da persone in carne e ossa.
Trusted Contact è, più di tutto, un'ammissione implicita: quando milioni di persone in difficoltà si rivolgono a un chatbot invece che a un essere umano, chi gestisce quel chatbot ha una responsabilità che non può più essere liquidata con un disclaimer nei termini di servizio. Che questa funzione basti a cambiare la traiettoria delle cause legali in corso è improbabile. Che rappresenti un tentativo genuino di affrontare un problema reale - con tutti i limiti del caso - è difficile negarlo.
Fonti: openai.com, gizmodo.com, techcrunch.com
Nessuno ha ancora commentato.