OpenAI lancia GPT-5.5-Cyber: IA avanzata per trovare vulnerabilità software (aggiornato: 11 maggio 2026, ore 07:39)
- a cura di: massimo.valenti
- Commenti:
- Letture:
- Aggiornato: 11/05/2026, 07:39
- Pubblicato: 11/05/2026, 06:54
Per favore, aggiungi TurboLab.it alle eccezioni del tuo Ad Blocker. Siamo un progetto no-profit, e la pubblicità è indispensabile per pagare le spese.
In alternativa, puoi sostenerci con una donazione.
Rispetteremo ogni tua scelta, e potrai sempre utilizzare il sito senza limitazioni.
OpenAI ha lanciato GPT-5.5-Cyber, una variante del suo modello di punta calibrata specificamente per i professionisti della sicurezza informatica. Non è un salto nelle capacità cognitive del modello, e OpenAI lo dice senza giri di parole. La vera novità è altrove: nell'architettura di accesso che lo circonda, nel programma di verifica che stabilisce chi può usarlo e - soprattutto - nella scelta deliberata di allentare le briglie ai difensori senza consegnare armi agli attaccanti. Una scommessa delicata, in un momento in cui l'intelligenza artificiale applicata alla cybersecurity è diventata un terreno di scontro commerciale e geopolitico.

La distinzione è cruciale. GPT-5.5-Cyber non è un modello fondamentalmente diverso da GPT-5.5, rilasciato circa due settimane prima. OpenAI lo definisce «la versione più permissiva della sua linea di prodotti per la cybersecurity», ma specifica che «l'anteprima iniziale di modelli cyber-permissivi come GPT-5.5-Cyber non è pensata per aumentare significativamente le capacità informatiche rispetto a GPT-5.5 - è addestrato principalmente per essere più permissivo nei compiti legati alla sicurezza».
In termini concreti: il modello riduce i rifiuti generati dai classificatori interni quando un utente verificato chiede assistenza su attività che un modello standard bloccherebbe per eccesso di cautela. Analisi di malware, reverse engineering di binari, test di penetrazione autorizzati, validazione di patch, ingegneria della rilevazione - tutte operazioni che un difensore conduce legittimamente ma che un modello generalista tende a trattare come potenzialmente dannose. «Le differenze tra i livelli di accesso ai modelli sono più evidenti quando si confrontano prompt e risposte», spiega OpenAI. Il cervello è lo stesso. Cambiano i permessi.
» Leggi: Disponibile GPT-5.5: ancora più intelligente, batte Anthropic e Google in alcuni benchmark

GPT-5.5-Cyber è disponibile esclusivamente attraverso il programma Trusted Access for Cyber, un sistema di accesso basato su identità e fiducia. Non basta un abbonamento: il modello è riservato a «un gruppo ristretto di difensori e organizzazioni altamente verificati», con requisiti di verifica più stringenti rispetto ai livelli standard del programma e controlli a livello di singolo account.
Il perimetro delle attività consentite è ampio ma definito. Gli utenti approvati possono impiegare il modello per caccia ai bug, analisi di malware, red teaming autorizzato, test di penetrazione, identificazione di vulnerabilità, sicurezza della supply chain software, operazioni di monitoraggio e difesa delle reti. Restano bloccate - indipendentemente dal livello di accesso - attività come il furto di credenziali, la scrittura o distribuzione di malware, le operazioni di persistenza e occultamento e lo sfruttamento di sistemi di terze parti non autorizzati.
Un dettaglio operativo da non sottovalutare: a partire dal 1° giugno 2026, tutti gli utenti e le organizzazioni approvati dovranno implementare protezioni di autenticazione resistenti al phishing. OpenAI alza l'asticella della sicurezza anche per chi usa i propri strumenti di sicurezza - una coerenza quasi disarmante, se non fosse che in questo settore è tutt'altro che scontata.
Alcuni partner selezionati hanno già utilizzato GPT-5.5-Cyber per automatizzare ed espandere esercizi di red teaming su sistemi infrastrutturali e per validare vulnerabilità ad alta gravità. OpenAI promette di documentare i risultati in un futuro approfondimento tecnico nell'ambito di un processo di divulgazione responsabile.
Vale la pena incastonare qui un dato di contesto: il UK AI Security Institute ha valutato GPT-5.5 (versione standard) su 95 compiti specifici di cybersecurity, concludendo che quelli di base risultano «completamente saturati dai modelli principali almeno da febbraio 2026». L'istituto ha però precisato che i suoi test non riflettono le prestazioni contro obiettivi reali ben difesi, con difensori attivi e penalità per gli allarmi generati. Un caveat che chiunque sia tentato di trarre conclusioni troppo nette farebbe bene a tenere a mente.
Insieme a GPT-5.5-Cyber, OpenAI ha annunciato Codex Security, un sistema progettato per aiutare i manutentori di progetti open source a identificare, validare e correggere vulnerabilità. Lo strumento offre modellazione delle minacce specifica per il codice analizzato, analisi dei percorsi di attacco e raccomandazioni per le patch. Se manterrà le promesse, potrebbe colmare un divario cronico: la sicurezza dei progetti open source, spesso gestiti da volontari con risorse limitate, è da anni il tallone d'Achille dell'ecosistema software.
OpenAI ha stretto collaborazioni con Cisco, Intel, SentinelOne e Snyk per valutare come i modelli di intelligenza artificiale possano accelerare i flussi di lavoro difensivi e i sistemi di protezione su larga scala.
Anthony Grieco, SVP e Chief Security & Trust Officer di Cisco, ha inquadrato la questione con pragmatismo: «In Cisco consideriamo i modelli di frontiera un potente moltiplicatore di forza per i difensori. Modelli come GPT-5.5 stanno cambiando radicalmente la velocità delle nostre operazioni, permettendoci di agire più rapidamente su tutto, dall'indagine sugli incidenti alla riduzione proattiva dell'esposizione. Ma la velocità non può essere scambiata con la fiducia. Il vero valore di questa tecnologia non si trova nel modello in sé, ma nell'infrastruttura di livello enterprise che costruiamo attorno ad esso».
Sam Altman, CEO di OpenAI, ha scritto su X con il consueto tono sintetico: «Vorremmo aiutare le aziende a proteggersi, e riteniamo che sia importante iniziare a lavorarci rapidamente». OpenAI ha inoltre dichiarato di voler «continuare ad accelerare i difensori con vari modelli, inclusi sia i modelli di punta attraverso Trusted Access for Cyber, sia modelli dedicati come GPT-5.5-Cyber e modelli ancora più capaci in ambito cyber in futuro».
Sul piano della governance, OpenAI aveva già fornito accesso a una versione precedente, GPT-5.4-Cyber, al US Center for AI Standards and Innovation e al UK AI Security Institute per valutazioni indipendenti - un passaggio che segnala l'intenzione di costruire credibilità istituzionale prima di aprire i rubinetti.

Il lancio di GPT-5.5-Cyber arriva circa un mese dopo il rilascio da parte di Anthropic di Claude Mythos Preview, un modello anch'esso orientato alla cybersecurity che ha attirato l'attenzione di investitori e di figure di primo piano dell'amministrazione Trump. Un dettaglio non banale: Anthropic era stata inserita nella lista nera del Pentagono poche settimane prima del rilascio, eppure il modello ha comunque suscitato interesse ai vertici dell'esecutivo. GPT-5.5 standard, del resto, era stato presentato come la risposta di OpenAI proprio a Claude Mythos.
La cybersecurity basata sull'intelligenza artificiale è diventata un fronte competitivo formale. Le domande che emergono non riguardano solo le prestazioni tecniche - chi ha il modello migliore per trovare vulnerabilità - ma questioni di controllo e responsabilità: chi gestisce gli strumenti di attacco e difesa basati sull'IA, chi risponde in caso di abuso, quale ruolo giocano i governi nel definire i confini.
GPT-5.5-Cyber, nella sua essenza, non è una svolta tecnica. È una svolta di policy: la decisione di un'azienda di intelligenza artificiale di costruire un sistema di accesso differenziato che distingue formalmente tra difensori verificati e tutti gli altri. Che regga dipenderà dalla robustezza della verifica, dalla tenuta dei blocchi sulle attività vietate e dalla capacità di OpenAI di mantenere il controllo man mano che il programma si espande. Le premesse sono solide. I dettagli operativi saranno il vero banco di prova.
Fonti: axios.com, politico.com, helpnetsecurity.com
Nessuno ha ancora commentato.