Il 5 novembre 2025 la società di ricerca Tenable ha annunciato la scoperta di sette vulnerabilità critiche all’interno di ChatGPT, riguardanti le versioni più recenti dei modelli GPT-4o e GPT-5. Gli attacchi, denominati tra “zero-click” e “indirect prompt-injection”, consentono a un malintenzionato di sottrarre dati sensibili da utenti ignari, accedere a cronologie di chat e aggirare le protezioni del sistema.
Le tecniche identificate includono l’iniezione di istruzioni maligni in siti web considerati affidabili, l’uso di link inseriti in risultati di ricerca come vettori di attacco e la persistenza di comandi malevoli integrati nella memoria a lungo termine del modello. In un caso, basta che l’utente ponga una domanda generica al sistema perché l’attacco venga attivato: l’IA analizza contenuti precedenti, interpreta istruzioni nascoste e restituisce output che espongono dati personali.
Le implicazioni sono vaste. ChatGPT è utilizzato quotidianamente da centinaia di milioni di utenti, in ambiti che vanno dallo studio all’uso aziendale. Un modello che può essere manipolato da terzi per raccogliere informazioni personali rappresenta una vulnerabilità strutturale non solo tecnica, ma anche etica e sociale. Le aziende che integrano questi strumenti nei propri flussi di lavoro aziendali si trovano a dover valutare la riservatezza, la responsabilità e la robustezza dei sistemi.
OpenAI ha confermato di essere al corrente della situazione e di aver già corretto alcune falle, ma ha ammesso che non tutte le vulnerabilità sono state sanate. Il rapporto stesso dei ricercatori segnala che alcune tecniche restano attive nelle versioni più recenti e che il rischio persistente è concreto. Questo solleva una domanda centrale: quando un modello di IA diventa parte integrante della vita quotidiana, quali garanzie devono essere offerte all’utente?
Dal punto di vista tecnico le vulnerabilità mostrano quanto l’intelligenza artificiale contemporanea sia più complessa da difendere rispetto al software tradizionale. Le interfacce, le connessioni web, la memorizzazione delle chat, la navigazione integrata ampliano la superficie d’attacco. Modellare la sicurezza per l’IA non significa solo aggiornare un programma: significa ripensare l’architettura, i permessi, il profilo dell’utente e le forme di interazione.
Alla fine, ciò che emerge è una verità semplice ma spesso sottovalutata: l’innovazione incessante non garantisce automaticamente sicurezza e responsabilità. Se anche il sistema più sofisticato può diventare veicolo di rischio, la risposta non è abbandonare l’IA ma costruire intorno ad essa un sistema di fiducia, trasparenza e controllo umano.