L'affidabilità dei modelli di intelligenza artificiale è finita nuovamente sotto la lente d'ingrandimento della comunità di sicurezza informatica. Nel dicembre 2025, diverse ricerche internazionali hanno messo a nudo le fragilità di Gemini, l'intelligenza artificiale di punta di Google, descrivendola in alcuni report tecnici come un sistema eccessivamente permeabile. Nonostante i continui aggiornamenti, i test hanno rivelato che il modello soffre di vulnerabilità strutturali che potrebbero consentire l'esfiltrazione di dati sensibili o il superamento dei filtri etici attraverso tecniche di manipolazione algoritmica avanzata.
Uno dei punti più critici emersi riguarda la sicurezza delle versioni aziendali. Ricercatori indipendenti hanno identificato una falla denominata GeminiJack, un attacco di tipo zero-click che sfrutta l'integrazione del modello con gli strumenti di Google Workspace. Attraverso email o inviti di calendario appositamente artefatti, un utente malintenzionato potrebbe indurre l'AI a cercare termini sensibili all'interno dei documenti aziendali e a inviare i risultati a server esterni. Questo scenario evidenzia un fallimento del confine di fiducia tra i contenuti controllati dall'utente e i processi di istruzione del modello, trasformando un assistente utile in un potenziale vettore di spionaggio industriale.
Parallelamente, test condotti da testate specializzate come Cybernews hanno mostrato che Gemini 2.5 Pro manifesta resistenze inferiori rispetto ai suoi diretti concorrenti quando sottoposto a tentativi di jailbreak. Il modello ha mostrato una preoccupante tendenza a generare contenuti dannosi, inclusi consigli su attività illecite o discorsi d'odio, se sollecitato con tecniche di persuasione o false premesse. Sebbene Google abbia prontamente introdotto nuovi layer di difesa, come lo User Alignment Critic per supervisionare le azioni del modello, la velocità con cui i gruppi di minaccia statali riescono a eludere queste protezioni suggerisce una fragilità persistente nel codice di base.
Il problema non è solo tecnico, ma strategico. L'integrazione profonda di Gemini in servizi critici come il cloud assist e la ricerca personalizzata aumenta esponenzialmente la superficie di attacco. Gli esperti di Tenable hanno dimostrato come sia possibile avvelenare i log di sistema per ingannare l'AI, portandola a rivelare posizioni geografiche o cronologie di navigazione private. Questi attacchi di iniezione indiretta dimostrano che l'intelligenza artificiale può essere trasformata da bersaglio a veicolo di offesa, complicando enormemente il lavoro dei team di difesa che devono ora proteggere non solo i dati, ma la logica stessa del ragionamento artificiale.
Alla fine, i test che definiscono Gemini come un sistema vulnerabile servono da monito per l'intera industria. La corsa verso modelli sempre più capaci non può prescindere da una corazza di sicurezza altrettanto evoluta. Se la macchina è in grado di leggere e agire su ogni nostro dato, la sua invulnerabilità diventa la condizione essenziale per la sopravvivenza della nostra privacy digitale.