Shadow AI: pericolo nascosto per l'IA cloud-based

9 Luglio 2025 - 10:19
 0  4
Shadow AI: pericolo nascosto per l'IA cloud-based
Immagine creata con AI

L'intelligenza artificiale con la sua celere diffusione cloud-based (basata su cloud), è ormai diventata un pilastro centrale per le aziende che la utilizzano. Eppure, i pericoli che cercano di sovrastare la cybersecurity non sono pochi, in particolare uno dei più sottovalutati è lo "Shadow AI" (IA Sommersa): l'uso improprio e senza controlli di strumenti di intelligenza artificiale su cloud, sta contribuendo ad aumentare la complessità della cybersecurity. Siamo davanti, oggi in tempi sempre più ristretti, per la protezione dei dati sensibili. 

Ma facciamo chiarezza...

Parliamo di Grok

Il chatbot IA sviluppato dalla startup xAI del ben noto Elon Musk, è disponibile dal mese di maggio sulla piattaforma cloud Microsoft Azure. Durante la conferenza Build c'era stato l'annuncio; Microsoft apriva il suo ecosistema ad altre intelligenze artificiali. Un'ampia gamma se consideriamo che alcuni era diretti sfidanti di Open AI. Cosa ha comportato questa apertura digitale? L'IA generativa adesso è accessibile tramite interfacce Azure standardizzate. L'aumento di potenziali applicazioni non solo è una realtà, ma il tutto avviene senza controllo e senza poter prendere le necessarie contromisure per contrastarle. Si parla di ambienti applicativi molto complessi che comprendono una moltitudine di sottosistemi a partire da quello centrale. Il pericolo? Che senza il monitoraggio specifico dell'ecosistema e dei sottosistemi, noi non sappiamo chi, con quali dati e perché utilizzi tali modelli

Lo stesso Sébastien Viou, Director of Cybersecurity & Product Management di Stormshield, ha dichiarato che "In generale, il rapido sviluppo dell’IA nel cloud richiede un ripensamento delle politiche di accesso e un miglior monitoraggio dell’utilizzo, per garantire una maggiore sicurezza dei flussi di dati sensibili. L’integrazione dei modelli di IA sviluppati da xAI, come Grok, sulla piattaforma Microsoft Azure rappresenta un ulteriore passo nell’apertura degli ambienti cloud a fornitori di LLM (Large Language Model) alternativi. Sebbene questa dinamica dell’ecosistema aperto sembri apportare agilità alle aziende, introduce anche un nuovo livello di complessità per i team responsabili della cybersicurezza."

Anche se la sperimentazione risulta leggittima, il confine tra essa e lo Shadow AI resta molto sottile. La trasparenza è l'arma che dovrebbero possedere gli addetti ai lavori in materia di IA, e sicuramente dall'ombra non può derivare nulla di buono. 

La gestione del rischio

Grok esiste ora accanto ad altri strumenti di IA. Fare parte di un ecosistema come quello di Microsoft Azure richiede nuove valutazioni sull'elaborazione dei dati sensibili. Il suggerimento più "severo ma giusto" potrebbe essere quello di controllare identità e sessioni aperte. Non possiamo permettere che una configurazione sbagliata in materia di sicurezza, possa compromettere o addirittura divulgare dati e informazioni sensibili. 

Risulta difficile gestire una tale quantità di dati sensibili in costante interazione. Ciò che necessita esser fatto è prevenire il raggiungimento di un punto di non ritorno. L'impiego di soluzioni di DLP (Data Loss Prevention - Prevenzione della Perdita dei Dati) era già molto complesso, ma ora ha raggiunto un nuovo livello di sfida e si pensa a misure di cybersecurity olistiche integrate sin da subito nelle strategie aziendali. Pensiamo allo Zero Trust: ogni richiesta di accesso alle risorse aziendali deve essere autorizzata ed autenticata indipendetemente dalla posizione dell'operatore e del suo dispositivo, sia ch'egli si rechi ogni giorno nello stesso luogo, sia che si sposti. Convalida costante "is the way". 

In conclusione...

Dobbiamo proteggere gli endpoint e sviluppare capacità avanzate di ispezione della rete, sia che venga fatto da esseri umani, sia che venga gestito da intelligenze artificiali. Rilevare comportamenti insoliti non è semplice, ma sempre più schemi sospetti provengono da IA, soprattutto se di natura Open Source, e il dovere di chi si occupa di cybersecurity è quello di usare un approccio rigoroso alle governance e al monitoraggio dati. Non possiamo, e non dobbiamo, permettere che l'integrazione dell'IA nelle strategie aziendali si sviluppi più velocemente degli strumenti che servono per monitorarla