Vannevar Labs e l'IA nello spionaggio militare

25 Aprile 2025 - 09:48
25 Aprile 2025 - 09:50
 0  5
Vannevar Labs e l'IA nello spionaggio militare
Immagine creata con AI

Durante lo scorso anno, gli Stati Uniti hanno condotto un'esercitazione militare utilizzando un'intelligenza artificiale generativa a bordo di tre grandi navi. L'esercitazione ha avuto luogo nelle acque del Pacifico, tra Corea del Sud e Indonesia, coinvolgendo anche Filippine e India. Lo scopo? Raccogliere informazioni e farle interpretare dall'intelligenza artificiale. Il Pentagono si è dichiarato soddisfatto del lavoro svolto da circa 2500 membri della 15th Marine Expeditionary Unit, che ha utilizzato per l'appunto gli strumenti di LLM (Large Language Models) per uno scopo ben preciso, anche se la questione ha sollevato delle perplessità in merito alle decisioni che può prendere l'IA quando si tratta di questioni delicate. 

VANNEVAR LABS

Al centro della sperimentazione la Vannevar Labs, azienda tecnologica di difesa fondata nel 2019 da veri e propri specialisti che hanno militato nei servizi segreti deli Stati Uniti. Grazie al loro lavoro possono offrire accesso all'ingente quantità di dati raccolti a partire dal 2021. In particolare, l'azienda ha dichiarato che raccoglie dati da circa 180 paesi e che grazie ai modelli di intelligenza artificiale, può fornire informazioni preziose. Tali modelli sono quelli sviluppati da OpenAI e Microsoft, ma l'azienda ha anche sviluppato LLM propri dotati sempre di interfaccia chatbot per avere la sensazione di parlare con qualcuno di "umano". 

Scott Philips, ufficiale in capo per la tecnologia di Vannevar Labs, ha affermato che la mission dell'azienda è quella di raccogliere dati utili per aiutare il governo degli Stati Uniti a prendere delle decisioni ottimali. Gli strumenti di LLM che l'azienda sta utilizzando, differiscono da precedenti modelli che il governo ha impiegato, come quelli del Project Maven, in cui il dipartimento della difesa utilizzava immagini e video provenienti dai droni per identificare potenziali bersagli. 

PREOCCUPAZIONI SULL'INTERPRETAZIONE DEI DATI

Il Pentagono però risulta preoccupato sulla questione che riguarda l'interpretazione di questi dati forniti da IA. Heidy Khlaaf, che lavora come scienziata all'AI Now Institute, si è dichiarata preoccupata sul risultato che forniscono gli LLM in quanto risultano ancora fin troppo imprecisi, anche quando la mano dell'uomo supervisiona il lavoro della macchina. Anzi, a preoccupare la scienziata è proprio il fatto che la mole di dati analizzati non ha compensazione col lavoro umano di analisi di ciò che restituisce l'LLM. 

Poi c'è la natura open source di alcuni LLM, poiché i dati open source sono suscettibili a manipolazioni e, per diretta conseguenza, alla restituzione di vera e propria disinformazione (allucinazioni dell'IA per es.). Per Chris Mouton, ingegnere senior presso RAND Corporation, la trasparenza sugli scopi degli LLM è cosa scontata. Ma abbiamo Scott Philips che dice che gli strumenti in mano a Vannevar saranno utili agli Stati Uniti, e abbiamo Heidy Khlaaf che sostiene una tesi contraria. Chi ha o avrà ragione? Purtroppo il rischio c'è, perché nel momento in cui l'IA stabilisce che qualcosa sia ostile, potrebbe provvedere a prendere la autonoma decisione di intervenire, anche quando non esiste un reale bisogno di farlo. Dobbiamo far sempre presente che l'IA deve essere un supporto all'uomo e non un sostituto, soprattutto quando parliamo di decisioni delicate. 

Ciò che invoglia gli ufficiali in comando, durante l'uso dei modelli LLM per le operazioni, è la velocità dell'intelligenza artificiale per tutto ciò che concerne l'invio dei rapporti e soprattutto l'efficienza in situazioni dinamiche. Durante l'operazione nel Pacifico, a fare da protagonista è stata proprio la velocità con cui l'IA ha interpretato e analizzato i dati. Vannevar, che ha stipulato un contratto da 99 milioni di dollari con la DIU (Difense Innovation Unit) del Pentagono, oggi si annovera insieme ad altre aziende che svolgono compiti simili o analoghi per il governo degli Stati Uniti, come Microsoft, per citare la più famosa. 

In conclusione, il colonnello Sean Dyanan ha dichiarato che questo tipo di IA generativa atta a questi scopi, sarà sempre più utilizzata dal governo degli Stati Uniti, ma quello che preoccupa è proprio l'utilizzo in ambito militare a causa delle implicazioni etiche di cui si fregia.