Nel panorama attuale, dove l’intelligenza artificiale si immerge in ogni ambito dell'attività umana, la retorica politica si scontra frontalmente con le tattiche della guerra contemporanea. Un caso degli ultimi giorni è quello di Anthropic, l’azienda fondata dai fratelli italo-americani Dario e Daniela Amodei, recentemente finita nel mirino dell'amministrazione Trump.
Il 27 febbraio 2026 il governo ha ufficialmente interrotto i rapporti con Anthropic, dopo un lungo periodo in cui essa era già ampiamente utilizzata negli apparati federali americani. La rottura è maturata a seguito del fermo rifiuto di Anthropic di rimuovere i limiti etici sull'uso militare della propria tecnologia; Amodei si è opposto all'eliminazione dei "paletti" riguardanti la sorveglianza di massa e lo sviluppo di sistemi d’arma completamente autonomi. Tuttavia questa scelta non è stata dettata solo da principi morali, ma anche dalla convinzione tecnica dell'azienda circa l'inaffidabilità dei sistemi IA se applicati senza controllo nel campo bellico. Trump e il suo gabinetto di guerra hanno comunque accusato la società di essere una "azienda di IA della sinistra radicale".
Nonostante questo "bando" formale e la classificazione dell'azienda come "rischio per la sicurezza nazionale", la realtà operativa racconta una storia diversa, svelando le trame sottili delle lobby tecnologiche. Rapporti indicano che il Pentagono ha continuato a utilizzare gli algoritmi di Claude per informare le proprie operazioni militari. In particolare, il modello – integrato attraverso i sistemi di Palantir, colosso della sorveglianza guidato da Peter Thiel e storicamente legato agli apparati di difesa – sarebbe stato impiegato per coordinare i recenti attacchi in Iran.
Questa discrepanza evidenzia come nel settore dell'IA non esista un "blocco unico", ma piuttosto un ecosistema influenzato da potenti gruppi d'interesse e visioni divergenti. Mentre Anthropic ha scelto di non cedere, un'altra concorrente, OpenAI, si è mossa strategicamente per colmare il vuoto di potere. Sotto la guida di Sam Altman, l'azienda ha stretto un accordo con il Pentagono (ribattezzato da Trump "Dipartimento della Guerra") per fornire tecnologie su reti classificate. OpenAI, forte di un'intensa attività di pressione politica e legami sempre più stretti con i centri decisionali di Washington, punta a diventare lo standard globale per governi e apparati militari. Già nel 2024, l'azienda aveva rimosso dalle proprie policy il divieto di utilizzo per scopi "militari e bellici", posizionandosi per intercettare i massicci investimenti della Difesa.
In questo scenario, gli utenti emergono come un nuovo, inaspettato contropotere. I dati di Sensor Tower mostrano una reazione immediata dell'opinione pubblica: subito dopo l'annuncio dell'accordo militare, le disinstallazioni di ChatGPT (OpenAI) negli Stati Uniti sono aumentate drasticamente. Al contrario, i download di Claude (Anthropic) hanno registrato una crescita significativa, portando l'app in cima alle classifiche, probabilmente per la sua percepita resistenza etica alle pressioni governative.
I governi stanno intervenendo pesantemente nelle infrastrutture critiche, rendendo la digitalizzazione un importante fattore abilitante per la sicurezza nazionale, settore in cui l’IA ha trovato grande spazio di manovra e di guadagno, anche più che nell'uso privato dei cittadini. La direzione futura dell'IA sarà determinata dall'equilibrio precario tra necessità strategiche, interessi delle lobby, etica aziendale e volontà dei cittadini, i quali possono influenzare l'indirizzo dei finanziamenti statali verso le grandi corporation.
Il “vaso di Pandora” è ormai aperto e il mondo dovrà convivere con l’IA, ma ciò non giustifica un uso indiscriminato. I missili continuano ad essere lanciati, e le persone continuano a morire, e le posizioni dei governi sull'uso di nuove tecnologie belliche con i loro innegabili rischi – ammessi persino dalle stesse aziende che li hanno creati – sono fumose e ben poco regolamentate. Come avvenuto in passato per le armi chimiche o nucleari, sorge l'urgenza di una legislazione internazionale che regoli l'uso degli algoritmi nel nuovo volto della guerra, nella speranza che il diritto internazionale abbia ancora un valore nell'epoca contemporanea.