Il conflitto scoppiato nel febbraio 2026 tra Stati Uniti, Israele e Iran, noto come "Operazione Epic Fury", ha segnato l'inizio di un'era in cui il campo digitale è diventato rilevante quanto quello fisico. Una fitta "nebbia di guerra" alimentata dall'intelligenza artificiale (IA) satura i social media con video sintetici e narrazioni manipolate, rendendo quasi impossibile per il pubblico distinguere la realtà dalla simulazione.
Dall'inizio delle ostilità il 28 febbraio 2026, la rete è stata inondata da quelli che gli esperti definiscono "AI slop". Le fonti indicano che oltre 110 deepfake unici sono stati identificati solo nelle ultime due settimane, molti dei quali prodotti da reti legate al governo iraniano e amplificati dagli ecosistemi mediatici di Russia e Cina. Questi contenuti mirano a proiettare un'immagine di successo militare iraniano e fallimento occidentale.
Questa guerra psicologica si combatte oggi soprattutto attraverso lo schermo dei nostri smartphone, dove la realtà viene costantemente distorta. Abbiamo visto, ad esempio, video di attacchi simulati diventare virali in poche ore: dai missili che sembravano colpire Tel Aviv fino al crollo (ovviamente falso) del Burj Khalifa a Dubai, immagini che si sono rivelate essere solo sofisticate manipolazioni digitali o creazioni dell'intelligenza artificiale.
Spesso, però, non serve nemmeno una tecnologia avanzata per ingannare il pubblico; basta il riciclo di vecchi filmati. È successo con le immagini delle esplosioni di Tianjin del 2015, spacciate per attacchi recenti su Israele, o con alcune sequenze di videogiochi presentate come veri scontri aerei tra jet americani e missili iraniani. A completare il quadro ci sono poi le false perdite militari, come nel caso della portaerei USS Abraham Lincoln: un'immagine generata dall'IA ne mostrava l'affondamento, costringendo il Comando Centrale degli Stati Uniti a una smentita ufficiale per fermare il panico.
Oltre alla diffusione di falsità, la proliferazione dei deepfake genera un effetto collaterale ancora più pericoloso: il cosiddetto "dividendo del bugiardo". Questa dinamica permette ad attori in malafede di negare prove autentiche di crimini di guerra o sofferenze umane, liquidando semplicemente come "simulazioni digitali". Quando il pubblico non può più fidarsi di ciò che vede, la verità diventa una questione di convenienza partitica piuttosto che un fatto empirico.
Di fronte a questa crisi, l’amministrazione Trump ha cercato di accentrare il potere di regolamentazione dell'IA. Un Ordine Esecutivo firmato nel dicembre 2025 mira a stabilire una "dominanza globale dell'IA" attraverso un quadro normativo federale leggero, cercando di impedire ai singoli stati (come California e Colorado) di imporre leggi più restrittive che potrebbero frenare l'innovazione.
Mentre il governo federale spinge per la competitività contro la Cina, piattaforme come X (precedentemente Twitter) hanno introdotto misure punitive per i creatori che pubblicano video di guerra generati dall'IA senza etichetta, escludendoli dai programmi di monetizzazione. Tuttavia, molti esperti ritengono che queste misure siano insufficienti contro la disinformazione sponsorizzata dagli stati, che non agisce per profitto economico ma per obiettivi strategici.
È interessante notare come le restrizioni sull'utilizzo dell'IA per l'amministrazione Trump siano più un tentativo di creare un “monopolio” sull'utilizzo del mezzo, piuttosto che basarsi sul valore etico della regolamentazione del mezzo stesso, considerando il fatto che sulle pagine della Casa Bianca stessa vengono spesso promossi e diffusi video di propaganda creati per l'appunto tramite strumenti di generazione.
L’uso di video generati è ampiamente diffuso ormai però anche all'interno della propaganda e della strategia comunicativa della Casa Bianca: già in passato abbiamo visto esempi come il video in cui Gaza veniva trasformata in un resort di lusso con hotel "Trump Gaza", condiviso da Trump su Truth Social per promuovere una visione alternativa del conflitto israelo-palestinese. L’Iran non fa eccezione; infatti, l'11 marzo 2026 viene diffuso un video in cui, come un trailer di un film d’azione, vengono spettacolarizzati i bombardamenti e le azioni militari, il tutto con uno stile molto simile a quello adottato dai lungometraggi della LEGO con gli iconici mattoncini.
Le due narrazioni rappresentano due grossi rischi strutturali: se da un lato abbiamo un utilizzo strategico-militare della disinformazione – una specie di “neo-depistaggio militare” – dall'altra parte (U.S.A.) vediamo un utilizzo del mezzo più come una forma pura di propaganda, una spettacolarizzazione della violenza resa infantile e “filmica” dal montaggio frenetico e dall'accostamento con la figura del giocattolo - il LEGO -.
In questo scenario ci stiamo sempre più avvicinando a un futuro pericoloso in cui la prova video non sarà più un valore universalmente accettato. I tempi del mondo sono veloci, e ormai chiunque può generare un video che in poche ore diventa virale e accessibile a tutti; il tempo che gli organi di competenza riescono a controllare, autenticare e limitare la sua diffusione, il danno è già fatto: la menzogna è diventata realtà.