L'Intelligenza Artificiale nel contesto militare, tra innovazione e responsabilità umana

7 Gennaio 2025 - 11:15
20 Gennaio 2025 - 12:44
 0  6
L'Intelligenza Artificiale nel contesto militare, tra innovazione e responsabilità umana
Immagine generata da AI

Seduta davanti allo schermo, cerco di mettere ordine tra i pensieri. Non è facile. Come redattore abituato a scrivere di tecnologia, di solito racconto storie di innovazione che migliorano la vita: macchine che aiutano i medici a salvare pazienti, piattaforme che portano la scuola ovunque, algoritmi che semplificano la nostra quotidianità.

Ma oggi è diverso. Oggi devo parlare di qualcosa che mi pesa come un macigno: come le stesse macchine stiano ridefinendo il modo in cui gli esseri umani si tolgono la vita a vicenda.

Non parlo per numeri. Anche se quelli che leggo sul Guardian sono agghiaccianti: da 50 "obiettivi" colpiti all'anno a 100 al giorno. Dietro ogni "obiettivo" c’è una storia, una famiglia, una vita cancellata con un clic. A Gaza, le Forze di Difesa Israeliane hanno trasformato la guerra in un processo così rapido, così sistematico, da sembrare quasi una linea di produzione industriale.

Le parole di un ex soldato, riportate da +972 Magazine, rimbombano nella mia testa: "È come lavorare in una fabbrica... non c’è tempo per approfondire gli obiettivi." Una fabbrica. Non stiamo parlando di assemblare automobili o gadget. Parliamo di decidere chi vive e chi muore.

E poi c’è quel nome: Habsora. Significa "Vangelo" in ebraico. Il paradosso è devastante. Una tecnologia chiamata a portare la "buona novella" che invece semina distruzione. E ironia vuole che questo sistema, sofisticato quanto volete, non riesca nemmeno a decifrare la quotidianità delle strade di Gaza: le espressioni locali, il modo di parlare della gente.

Gli esperti cercano di rassicurarci. Il professor Anthony King ci dice che non dobbiamo temere un futuro in cui le macchine prenderanno il controllo totale. Ma non è questo il punto. Non mi spaventa il domani, mi terrorizza l’oggi. Siamo già arrivati al punto in cui delegare decisioni di vita o di morte a un algoritmo sembra normale.

In qualche ufficio anonimo, esseri umani reali, con un cuore che batte e mani che tremano - o forse non più - osservano schermi luminosi e premono pulsanti. È un gesto apparentemente insignificante, ma è un atto che cambia per sempre la vita di qualcuno dall’altra parte del mondo. Non sono robot. Sono persone che hanno scelto di consegnare una parte della loro umanità a una macchina.

Non possiamo nasconderci dietro termini asettici come "efficienza operativa" o "scelte strategiche". Non stiamo parlando di software, stiamo parlando di bambini che giocano a pallone, di madri che cucinano, di padri che rientrano a casa. Vite vere, ridotte a dati. "Obiettivi legittimi" stabiliti da calcoli che nessuno verifica davvero.

La tecnologia continuerà ad avanzare, questo è inevitabile. Ma dobbiamo fermarci e porci una domanda semplice, brutale: vogliamo un mondo in cui è una macchina a decidere quando qualcuno deve morire? Oppure uno in cui gli esseri umani si nascondono dietro quelle macchine per non sentire il peso delle proprie azioni?

Forse dobbiamo ricordare che, per quanto terribile, la guerra è sempre stata una questione umana.

Ed è proprio questo che dovrebbe rimanere, un atto che, per quanto crudele, ci costringe a fare i conti con la nostra coscienza. Perché perdere l’umanità, anche nella guerra, significa perderla del tutto.

Forse il vero progresso non è continuare a migliorare le macchine, ma imparare a salvaguardare la nostra umanità.

Anche – e soprattutto – quando parliamo di guerra.