C’è un passaggio che mi colpisce più di altri nei recenti report internazionali sull’intelligenza artificiale. Non è la stima dei trilioni di dollari di valore aggiunto. Non è nemmeno la percentuale di lavori a rischio. È l’idea che i prossimi due anni possano decidere la forma sociale del prossimo mezzo secolo.
Non stiamo più discutendo se l’intelligenza artificiale funzioni. Funziona. Non stiamo più discutendo se sia utile. Lo è già. La vera questione è chi assorbirà i benefici e chi pagherà i costi della transizione.
Quando organismi economici globali parlano apertamente di una possibile espansione enorme del PIL mondiale accompagnata da una destabilizzazione massiccia del lavoro qualificato, non stanno facendo previsioni tecnologiche. Stanno lanciando un avvertimento politico e culturale. La tecnologia ha superato la fase della promessa. Ora entra nella fase della conseguenza.
Osservo un cambiamento netto nel tono del dibattito. Fino a poco tempo fa dominava l’entusiasmo. Oggi prevale la valutazione strutturale dell’impatto. Non si parla più solo di modelli, prestazioni e benchmark. Si parla di redistribuzione, di asimmetrie, di concentrazione di potere computazionale. Si parla di chi possiede le infrastrutture e di chi dipende dalle loro decisioni.
Il cosiddetto paradosso della produttività non è nuovo nella storia economica, ma oggi assume una forma più radicale. È possibile aumentare la produzione complessiva riducendo il valore economico di intere categorie professionali. Non è teoria. Sta già accadendo in segmenti della consulenza, dell’analisi, della produzione di contenuti, della gestione documentale. La macchina non sostituisce solo il lavoro ripetitivo. Sta comprimendo anche il lavoro cognitivo intermedio.
Questo crea una frattura silenziosa. Non tra chi usa l’IA e chi non la usa, ma tra chi la possiede e chi la subisce.
C’è poi un’altra linea di tensione che mi sembra ancora più sottovalutata. L’asimmetria tecnologica tra aree del mondo. Alcuni paesi stanno correndo verso automazione, modelli predittivi, sistemi decisionali algoritmici. Altri stanno ancora cercando di consolidare infrastrutture di base. Se i benefici dell’automazione non vengono redistribuiti, il rischio non è solo economico. È geopolitico e sociale.
L’instabilità non nasce dalla povertà assoluta. Nasce dalla percezione di ingiustizia sistemica.
Per questo trovo interessante che il dibattito scientifico più serio sulla sicurezza dell’intelligenza artificiale si stia spostando dall’immaginario fantascientifico al problema della delega decisionale. Non temiamo macchine ribelli. Temiamo sistemi opachi a cui affidiamo funzioni critiche senza adeguati meccanismi di controllo, audit e responsabilità.
Energia, sanità, trasporti, finanza. Se un algoritmo prende decisioni rilevanti e sbaglia, chi risponde. Il programmatore. Il fornitore. L’ente che lo ha adottato. Nessuno. Questa zona grigia non è più sostenibile.
Continuo a pensare che il vero punto non sia fermare l’intelligenza artificiale. Sarebbe irrealistico e anche controproducente. Il punto è governarne l’integrazione. Stabilire dove serve supervisione umana obbligatoria. Dove serve trasparenza. Dove serve ridondanza. Dove serve il diritto di opposizione alla decisione automatica.
La differenza tra una nuova età di prosperità e una stagione di tensione sociale non dipenderà dalla potenza dei modelli. Dipenderà dalla qualità delle regole.
Se lasciamo che sia solo il mercato a decidere tempi e modalità, avremo efficienza e concentrazione. Se la politica, la ricerca e le istituzioni torneranno a fare architettura di sistema, potremo avere innovazione e coesione.
Non è una scelta tecnica. È una scelta di civiltà.
Alla fine, il vero indicatore di successo non sarà quanta capacità di calcolo avremo costruito, ma quante persone non avremo lasciato indietro mentre lo facevamo.