Ci sono anniversari che non celebrano una nascita, ma una rottura. La fine del 2025 segna il terzo anno esatto da quando ChatGPT è emerso dal laboratorio per farsi infrastruttura globale, eppure la sensazione non è di trionfo, ma di affanno. In questi mille giorni l'intelligenza artificiale generativa ha compiuto la transizione più veloce mai vista, passando da esperimento a elemento strutturale della nostra civiltà digitale. Ma l'ho sempre pensato: la velocità non è mai progresso. È, troppo spesso, una fuga in avanti che lascia sul terreno un crescente debito etico.
Il dato che mi angoscia di più è lo shock di accelerazione. Siamo stati costretti a diventare utenti sofisticati in un battito di ciglia. I giganti della tecnologia, presi dalla corsa agli armamenti che lei stessa ha innescato, hanno bruciato le tappe. I compromessi sulla cautela non sono più eccezioni, sono la norma. E noi, come individui, abbiamo accettato di ballare al ritmo di questo tamburo frenetico.
La conseguenza più amara è la creazione di una nuova, dolorosa biforcazione sociale. Da un lato, si è creata un'élite di copiloti AI, professionisti la cui produttività è schizzata alle stelle; dall'altro, c'è una massa di lavoratori che vede la propria competenza svalutarsi in tempo reale. La vera crisi non è che l'AI lavori al posto nostro, ma che stia ridefinendo il valore stesso del lavoro umano in modo così repentino da non darci il tempo di adattarci, di acquisire la nuova competenza.
E mentre l'industria festeggia i benchmark sempre più alti dei suoi LLM, la verità è che l'AI ha reso le questioni etiche da teoriche a drammaticamente concrete. Non parlo solo del caos sul copyright, le cause legali intentate da artisti e scrittori sono un grido disperato per il riconoscimento del lavoro originale, saccheggiato per "nutrire" i modelli. Parlo della fiducia, l'architrave della società.
La diffusione incontrollata dei deepfake, soprattutto in contesti sensibili come le campagne elettorali o i conflitti internazionali, ha introdotto un agente patogeno letale nel corpo dell'informazione: il dubbio universale. Se non possiamo più fidarci della nostra vista o del nostro udito, mi chiedo su cosa si fonda la verità fattuale. Temo che stiamo scivolando in una post-verità tecnologica, dove la realtà è solo un'opzione generata da un algoritmo.
Il fallimento più grande, a mio avviso, è quello istituzionale. L'Europa ha fatto la sua parte con l'AI Act, gli Stati Uniti hanno emesso ordini esecutivi, ma la realtà è che il ciclo legislativo è geologico, mentre quello tecnologico è spaziale. Questo divario non è solo un ritardo, è una resa. Le aziende stanno stabilendo, de facto, le regole di ingaggio per un futuro che i nostri rappresentanti non hanno ancora compreso appieno.
Ci illudiamo che la tecnologia sia intrinsecamente neutrale, ma ogni release non regolamentata è un atto politico. Ogni modello multimodale (quello che genera testo, immagini e video insieme) lanciato senza chiari paletti di responsabilità allarga il nostro debito etico.
La domanda finale non è se riusciremo a creare una super-intelligenza. La domanda è se siamo ancora in grado di recuperare il tempo perduto per garantire che l'AI operi secondo i valori umani.
Dobbiamo smetterla di venerare la velocità e tornare a discutere di saggezza. Dobbiamo imporre alla tecnologia la nostra democrazia, prima che essa ci imponga la sua, silenziosa, illusione di democrazia tecnologica.