Terzanotizia ha raggiunto Marco Camisani Calzolari, Il cui apporto alla comunità scientifica come esperto di intelligenza artificiale ha aperto le menti di molti dei suoi follower giovani e meno giovani. Meglio conosciuto su TV e Web come MCC, o anche “Marco di nome Camisani Calzolari di cognome”, come è solito dire alla fine dei suoi video agitando la mano in pieno stile Regina Elisabetta II, è autore del libro “Cyberumanesimo”, uscito per i tipi de Il Sole 24 Ore. Grazie ai suoi interventi, i suoi canali di comunicazione sono diventati una vera e propria HUB dell’intelligenza artificiale. Ecco cosa dice ai nostri microfoni.
Come si rivolgerebbe ai genitori preoccupati per i loro figli della deriva a cui può portare l’intelligenza artificiale? E come ai figli?
Mi rivolgo innanzitutto ai ragazzi, ai quali dico: state sottovalutando molto il fatto che tutto ciò che pubblicate on-line ve lo ritroverete probabilmente contro tra qualche anno. I vostri futuri potenziali clienti o datori di lavoro, useranno l’IA per raccogliere tutte le informazioni sparse che vi riguardano e delineeranno il vostro profilo. Ai genitori invece dico, occhio a tenerli lontani da questo mondo, perché i vostri figli parlano il linguaggio del presente, non del futuro, e se non riuscite a vedere la digitalizzazione della società, i vostri figli invece ne fanno già addirittura parte. Così come è importante che imparino la matematica e la grammatica, anche l’acquisizione delle competenze del digitale è importante. Attenzione però, conoscere il digitale non vuol dire fare click su Instagram o grandi numeri su tiktok. Se uno fa un video in cui mangia la pastiglia per la lavastoviglie e fa grandi numeri, non è di certo un genio del digitale.
Che peso abbiamo come nazione nel settore dell’intelligenza artificiale? La pubblica amministrazione si rivolge a terzi per l’uso delle infrastrutture AI, non sarebbe auspicabile che il governo finanziasse la ricerca per la produzione di modelli italiani?
Una cosa è la produzione dei modelli e un’altra è il loro addestramento. L’Europa è rimasta indietro per anni rispetto ad America e Cina. In Italia siamo ancora troppo fermi alla nostra forza culturale e a tutto ciò che di bello abbiamo, ma questo ci limita nella percezione di ciò che sta accadendo nel mondo. Nella Silicon Valley c’è tutto un ecosistema che ruota perfettamente, dove se ti servono 100 programmatori li trovi in 5 minuti, così come gli investitori. Tutto questo in Europa non c’è, figuriamoci in Italia. Tuttavia, qualcosa si sta muovendo per il verso giusto. Stanno mettendo a disposizione fondi per 1 miliardo di euro per sviluppare modelli italiani, quindi ci arriveremo anche noi, tardi, ma ci arriveremo. Noi magari non possediamo la firma di un macchinario, non lo produciamo, ma almeno sappiamo guidarlo. L’intelligenza artificiale è un grande aiuto che velocizza tutto e bisogna saperla usare. Molte delle cose che oggi sono disponibili nel mondo digitale non sono così complesse, ma non ne conosciamo l’esistenza. Però, quando sai che esistono e impari a utilizzarle, ecco che viene l’aiuto. Se hai uno studio legale e devi preparare una lettera di diffida, carichi tutto il materiale e chiedi all’IA di scriverla…ci mette un minuto o anche meno. Ma bisogna essere competenti nel comprendere gli output, perché l’IA si basa su sistemi statistici e può sbagliare; quindi, deve essere sempre considerato come uno strumento di aiuto, che rende più veloce ciò che già sai fare. E questo va sempre ricordato.
In Europa c’è un equilibrio tra domanda e offerta, oppure l’offerta sta correndo più velocemente della domanda?
Amazon, per esempio, ha creato più di quello che il mercato chiedeva per essere pronto quando il mercato l’avrebbe chiesto. Quindi si, c’è un’offerta maggiore, tant’è che molte aziende sono in perdita, ma non gli interessa perché saranno pronte successivamente.
Parliamo di “Cyberumanesimo” e della distinzione che fa il libro tra Cyber e Digitale.
Il mondo cyber si contrappone parzialmente al mondo digitale semplicemente perché nel secondo le cose non devono essere necessariamente connesse. Posso avere un orologio digitale senza aver bisogno che si connetta a internet. Il cyber, invece, è legato alla connessione, cioè, è qualcosa di connesso a tutto ciò che si attacca alla parola cyber. Negli anni ’80, quando si diceva “cyber”, veniva in mente un uomo con pezzi di tecnologia attaccati al corpo, un transumanista, un uomo dunque connesso pieno di tecnologie connesse a lui. Nel libro ho creato questo neologismo che parla di una filosofia, appunto il Cyberumanesimo, che si contrappone al Transumanesimo, cioè chi pensa che il futuro dell’uomo debba essere un’integrazione con le macchine, con il digitale. Io, invece, ho sempre pensato il contrario, ovvero che l’uomo debba essere libero, almeno idealmente, dalla tecnologia. Devo essere sempre io, uomo, a doverla dominare e non posso farlo se questa è parte integrante di me. Ma per dominarla devo conoscerla, infatti la maggior parte delle mie attività consiste nel facilitarne la comprensione in modo corretto affinché ciò non avvenga.
Parliamo di paure. Quale potrebbe essere il più terrificante scenario distopico?
Partiamo dalla premessa che le big del digitale fanno di noi e della nostra vita ciò che vogliono, perché vanno oltre le leggi. Se io oggi possiedo un profilo con le foto di famiglia e decidono di chiudermelo, non esiste appello che io possa fare per recuperare il mio materiale, perché c’è scritto nei termini di utilizzo che ho accettato, probabilmente senza leggerli, e le foto credo che siano mie perché io le ho messe li. Le aziende mi dicono “sì, ma dovevi metterle da un’altra parte allora, perché qui c’è scritto che a noi non interessa tenercele”. Non c’è legge, non ci sono imposizioni. La loro “legge” viene prima. Cosa accade adesso? Che una volta usavamo noi questi strumenti con click, foto, carica, sposta, cancella, ora lo fa l’intelligenza artificiale sulla base di istruzioni che arrivano da scatole nere. Ma di chi è la colpa se l’IA sbaglia? E noi continuiamo a mettere la nostra vita in mano a loro. Ma non finisce qui: lo scenario più distopico che immagino è quello di robot antropomorfi che stanno arrivando, perché sarà bello per tutti avere un robot con braccia e gambe che fa le cose al posto nostro e che impara da noi. Certo all’inizio i costi saranno elevati, ma arriveremo tutti ad averne uno. Qui nasce il problema, ovvero che è un qualcosa di hackerabile, come tutto ciò che utilizziamo. Se ieri ci cancellava dati dal computer o ci faceva gli scherzi, domani ci butterà via cose a cui teniamo o ci potrà picchiare, e non sarà piacevole. Se qualcuno troverà il modo di hackerare milioni di robot in contemporanea, come accade in un famoso film, potrebbero esserci problemi anche solo pensando ad un livello inferiore di ciò che accade nel film. Poi c’è la questione abbonamenti. Il robot sarà gestito da un software che magari bloccherà determinati servizi se non paghiamo. Magari ci verrà chiesto di pagare 500€ all’anno se vogliamo che il robot faccia il bucato. Quindi, pian piano, ci troveremo a essere fortemente dipendenti da una tecnologia fuori controllo, e questo mi spaventa. Basti pensare alla dipendenza dall’energia elettrica; tutti nel panico se viene a mancare. E lo scenario verso cui ci stiamo dirigendo è ancora più complesso e c’è una possibilità che possa renderci vittime delle big tech, cui siamo economicamente sottomessi. Per questo, nel nostro caso, l’Europa deve fornire regolamentazioni serie in merito.
Ormai siamo in tanti a chiedercelo e io rivolgo la domanda a lei. Andremo tutti a casa senza lavoro a causa dell’intelligenza artificiale?
I primi a essere sostituiti saranno proprio quelli che non usano l’intelligenza artificiale, perché è vero che c’è l’IA, ma bisogna saperla usare. Non è che dico a ChatGPT “metti me, Marco, su un cavallo con una spada in mano” e ChatGPT lo fa. Sono tanti quelli che usano l’IA per fare immagini e video, ma vi assicuro e mi rivolgo ai ragazzi, se dico “metti me su quel cavallo con la spada in mano e fai che entro in un supermercato e faccio la spesa e poi quando esco esplode tutto” …si può fare, ma sono pochissimi in grado di farlo bene. Specializziamoci, impariamo nel dettaglio. Oggi è infinito quello che si può fare con gli strumenti che abbiamo a disposizione e chi lo saprà fare non avrà nessun problema, chi non lo farà, invece, rimarrà fermo. Ma questa è un po’ la storia dell’evoluzione umana. Photoshop è uno strumento che non ha sostituito tutti i grafici ma che tutti i grafici hanno iniziato ad utilizzare. Io continuo ad aver bisogno della professione e professionalità del grafico, ma magari la cosa semplice la faccio fare all’intelligenza artificiale. Diversamente, se sono un’azienda ho bisogno di un professionista che usi l’IA.
Pensiamo alla rivoluzione industriale. Quanti hanno perso il lavoro con l’introduzione dei macchinari industriali, ma allo stesso tempo quanti nuovi lavori si sono venuti a creare. C’è sempre una sorta di compensazione, anche se quelli che perdono il lavoro potrebbero essere di più di quelli che lo trovano grazie alla nuova tecnologia?
Quando arriveranno i nostri robot che saranno bravi a copiarci, esattamente come fa ChatGPT, li saranno guai, perché a quel punto saranno veramente in grado di fare tutto quello che è in grado di fare manualmente chiunque. E le aziende, anche le più analogiche, quando dovranno spendere per un dipendente 30.000€ all’anno e scopriranno che con 10.000€ più 1.000€ di manutenzione, faranno fare ad un robot la stessa cosa, lo faranno in un secondo e diventeranno tutte digitali. A quel punto tasseremo i robot.
Però, quando la gente pensa alla perdita di posti di lavoro, pensa che l’IA possa rimpiazzare un giardiniere o un idraulico, ma ci sono anche professioni a rischio come quelle dell’avvocato o del programmatore; quindi, non rischia solo chi ha deciso di fare lavori manuali, ma anche chi ha investito soldi nella propria formazione, gente che ha conseguito laurea e master?
Per i colletti blu e i colletti bianchi, come dicono gli esperti delle Human Resources. Beh, diciamo che il punto, secondo me, è che bisogna evolversi, imparando e specializzandosi. Ma non parliamo di noi che siamo già in una fase avanzata, siamo già competenti in qualcosa e stiamo lavorando. Prendiamo un ragazzo che inizia a lavorare in uno studio legale e deve fare la ricerca di una sentenza. L’IA lo fa meglio di lui. Tra un po’, a scuola, se non si ha una comprensione di ciò che sta accadendo, si verrà tagliati fuori perché i ragazzi usano ChatGPT mentre i professori no. Io vivo in Inghilterra e ho a che fare anche con gli USA e ti dico che questo è un problema di tutto il mondo, non solo italiano. Come fa uno a specializzarsi se di base non sa scrivere una lettera? È un po’ come quando sono arrivate le calcolatrici e tutti abbiamo smesso di fare i conti, ma era una mono verticalità, perché i numeri che tiravi fuori dalla calcolatrice ti servivano per ben altro. Chi studia, chi deve specializzarsi, se si basa su quel grande calcolatore che è l’intelligenza artificiale, non lo può fare; li però la risposta è sociale. Poi in Italia abbiamo il problema del valore legale del titolo di studio; anche in altri Paesi, ma soprattutto in Italia. Hai la laurea riconosciuta? Molto bene, ti posso prendere per fare questa cosa. Nel mondo anglo-sassone non c’è questo valore legale del titolo di studio, e quindi sono più importanti le esperienze e le competenze che ti sei portato a casa. Noi siamo ancora fermi al certificato. Ma la conoscenza è più importante del certificato. Adesso c’è il MIT che mette a disposizione corsi e i ragazzi mi chiedono “sì, ma che certificato mi danno?” e allora non lo fanno. Basta con questo certificato.
Anche Elon Musk ha dato un parere negativo sulla conquista dell’Intelligenza artificiale.
Ma sai, Elon Musk ha oggettivamente una conoscenza verticale di quello che fa, certamente dal punto di vista delle relazioni, degli insider, di quello che c’è dietro ecc… però allo stesso tempo ha tanti interessi da difendere. Per cui, c’era un Elon Musk che se la prendeva coi pericoli dell’IA quando non era ancora pronto con Grok, mentre la sua ex, OpenAI, invece correva. Con questo voglio dire che, Elon Musk è un grandissimo imprenditore e su questo non ci sono dubbi, però fa delle cose e ha fatto delle cose che fanno di lui oggi il vero leader mondiale del digitale. Ha creato con visione cose incredibili. Però, come quasi tutti, ha dei grandi interessi; quindi, quello che dice è interessante, ma deve essere filtrato.
Che ne pensa della Cybersecurity? Le scatole nere di questi software verranno mai messe a disposizione di chiunque voglia scoprire come vengono trattati i propri dati oppure i governi ne limiteranno gli accessi alle sole forze di polizia postale per prevenire eventuali attacchi alla privacy?
Bella domanda. Qui il temone è il seguente. Cosa succede soprattutto nella democrazia rappresentativa? Idealmente eleggiamo dei rappresentanti che definiscono delle leggi, delle norme che più o meno rappresentano ciò che la maggioranza di persone voleva che si rappresentasse. Da una parte abbiamo i rischi di cui abbiamo parlato, quindi mondo, privacy, eccetera. Dall’altra parte c’è la volontà delle persone. E qua dico che alle persone della propria privacy non frega assolutamente niente. Privacy e cybersicurezza sono ampiamente sottovalutate. Accade dunque che i governi che ci rappresentano ci devono difendere da una cosa a cui non siamo interessati. Conclusione? A noi non interessa essere difesi. Quindi trovo improbabile una stretta da questo punto di vista. Se pensiamo al Garante per la privacy italiano, spesso è vituperato perché mette dei limiti, e tutti ce la prendiamo col Garante per questi motivi. In realtà lo fa per tutelarci. Alle persone interessa della privacy solo nel momento in cui vengono usati dati contro di loro. In pratica ti ricordi della privacy quando è troppo tardi. Stessa cosa accade nel campo della cybersecurity. Questo lo definisco un bug naturale. Che funziona anche in altre cose, anche io sono così in alcune cose, come la palestra in cui dovrei andare tutti i giorni, ma non lo faccio. Siamo anche noi buggati, come possono esserlo i sistemi che usiamo.
Ci sono, però, alcuni LLM che, lavorando in piena autonomia, potrebbero compiere cyber attacchi. Come possiamo proteggerci, da questo punto di vista, a livello mondiale?
Domanda complessa. Cercherò di rispondere a pezzi. Innanzitutto, dobbiamo chiarire che la parola “mondiale” è una bellissima parola e un bellissimo concetto, al quale ci stavamo avvicinando. Ora il mondo si sta distruggendo e frammentando. Sarebbe bello, ne parlo anche nel mio libro, un Long Term Nationalism, una nazionalità comune, in cui noi viviamo all’interno di una piattaforma comune e viviamo secondo le stesse esigenze. Ma queste cose sono trasversali ai vari Paesi, perché le leggi non sono così. Se mi rubano una cosa qua, che è illegale, siccome me l’hanno rubata dalla Corea del Nord, li è legale e non posso riprendermi ciò che mi è stato rubato. Quindi il problema è che la regolamentazione dovrebbe essere mondiale, ma non è nemmeno locale, così come la difesa. Basta che esista un punto libero nel mondo da cui uno, digitalmente, può fare quello che vuole. Si pensi al problema del copyright. Ci sono posti dove non esiste.
Poi parliamo di modelli non etici, e anche lì, senza fare troppa filosofia, l’etica è personale; quello che è etico per me non sarà etico per qualcun altro. Nel mio libro cito, per esempio, la Moral Machine del Massachusetts Institute of Technology, la famosa macchina che si guida da sola e che dopo una curva si trova davanti una bambina, una persona anziana e un muro: il software si trova a dover scegliere chi salvare, così come tutti sceglieremmo diversamente in una situazione analoga, e quindi l’etica dovrebbe essere personalizzata.
Infine, abbiamo il problema degli LLM open source. L’open source ha una serie di questioni. Io ne sono stato un sostenitore in passato, ma oggi ha una connotazione diversa. Io posso prendere un modello open source, scaricarlo e usarlo a mio piacimento. Ma è veramente open source? Perché lo sarebbe se mi venisse fornito un modello riproducibile, compresi i dati di addestramento, ma non lo fa nessuno. Pensa a DeepSeek. Se chiedi risposte su Tienanmen non te le fornisce, ma ce le ha caricate sul modello. Se tu fai girare il modello sulla tua macchina, la risposta, idealmente, c’è ma non la vedi. Ricapitolando, sono tante piccole bombe atomiche nelle mani di tutti, e anche se dovessimo creare delle norme indicative, il discorso non si estenderebbe a livello mondiale.
Visto che l’etica di un Paese non è detto che rispecchi l’etica di un altro Paese, esiste idealmente un posto dove l’intelligenza artificiale applicata ad un settore, sta rispettando tutti i principi etici e morali?
No, non esiste idealmente, perché, banalmente, io sono qui in Inghilterra e sto usando un modello americano. Finché si tratta di testo, può anche andare bene, ma se pensiamo all’intelligenza artificiale applicata in campo medico, il discorso è ben diverso. L’IA applicata alla medicina rispetta l’etica locale. Io vivo in Inghilterra e qui l’etica medica è diversa da quella italiana. Durante il covid, Boris Johnson disse “preparatevi a veder morire tutti gli anziani”. Da noi non è così. Ovviamente sto estremizzando il concetto per renderlo chiaro, però io sono cresciuto in Italia e ho un’etica diversa da quella inglese. Quindi, chi deciderà chi vive e chi muore? Un’IA basata sull’addestramento fatto di pregiudizi, a loro volta basati su casi reali.
Qual è il settore dove in questo momento c’è più bisogno dell’intervento dell’intelligenza artificiale?
Penso al ramo della giustizia. Velocizzare la burocrazia. Chiaramente sotto supervisione umana, perché non vorrei mai che a condannarmi sia un’intelligenza artificiale. Bisognerà stare attenti al suo addestramento. Se verrà fatto in modo corretto, penso che potrà apportare un reale e concreto miglioramento alla società. Sono milioni le cause pendenti e avere l’IA che velocizza il processo di innocenza/colpevolezza può essere un grande aiuto.
Qual è il settore dove in questo momento c’è più bisogno dell’intervento dell’intelligenza artificiale?
Penso al ramo della giustizia. Velocizzare la burocrazia. Chiaramente sotto supervisione umana, perché non vorrei mai che a condannarmi sia un’intelligenza artificiale. Bisognerà stare attenti al suo addestramento. Se verrà fatto in modo corretto, penso che potrà apportare un reale e concreto miglioramento alla società. Sono milioni le cause pendenti e avere l’IA che velocizza il processo di innocenza/colpevolezza può essere un grande aiuto.
Ci accommiatiamo da Marco Camisani Calzolari portando a casa da un lato una visione più chiara, interessante e intellettualmente onesta rispetto alle dinamiche sull’intelligenza artificiale e dall’altro la consapevolezza di avere assolto al nostro compito statutario di parlare dell’IA in modo imparziale, mossi dalla curiosità di capire come prendere le misure di questo settore in continua espansione.