L’IA non è un pappagallo: parla come noi, ma in modo diverso

Il semiologo Claudio Paolucci riflette sull’intelligenza artificiale come dispositivo ibrido: linguaggio, mente estesa e responsabilità umana nell’era dei modelli generativi.

L’IA non è un pappagallo: parla come noi, ma in modo diverso
Condividi:
10 min di lettura
Oggi professore ordinario di Semiotica e Filosofia del linguaggio all'Università di Bologna, Claudio Paolucci si è laureato con Umberto Eco, di cui è stato collaboratore per oltre quindici anni presso la Scuola Superiore di Studi Umanistici dell’Università di Bologna e a cui ha dedicato una monografia, uscita per i tipi di Feltrinelli. Già coordinatore del dottorato di ricerca in Philosophy, Science, Cognition and Semiotics, Paolucci è il coordinatore scientifico della Scuola Superiore di Studi Umanistici dell'Università di Bologna (ora Centro “Umberto Eco”), fondata proprio dal suo maestro, che ne è stato il presidente fino alla sua morte nel 2016. Visiting professor presso diverse università del mondo, è stato il Principal Investigator di sette progetti europei e di interesse nazionale. Dirige attualmente il Progetto SACreD, su creatività e follia, l’International Centre for Enactivism and Cognitive Semiotics e la Società Italiana di Filosofia del Linguaggio. Ha vinto il premio Pegasus alla cultura nel 2021 e il Mouton d’Or per il migliore articolo scientifico nel 2024. Dal 2022 dirige la storica rassegna “Che cosa fanno oggi i filosofi?”.  Le sue opere più important sono Studi di semiotica interpretativa (Bompiani 2007), Strutturalismo e interpretazione (Bompiani 2010), Umberto Eco (Feltrinelli 2017), Persona (Bompiani 2020), Cognitive Semiotics (Springer 2021) e Nati Cyborg (Sossella 2025). Paolucci, che si è occupato principalmente di semiotica generale, scienze cognitive, pragmatismo, interpretazione e teoria dei linguaggi, ha scritto anche saggi scientifici sulla semiotica del cinema e sul discorso politico. Il suo ultimo libro, Nati Cyborg, è un’indagine nei territori dell’intelligenza artificiale. A lui chiediamo:
Professore Paolucci lei ha intitolato il suo libro sulla IA Nati Cyborg, un titolo un spiazzante. Cosa vuol dire esattamente?
Con uno slogan, potrei dire che il titolo manifesta l'esigenza di mettere al centro la relazione, il cyborg, e non le entità che sono poli di questa relazione: l’essere umano e la macchina. E questo perché noi esseri umani abbiamo gli stessi geni del Pleistocene e nel Pleistocene eravamo predati. Com'è quindi possibile che ci siamo trasformati da prede al più spietato predatore esistente su questo pianeta senza fare nulla al nostro corpo biologico, visto che abbiamo gli stessi identici geni che avevamo allora? La realtà è che ci siamo trasformati da prede al più spietato predatore esistente su questo pianeta delegando all'ambiente tutta una serie di funzioni cognitive che svolgiamo in modo meno efficace dentro il nostro cervello o dentro il nostro corpo biologico. Tutti noi sappiamo di essere più bravi in matematica con carta e penna: 158 x 2058 è una cosa che nessuno di noi sa fare a mente, ma con carta e penna è veramente molto facile. Quindi l'idea è che l'essere umano abbia progressivamente delegato all'ambiente funzioni cognitive che prima svolgeva meno efficacemente all'interno del proprio corpo biologico.
La cosa interessante è che noi abbiamo la tendenza a pensarci come individui finiti e indipendenti dall'ambiente, ma, in realtà, dal nostro ambiente dipende la nostra stessa sopravvivenza e la nostra stessa vita: moriremmo in pochissimi giorni senza l'ambiente. Tuttavia, la cosa che mi interessa sottolineare è che non solo noi siamo un cyborg complesso che costruisce relazioni molteplici con molteplici attori non umani, ma le stesse macchine fanno questo con noi. L'intelligenza artificiale generativa non è una macchina, sebbene noi tendiamo a pensarla come tale: è un dispositivo cyborg complessissimo di cui noi ci dimentichiamo troppo spesso la componente umana. Credo che ci sia una immagine caricaturale da parte di chi si occupa di AI. Per esempio, noi crediamo che ChatGPT sia quella “cosa” con cui si interagisce quando uno accende il computer, fa il login sul sito di OpenAI e fa il suo prompt. Ma quello non è ChatGPT, è una caricatura di ChatGPT. ChatGPT è addestrato su miliardi di enunciati umani che restituiscono un'immagine umana di tutta la nostra cultura. Mentre noi facciamo i nostri prompt sul sito di OpenAI, ci sono centinaia di ingegneri OpenAI che fanno della manutenzione, del caregiving quotidiano e continuo sulla macchina, che smetterebbe di funzionare senza questo continuo caregiving umano. Quindi anche l'intelligenza artificiale generativa è un cyborg: non è una macchina; è un dispositivo istituzionale complessissimo fatto di ibridi “umani e non-umani”. L’IA generativa è composta da miliardi di enunciati umani, che sono il prodotto della cultura umana e non solo dalla coppia embedding/transformer.
 
Mette in continuità l’Ai con la tendenza umana che da sempre tende ad esternalizzare la mente nell’ambiente creando protesi fisico-cognitive. Il caso della Ai sembra però più radicale, perché mette in discussione la caratteristica più profonda della natura umana: la capacità di produrre testi linguistici.
 
Questo è esattamente il tema del libro, e cioè la comparsa di macchine dotate di linguaggio. Devo dire che per me è stata una rivoluzione, che non è mai stata sufficientemente sottolineata, nonostante tutte le milioni di cose che sono state scritte sull’AI generativa negli ultimi quattro anni.
Io credevo di morire prima di vedere una macchina dotata di linguaggio capace di passare il test di Turing. Non lo credevo possibile soltanto cinque anni fa. E infatti la tipica attitudine dell'essere umano è quella di negare che queste macchine siano dotate di linguaggio e di pensarle soltanto come un simulacro della nostra intelligenza, capaci soltanto di simulare la nostra capacità di produrre enunciati attraverso il linguaggio. Da qui la famosa metafora del “pappagallo stocastico”, contro cui io combatto radicalmente. Questo è proprio il tema centrale del libro, e cioè la comparsa, per la prima volta nella nostra storia, di macchine dotate di linguaggio e la tendenza dell'essere umano a negare a queste macchine questa capacità, per mantenerla come elemento costitutivo ed esclusivo dell'essere umano. 
 
 
Se l’IA generativa dimostra di saper fare tutto ciò che nel neurosviluppo umano permette la nascita della soggettività non è possibile che la vera ragione per cui le neghiamo la soggettività sia semplicemente una forma di specismo cognitivo?
 
È un'inferenza del tutto ammissibile. Lei pensi che quando un ingegnere di Google disse pubblicamente che a Google erano riusciti a costruire una macchina dotata di autocoscienza, questo ingegnere fu licenziato la settimana dopo. C'è un grande timore nel concedere pari diritti alle macchine e nel pensare che una macchina possa avere tutta una serie di caratteristiche che per millenni abbiamo pensato come costitutive dell'essere umano. Il linguaggio, l'autocoscienza etc. La cosa interessante su questo è che, secondo me, si continuano a fare paragoni disomogenei: si pensa all'attività di linguaggio umana e al pensiero umano considerando cose di altissima cucina come i significati, gli stati intenzionali, la comprensione etc. E li si va a comparare con l'architettura degli embedding e dei transformer: qui il problema è il paragone che viene fatto. Gli embedding e i transformer andrebbero paragonati con la cosa più vicina a loro per l'essere umano che sono i neuroni e le sinapsi. Se guardiamo i neuroni e le sinapsi non vediamo i significati, non vediamo i pensieri, non vediamo l'autocoscienza, non vediamo la comprensione. Perché li dovremmo vedere negli embedding? L’autocoscienza ad esempio è molto evidentemente qualcosa che emerge dall'attività dei nostri neuroni e delle nostre sinapsi, ma che non è localizzata nei nostri neuroni e nelle nostre sinapsi, e che non è impossibile pensare possa emergere anche dall'attività di strutture diverse da quella umana. È un po' il punto centrale del libro.
 
 
Nel libro afferma che l’essenza dell’uomo non è la razionalità ma la “imbecillità”, cioè la debolezza che ci spinge a delegare funzioni cognitive all’ambiente. L’IA generativa, in quanto nuovo “bastone”, rischia di renderci meno intelligenti o, al contrario, più capaci di estendere la mente nell’ambiente?
 
Questo dipende moltissimo da come la useremo nei prossimi anni. Faccio l'esempio di ChatGPT: se un bambino delle elementari o delle medie lo usa per farsi fare i compiti a casa che gli hanno assegnato, allora è chiaro che ne uscirà instupidito. Ma questo è perché è stato sbagliato l'uso umano che viene fatto dell’IA generativa, non certo perché è l’IA generativa che ci instupidisce o non ha le possibilità di renderci invece infinitamente più intelligenti. Se il bambino si fa fare i compiti della scuola, se lo studente universitario si fa scrivere le tesine degli esami, allora certamente ne usciremo più stupidi.
Ma se lo studente universitario, al posto che farsi scrivere le tesine, dialoga con ChatGPT come dialogherebbe col suo professore (che non lo fa, perché è sempre impegnato e non ha tempo), ci si renderà subito conto che lo studente universitario, per la prima volta, ha al suo fianco un assistente che ha molta più cultura di tutti i suoi professori messi insieme e con cui può approfondire anche le tecnicità più spinte del pensiero umano, dalla filosofia alla linguistica e alla semiotica. Io lo faccio regolarmente, con una soddisfazione che soltanto dialogare col mio maestro mi dava nel passato. 
Ma, indipendentemente dal giudizio di merito, c'è una possibilità straordinaria nell'avere a disposizione qualcuno o qualcosa che si affianca ai tuoi docenti, ai tuoi caregiver e lo fa in modi del tutto inediti e nuovi. Questa è una possibilità straordinaria che non dobbiamo perdere: non dobbiamo farci dettare i risultati dei compiti umani già risolti dall'intelligenza artificiale generativa; dobbiamo farci spiegare i processi di pensiero, costruire con lei nuovi problemi e nuove soluzioni inedite e “fare insieme” con la macchina, producendo un cyborg. Questo è il vero punto: il fare insieme con la macchina.
 
Lei sostiene che l’IA non può essere considerata un mero “pappagallo stocastico” perché riconfigura tutte le nostre attività semiotiche e cognitive. Come immagina che cambierà il concetto stesso di linguaggio umano quando la produzione di enunciati sarà sempre più ibridata con quella delle macchine?
 
Questa è una domanda molto complessa: è difficile immaginare cosa succederà. Le letture apocalittiche dicono che la macchina tende verso una media statistica, tende a standardizzare il linguaggio, tende a moltiplicare gli stereotipi, tende a codificare i registri linguistici. Io, anche su questo, ritengo sempre che dipende dall'uso che ne viene fatto.
Abbiamo visto di recente un importante premio letterario andato a un romanzo importante scritto costitutivamente assieme all'intelligenza artificiale generativa da parte della sua autrice. Questi sono usi che vanno tutt'altro che in direzione di una standardizzazione. Nel momento in cui noi capiamo che quella non è una macchina, ma è un cyborg, e cioè è un concatenamento complesso tra l'uomo e la macchina, capiremo anche che tutti gli effetti che produrrà dipenderanno in modo costitutivo dalla componente umana di questo concatenamento. Non possiamo deresponsabilizzarci e dare la colpa alle macchine, perché è un modo sbagliato di pensare. 
 
Nel libro dice che il nostro parlare è un assemblaggio di istanze eterogenee, non un atto di un soggetto unitario. In che misura i sistemi Transformer rappresentano una forma tecnica di enunciazione distribuita che obbliga a ripensare categorie classiche come “agency”, “significato” e “intenzionalità” nella teoria semiotica?
 
Questo è, credo, uno dei punti più forti del mio lavoro. Ben prima dell'intelligenza artificiale generativa, io scrivevo un libro in cui mostravo come l'enunciazione umana, che noi abbiamo troppa fretta di attribuire a un soggetto, sia in realtà un assemblaggio, un concatenamento complesso di istanze eterogene. Quando noi parliamo, nel nostro enunciato ci sono delle norme sociali che parlano, ci sono degli usi, delle abitudini linguistiche, delle grammatiche, degli stereotipi, dei cliché, del già detto che parla e che pulsa dentro al nostro enunciato in prima persona. Quindi di fatto noi non parliamo il linguaggio né siamo parlati dai linguaggi: noi operiamo in ogni nostro atto linguistico un concatenamento complesso tra la nostra voce in prima persona e una molteplicità di voci impersonali archiviate in quella che il mio maestro, Umberto Eco, chiamava “l'enciclopedia della nostra cultura”. Allora, se si va a vedere il modo in cui ChatGPT produce enunciati, si vede come ChatGPT fa esattamente questo: si concatena ai nostri stereotipi, alle nostre norme, ai nostri usi, ai nostri significati e ai nostri cliché - alle forme più praticate della nostra cultura - e le concatena secondo la sua logica macchinica, secondo l'architettura embedding/transformer. Quindi, di fatto, produce enunciati in modo completamente analogo, anche se strutturalmente diverso, dal modo in cui lo facciamo noi.
E questa la cosa straordinaria della “macchina dotata di linguaggio”: fa le stesse cose che facciamo noi, ma le fa in modo completamente diverso, come se fosse l’abitante di una cultura altra. E noi, al posto che studiare e capire come concatenare al meglio il nostro sguardo biologico con il suo sguardo macchinico, abbiamo invece questa tendenza difensiva a costruire una riserva indiana dove certe nostre skill, come il linguaggio, devono restare soltanto nostre e la macchina deve rimanere altra: al massimo siamo disposti a concederle il pappagallo.