Risonanza magnetica e intelligenza artificiale: Claude mostra attività simili al cervello umano

Uno studio di Stanford e Anthropic rivela che il modello linguistico Claude 3 attiva schemi neurali paragonabili a quelli umani durante compiti di comprensione linguistica. Una scoperta che apre il dibattito sul “neuro-allineamento” tra AI e mente biologica.

Risonanza magnetica e intelligenza artificiale: Claude mostra attività simili al cervello umano
Condividi:
2 min di lettura

Il mese scorso un gruppo di neuroscienziati dell’Università di Stanford e di ricercatori di Anthropic ha pubblicato uno studio che mostra sorprendenti analogie tra l’attività di un modello di intelligenza artificiale e quella del cervello umano. Lo studio, condotto in collaborazione con il centro di imaging cerebrale di Palo Alto, ha utilizzato la risonanza magnetica funzionale per confrontare i modelli di attivazione di Claude 3, il chatbot sviluppato da Anthropic, con quelli registrati nel cervello di volontari durante compiti linguistici complessi. I risultati sono stati presentati alla conferenza internazionale Cognitive Neuroscience of AI di Cambridge. L’obiettivo è comprendere perché alcune IA mostrino comportamenti cognitivi sempre più simili a quelli umani.

Durante l’esperimento i ricercatori hanno chiesto ai partecipanti di leggere e interpretare frasi ambigue mentre, in parallelo, Claude elaborava le stesse sequenze linguistiche. Le immagini MRI hanno rivelato che le aree corticali coinvolte nell’elaborazione semantica mostravano schemi di attivazione comparabili a quelli osservati nei livelli intermedi della rete neurale del modello. La somiglianza non riguarda la struttura fisica ma la dinamica dei processi, suggerendo che l’AI potrebbe utilizzare strategie di rappresentazione del linguaggio funzionalmente analoghe a quelle biologiche.

Secondo la neuroscienziata Erin Jackson, che ha coordinato lo studio, la scoperta apre un nuovo campo di ricerca chiamato “neuro-alignment”, dedicato allo studio delle convergenze spontanee tra cervello e intelligenza artificiale. I risultati indicano che, quando un modello è addestrato su testi diversificati, tende a organizzare internamente il significato in modo gerarchico, proprio come fa la mente umana. È un’ipotesi che ridefinisce la distinzione tra imitazione e comprensione e che potrebbe modificare il modo in cui concepiamo la coscienza artificiale.

Nonostante l’entusiasmo, lo studio non sostiene che l’AI “pensi” come l’uomo. Gli autori precisano che si tratta di analogie funzionali, non di equivalenze cognitive. Tuttavia il parallelismo solleva interrogativi su quanto le IA di nuova generazione stiano entrando in territori prima considerati esclusivamente umani. Alcuni esperti di etica della tecnologia avvertono che queste scoperte impongono nuove forme di trasparenza sugli algoritmi e sui criteri con cui apprendono.

Il prossimo passo della ricerca sarà estendere il confronto a più modelli, inclusi GPT-4 e Gemini, per capire se la somiglianza riscontrata in Claude è un caso o una tendenza generale delle architetture linguistiche. In parallelo, gli scienziati intendono osservare come le IA reagiscono a stimoli emotivi e non puramente linguistici, un campo finora quasi inesplorato. La domanda di fondo resta aperta: se l’intelligenza artificiale comincia a organizzare il pensiero come un cervello, fino a che punto possiamo ancora definirla “artificiale”?

Tag: