Intelligenza artificiale: quando la personalità diventa un algoritmo

23 Gennaio 2025 - 15:14
24 Gennaio 2025 - 10:10
 0  6
Intelligenza artificiale: quando la personalità diventa un algoritmo
Immagine generata con intelligenza artificiale

Vi siete mai chiesti come sarebbe essere intervistati, a tu per tu, con l'intelligenza artificiale? Magari con una sua personalità e che vi guidi in una conversazione amichevole dei vostri ricordi, del vostro lavoro o della vostra infanzia fino ad arrivare alle vostre idee sulla politica e, dopo questa intervista, si creerà automaticamente una copia della vostra personalità.

Sembra surreale vero? Ma è proprio quello che sta succedendo ad oggi, grazie ad una ricerca condotta dalla Stanford University e da Google DeepMind.

Sappiamo benissimo che i modelli di intelligenza artificiale generativa non hanno confini di creatività, ma a volte i risultati non sono soddisfacenti. Essi puntano più alla quantità che alla qualità e ovviamente non sempre questa quantità è di buona fattura.

Ma l'IA può migliorare soltanto "allenandosi" tramite i cosiddetti dati di addestramento.

Infatti la Stanford University e Google DeepMind hanno condotto una ricerca in cui sono state coinvolte circa 1000 persone di diversa età, sesso, religione, etnia, regione geografica, istruzione e idee politiche e hanno avviato questo esperimento di duplicazione della personalità (per una somma di 100 dollari a persona).

Dopo aver creato queste personalità con una facilità sconvolgente, hanno condotto dei test alle repliche artificiali. Il risultato è stato che le personalità artificiali avevano risposto per l' 85% in modo similare ai 1000 candidati. Ottimo come risultato per un compenso di soltanto 100 dollari non vi pare?

In questo progetto gli "agenti di simulazione" sono stati creati per condurre delle ricerche in scienze sociali in modo facile, meno costoso e più etico che invece condurli su esseri umani.

I ricercatori pensano che se questi modelli si comportassero come delle persone reali, li si potrebbe usare per testare veramente di tutto. Dalla capacità dei social, al combattere fake news e quindi disinformazione e persino evitare gli ingorghi stradali.

Ovviamente queste ricerche mettono in allerta su rischi e pericoli di questa tecnologia. Sappiamo tutti che adesso i deepfake sono semplici da fare e sono dannosi per le persone senza il loro consenso, con questi "agenti" si potrebbero costruire degli strumenti per far dire o dare autorizzazioni senza che il mal capitato se ne accorga.

Per quanto riguarda la creazione di questi assistenti, il team ha utilizzato metodi "elementari" di valutazione per verificare la capacità degli agenti di Intelligenza Artificiale di replicare gli esseri umani. Tra questi, il "General Social Survey", che raccoglie informazioni su dati demografici, felicità, comportamenti, e le valutazioni dei tratti della personalità: apertura mentale, coscienziosità, estroversione, gradevolezza e nevroticismo.

Per costruire un agente di Intelligenza Artificiale che riproduca bene le persone, i ricercatori avevano bisogno di un modo per "distillare" l'unicità dei partecipanti in un linguaggio comprensibile ai modelli di Intelligenza Artificiale. A tal fine, hanno scelto di realizzare interviste qualitative, ritenuto il metodo più efficace per conoscere qualcuno.

Questo tipo di interviste può rivelare idiosincrasie meno probabili da emergere in un sondaggio. Si pensi a un'esperienza come guarire dal cancro: un'informazione molto personale che dice molto su come si pensano e affrontano le cose, difficilmente riproducibile in un questionario standardizzato.

La sfida per il futuro di questo impiego dell'Intelligenza Artificiale ricorda il racconto "Io, robot" di Isaac Asimov. Resta da vedere quanto tempo occorrerà per passare dagli studi osservazionali alla commercializzazione, con il prevedibile ritardo normativo che sempre accompagna le innovazioni tecnologiche.