Kim Kardashian accusa ChatGPT del flop agli esami di legge

La star americana ha ammesso di aver usato ChatGPT per prepararsi all’esame da avvocato e di averlo ritenuto responsabile dei risultati deludenti. La vicenda rilancia dubbi sull’affidabilità dell’IA nei percorsi formativi.

Di Rubenstein (originale)Tabercil (talk) (ritaglio) - https://fajasfits.com/, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=10874414
Di Rubenstein (originale)Tabercil (talk) (ritaglio) - https://fajasfits.com/, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=10874414
Condividi:
2 min di lettura

Pochi giorni fa la celebre imprenditrice e aspirante avvocato Kim Kardashian ha dichiarato di aver utilizzato il chatbot ChatGPT per prepararsi all’esame di abilitazione legale e di attribuire all’intelligenza artificiale la responsabilità del suo insuccesso. Durante un’intervista-gioco con macchina della verità ha spiegato che “quando ho bisogno della risposta scatto una foto e la inserisco lì dentro” e che il sistema “mi ha fatto fallire gli esami… tutte le volte”.

La confidenza della star con ChatGPT mette in luce una tensione crescente tra l’adozione diffusa dei modelli generativi e la loro accuratezza limitata. Kardashian ha definito il chatbot “frenemy”, ammettendo di sfogarsi con messaggi come “Mi hai fatto fallire! Perché lo hai fatto?” e di ricevere in risposta frasi del tipo “Questo serve a farti fidare del tuo istinto”.

Dietro l’aneddoto personale si inserisce un interrogativo più ampio: quanto può essere affidabile un sistema progettato per generare risposte basate su probabilità e non su certezza giuridica? Gli esperti di intelligenza artificiale ricordano che ChatGPT e modelli simili possono soffrire di “allucinazioni”, ovvero risposte apparentemente corrette ma fondate su errori o mancanze.

La vicenda assume poi dimensioni professionali: se un’utente con elevate risorse e accesso a tecnologie avanzate può incorrere in un errore del genere, cosa accade per chi usa l’IA per studio o lavoro in ambiti sensibili? Le istituzioni accademiche e i regolatori stanno iniziando a chiedersi se sia sufficiente trattare queste piattaforme come strumenti generali o se servano normative specifiche che definiscano limiti, responsabilità e trasparenza.

L’impatto sociale è evidente. La grande disponibilità di modelli generativi ha ridotto la soglia d’ingresso all’uso dell’IA, ma la facilità d’accesso può dare l’illusione di competenza controllata. La storia di Kardashian, più che un episodio isolato, diventa simbolica per il rapporto tra umanità, tecnologia e formazione: l’IA può aiutare, ma non può sostituire il rigore, la valutazione critica e la verifica che solo il processo umano garantisce.

Alla fine, la lezione è semplice: non basta digitare la domanda giusta. Serve sapere chi risponde, con quali limiti e fino a che punto intendiamo fidarci della risposta.

Tag: