L’AI al banco degli imputati. Tra toga e codice, arriva la regolamentazione di stato anche in giurisprudenza

La legge 132 detta le nuove regole per la giustizia in tema di intelligenza artificiale. A Firenze un caso fa scalpore e diventa ironia virale.

L’AI al banco degli imputati. Tra toga e codice, arriva la regolamentazione di stato anche in giurisprudenza
Condividi:
7 min di lettura

La macchina non era in udienza. L’uomo, sì". Annotazione di un giudice toscano dopo un errore d’algoritmo in un atto processuale.


Così comincia una storia che, nel mondo del diritto, è diventata un piccolo caso di costume. Non è una leggenda metropolitana, ma un episodio reale accaduto a Firenze, davanti alla Sezione Imprese del Tribunale. Il 14 marzo 2025, un giudice si accorge che una memoria difensiva cita alcune “sentenze della Corte di Cassazione” che, semplicemente, non esistono. Le aveva indicate una collaboratrice di studio, che per velocizzare la ricerca aveva chiesto aiuto a ChatGPT. L’intelligenza artificiale aveva risposto con precisione apparente, ma con decisioni inventate. Il giudice, pur riconoscendo la buona fede, ha richiamato i legali al dovere di verifica, ricordando che la tecnologia accelera il lavoro, ma non sostituisce la verifica che dà valore alla professione.


Da quel giorno, quell’ordinanza è circolata tra avvocati e magistrati come una piccola lezione di epoca digitale, ribattezzata con ironia “l’istanza che uscì male”. Qualcuno, tra il serio e il faceto, ha commentato: “Mi pare di aver letto quella Cassazione, ma forse era l’intelligenza artificiale a sognare”. Dietro la battuta, però, si nasconde la sostanza di un problema più ampio: la fiducia cieca nella macchina può trasformare la precisione in illusione.


Pochi mesi dopo, una vicenda analoga si è verificata a Torino, dove il Tribunale del Lavoro ha rigettato un ricorso “redatto con il supporto dell’intelligenza artificiale”, giudicandolo troppo generico e incoerente. Stavolta la risposta è stata più severa: 500 euro di sanzione alla controparte e altri 500 alla Cassa delle Ammende, applicando l’articolo 96 del Codice di procedura civile. La sentenza è diventata un precedente importante perché, per la prima volta, il tribunale ha affermato che l’uso di un algoritmo non attenua la responsabilità professionale: la accresce.


Quelle di Firenze e Torino hanno mostrato il volto reale delle cosiddette sentenze fantasma: non le invenzioni dei software, ma gli errori di fiducia che ne derivano. L’intelligenza artificiale, se usata senza verifica, non porta efficienza ma opacità. Gli stessi giudici hanno cominciato a parlare di “allucinazione del modello”, ossia il fenomeno per cui un sistema di linguaggio genera informazioni inesistenti ma credibili, un errore che diventa invisibile finché non lo si scopre.


Le nuove regole italiane


Dopo le prime scivolate, la politica ha deciso di correre ai ripari. La Legge n. 132 del 2025, “Disposizioni e deleghe in materia di intelligenza artificiale”, ha fissato un principio inequivocabile: nelle professioni intellettuali, la decisione finale spetta sempre all’essere umano, quindi nessuna delega all’algoritmo e nessuna automatizzazione della responsabilità.


La stessa legge prevede che, nei tribunali, possano essere utilizzati solo sistemi di intelligenza artificiale autorizzati dal Ministero della Giustizia, tracciabili e supervisionati. In caso contrario, gli output prodotti non hanno alcun valore legale. È una linea di prudenza che guarda all’attuazione del Regolamento europeo sull’intelligenza artificiale (AI Act), che entrerà pienamente in vigore tra il 2025 e il 2026 con un sistema progressivo di applicazione per livelli di rischio, dai modelli generali fino agli usi “ad alto rischio”, tra cui rientra la giustizia.


A ottobre 2025 anche il Consiglio Superiore della Magistratura ha adottato le proprie Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia. Il documento consente l’impiego dell’IA solo per attività di supporto a ricerche, traduzioni, sintesi e analisi statistiche, ma ne vieta ogni interferenza nella decisione del giudice. L’intelligenza artificiale può suggerire, non deliberare. Può scrivere, ma solo se la penna resta in mano all’uomo.


Il Consiglio Superiore della Magistratura ha richiamato anche la Carta Etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari, elaborata nel 2018 dalla CEPEJ, la Commissione per l’efficienza della giustizia del Consiglio d’Europa. Quel documento, rimasto per anni un testo di riferimento quasi accademico, oggi torna al centro del dibattito come bussola morale. Al suo interno vengono indicati cinque principi che difendono la giustizia dall’automatismo e ribadiscono la centralità dell’uomo: trasparenza, equità, responsabilità, sicurezza e controllo umano. È il ritorno a un concetto antico e sempre attuale, che non si può tradurre in codice, perché decidere è un atto di coscienza, non di calcolo.


Gli avvocati tra entusiasmo e timore


Intanto, mentre la magistratura definisce le regole, gli avvocati vivono un tempo di sperimentazione incerta. Il Consiglio Nazionale Forense ha introdotto un modello di informativa da sottoporre al cliente ogni volta che si utilizza un sistema di IA nella redazione di un atto o di un parere. Si tratta di un gesto di trasparenza, ma anche di tutela: informare significa riconoscere che l’errore è possibile.


L’Ordine degli Avvocati di Milano ha fatto un passo ulteriore, approvando la Carta dei Principi HOROS, che vieta di affidare a un sistema di IA la stesura autonoma di strategie difensive o di atti processuali. “L’avvocato può servirsi dell’IA, ma non può lasciarsene servire”, recita uno dei passaggi più citati.


Secondo un’indagine condotta dal CNF nel 2025, uno su tre avvocati italiani utilizza già strumenti di intelligenza artificiale, ma quasi l’80% dichiara bassa fiducia nei risultati. È il paradosso del presente: chi non la usa rischia di restare indietro, chi la usa troppo rischia di cadere. Negli studi legali serpeggia la stessa frase, sospesa tra pragmatismo e ironia: “Finché la macchina aiuta, è utile. Quando inventa, rovina”.


Il mondo prende posizione


La giustizia di mezzo pianeta si sta interrogando sul ruolo dell’intelligenza artificiale nelle aule dei tribunali. E, a seconda della latitudine, le risposte cambiano: c’è chi ha scelto la via della sanzione, chi quella della sperimentazione e chi, come l’Europa, quella della prudenza regolata.


Negli Stati Uniti, la storia è cominciata presto. Nel 2023, il caso Mata v. Avianca ha fatto scuola: due avvocati avevano presentato un ricorso pieno di citazioni inventate da ChatGPT. Il giudice li multò di 5.000 dollari e li obbligò a scusarsi pubblicamente. Da quel momento, ogni tribunale federale ha introdotto una regola chiara: chi utilizza un sistema di IA deve dichiararlo per iscritto. Non un consiglio, ma un obbligo. E proprio questa settimana, lo Stato di New York ha approvato la sua prima policy ufficiale. Giudici e cancellieri potranno usare solo sistemi approvati internamente, dopo una formazione obbligatoria. È previsto anche il divieto assoluto di caricare atti su piattaforme pubbliche. È la via americana: pratica, immediata, senza mezzi toni.


Nel Regno Unito, invece, la High Court ha scelto un approccio più “educato”, ma altrettanto fermo. L’uso dell’intelligenza artificiale è consentito solo per traduzioni e sintesi, ma vietato per ricerche giuridiche o argomentazioni legali. Chi presenta un atto con dati falsi o riferimenti inventati rischia la sospensione dall’albo.


In Australia, nello Stato del Nuovo Galles del Sud, la regola è già scritta nero su bianco: nessuna IA nei documenti probatori e obbligo della clausola “no-AI” in ogni testo processuale, a garanzia della paternità umana.


Mentre oltreoceano si punisce chi sbaglia, l’Europa ha scelto una strada più riflessiva. L’obiettivo è prevenire, non rincorrere gli errori. Con l’AI Act, approvato nel 2024, l’Unione Europea ha varato la prima legge continentale che mette ordine nel rapporto tra uomo e algoritmo. La norma divide i sistemi in base al livello di rischio (minimo, limitato, alto o inaccettabile) e colloca quelli usati in ambito giudiziario tra gli usi “ad alto rischio”, soggetti a trasparenza, tracciabilità e supervisione umana costante.


In Francia, il Ministero della Giustizia sta sperimentando una “IA pubblica” per analizzare statistiche e tempi dei procedimenti, senza interferire con le decisioni dei magistrati.
Germania, alcuni tribunali amministrativi utilizzano software di supporto per la ricerca giurisprudenziale, ma ogni risultato deve essere verificato manualmente.
La Spagna ha avviato il progetto JustiA assegna i fascicoli in modo automatizzato per bilanciare i carichi di lavoro tra i giudici.
Nei Paesi Bassi, un test di predizione statistica delle sentenze è stato sospeso dopo poche settimane per via dei bias culturali che falsavano i risultati.
E in Svezia, il Consiglio Giudiziario ha pubblicato una linea guida chiara: “L’IA può assistere, ma non deve mai influenzare l’autonomia del giudice”.


Sul piano comunitario, il Consiglio d’Europa e la CEPEJ stanno lavorando a una certificazione etica dei software giudiziari, basata proprio sui principi della Carta Etica del 2018. Un documento che, col passare degli anni, è diventato la bussola di riferimento per chi vuole usare la tecnologia senza smarrire il senso del diritto.


Tra New York e Bruxelles, Sydney e Parigi, la linea di confine è chiara: la giustizia può usare l’intelligenza artificiale, ma non può farsi usare da essa.
Come ha detto un funzionario europeo durante un convegno a Bruxelles: “Meglio una decisione lenta che una decisione cieca”. Una frase che oggi suona come un promemoria per tutti: il progresso non è una scorciatoia, è una responsabilità.


Un nuovo diritto digitale


Dal 10 ottobre 2025, la Legge 132/2025 è entrata in vigore. Ha istituito un tribunale per le controversie sull’uso dell’intelligenza artificiale, aggiornato le regole sul diritto d’autore digitale e creato un Osservatorio nazionale sull’impatto dell’IA.


Un passo avanti che segna l’inizio di una nuova stagione: quella del diritto tecnologico consapevole. Come ha scritto un giudice su una rivista giuridica: “L’intelligenza artificiale non sostituisce la mente, ma ci obbliga a ripensare la responsabilità”.

Tag: