Toga e codice, tra regole e rischi: il diritto al tempo dell’IA.

Quando l’algoritmo prende la penna: dall’errore processuale al palco del Congresso.

Toga e codice, tra regole e rischi: il diritto al tempo dell’IA.
Condividi:
7 min di lettura
Un’ordinanza toscana del 14 Marzo 2025 ha fotografato l’irriducibile realtà: una memoria difensiva che citava sentenze inesistenti, generate dall’IA, ed in particolare da ChatGPT per una collaboratrice di studio. 
Un “caso d’epoca digitale” potremmo definirlo, che però ha sollevato un grande interrogativo: può l’avvocato affidarsi alla macchina senza perdere la responsabilità del gesto?
L’episodio fiorentino, ovvero una memoria contenente citazioni di pronuncie inesistenti, è stato seguito da un’altra vicenda a Torino, dove un tribunale del lavoro ha sanzionato un ricorso redatto con il supporto IA, ribadendo che «l’uso di un algoritmo non attenua la responsabilità professionale, ma la accresce». Da semplice errore individuale il tema si è trasformato in una questione sistemica. 
Oggi il contesto normativo italiano è in affanno: la Legge 132/2025 ha stabilito che, nelle professioni intellettuali, la decisione finale spetta sempre all’essere umano e che solo sistemi di IA autorizzati dal Ministero della Giustizia possono essere utilizzati in ambito giudiziario. In parallelo, a livello europeo, l’IA Act classifica i sistemi usati in giustizia come «ad alto rischio», soggetti a trasparenza, tracciabilità e supervisione umana costante.
In questo scenario il Congresso nazionale Forense, tenutosi a Torino lo scorso ottobre, ha posto sotto i riflettori del mondo forense l’intricato binomio tecnologia- giustizia, mostrando come il dibattito sia in continua evoluzione. 
Su queste tematiche abbiamo intervistato l’avv. Marina Vajana, Consigliera dell’Ordine degli Avvocati di Palermo dal 2006 al 2015, già prima Presidente della Commissione Pari Opportunità Avvocati Palermo, oggi è Vice Presidente del Consiglio Distrettuale di Disciplina.
 Avvocato Vajana, dopo gli episodi di Firenze e Torino, quanto ritiene che l’uso dell’Intelligenza Artificiale negli atti giudiziari metta in gioco la responsabilità deontologica dell’avvocato?
L’uso dell'AI non comporta l’introduzione di nuovi obblighi deontologici a carico dell’avvocato, ma semmai estende la portata di quelli esistenti, aumentandone anche la complessità e il potenziale di violazione.
L’avvocato deve sempre operare nel rispetto dei principi dettati dal codice deontologico forense.
I doveri di diligenza e competenza, rispettivamente disciplinati dagli articoli 12 e 14 del Codice Deontologico Forense (CDF), unitamente al dovere deontologico di formazione continua, di cui all'art. 15 del CDF, sono probabilmente quelli più interessati all’uso dell'intelligenza artificiale da parte del professionista.
Ma bisogna tenere a mente che anche il dovere di riservatezza dell’avvocato è potentemente sollecitato dall’uso dei sistemi di intelligenza artificiale. Invero l'inserimento di informazioni relative al cliente in sistemi di AI non sicuri potrebbe costituire una potenziale violazione del segreto professionale (artt. 13 e 28 CDF), oltre che del GDPR e del D.lgs. 196/2003.
Da ultimo è in vigore dal 10 ottobre l'obbligo di informativa per i clienti sull'utilizzo di strumenti di Intelligenza Artificiale (AI), introdotto dall'art. 13 della legge 132/2025, pubblicata il 25/09/2025, che si affianca e rafforza il dovere di informazione già previsto dall'art. 27 del CDF. 
Ed a tal fine, a seguito di ciò, il Consiglio Nazionale Forense, ha elaborato uno schema che gli Avvocati possono utilizzare. 
Invero i vari sistemi di AI possono costituire un aiuto prezioso, ma possono anche essere pericolosi: spesso raccontano una realtà che sembra vera ma non lo è in quanto si forma su miliardi di informazioni, tra cui vi sono anche informazioni false o più semplicemente non pertinenti. E allora l’avvocato che usa l’AI, oltre a doverla sapere utilizzare, deve essere ancora più preparato per saper cogliere e correggere l’errore.
 
Con la nuova legge 132/2025, che ribadisce che la decisione finale spetta sempre all’uomo, come cambia concretamente l’obbligo di controllo e di trasparenza per gli avvocati che scelgono di usare gli strumenti di IA?
 
La legge 132 all’art. 13 prevede che i sistemi di AI nelle professioni intellettuali, e quindi anche nella professione di avvocato, possano essere utilizzati solo strumentalmente e come supporto all'attività professionale in cui il lavoro intellettuale oggetto della prestazione d'opera deve rimanere prevalente.
Quindi la vera domanda è: come si misura la prevalenza del lavoro intellettuale dell’avvocato rispetto all’attività svolta dalla AI? 
Quando ho iniziato la professione, le ricerche di giurisprudenza si facevano sulle raccolte cartacee formate da migliaia di pagine. Poi sono arrivati i primi pc e poi le banche dati e poi internet. Tutti questi strumenti hanno reso più facile il lavoro dell’avvocato e lo hanno velocizzato enormemente. 
La AI in pochi secondi può fare una ricerca, può esaminare l’atto avversario e i documenti del fascicolo e può anche scrivere un atto in autonomia. 
L’avvocato allora potrà limitare la sua attività alla verifica delle fonti, all’analisi critica dell’esame dell’atto avversario e al controllo della comparsa scritta dall’AI, ma si potrà dire che il solo controllo sarà sufficiente a integrare il concetto di prevalenza dell’attività intellettuale?
Se fatto bene, a mio parere, potrebbe ma ciò, comunque, purché ci sia stata una analisi critica fondata a sua volta sulla preparazione dell’avvocato.
Fino a oggi, l’analisi, la ricerca e la redazione dell’atto sono state fatte da esseri umani: molti avvocati lavorano da soli e fanno tutto per conto proprio, altri hanno dei collaboratori, non sempre avvocati, come ad esempio i praticanti e/o varie figure di “paralegali”, ma nessuno mai si è posto il problema della provenienza dell’atto dall’avvocato firmatario.
L'avvocato, infatti, risponde dell'atto a cui appone la firma, poiché la sua firma attesta la veridicità della sottoscrizione del cliente e la conformità dell'atto alle norme legali e deontologiche. Questa responsabilità si estende anche se l'avvocato non ha redatto personalmente l'atto, in quanto è tenuto a controllare l'atto nel suo complesso prima di apporvi la propria firma. La sua firma rappresenta una garanzia per il cliente e per il sistema giudiziario, e l'avvocato deve agire con diligenza, competenza e correttezza (principi richiamati dal codice deontologico forense).
Sinceramente, pertanto, non so se sia giusto porsi questo problema rispetto a un sistema di AI. Non credo necessiti servire una norma di legge ad hoc almeno fintanto che gli avvocati, anche nel pieno rispetto delle norme deontologiche, continueranno a studiare, prepararsi ed aggiornarsi perché solo in questo modo avranno le capacità critiche e di controllo necessarie.
Non bisogna mai dimenticare che per il principio di autonomia e potere decisionale umano, la decisione finale è sempre e comunque dell’avvocato, che rimane responsabile verso il cliente.
 
Il Consiglio Nazionale Forense ha introdotto l’obbligo di informare il cliente in caso di uso di Intelligenza Artificiale. Secondo lei, questo basta a tutelare la fiducia nel rapporto professionale o servirebbero ulteriori regole disciplinari?
 
In realtà, come prima detto, il Consiglio Nazionale Forense, a fronte dell’entrata in vigore della legge n. 132 del 2025, che all’art. 13 prevede l’obbligo per i professionisti di rilasciare al cliente informativa in merito all’uso dei sistemi di Intelligenza Artificiale, ha elaborato uno schema che gli avvocati, se lo ritengono, potranno utilizzare nella interlocuzione con il cliente e/o con la parte assistita.
In realtà a mio avviso l’obbligo di informativa seppur importante in quanto volto a maggiormente tutelare il cliente e/o la parte assistita ed a rafforzare il rapporto di fiducia tra questi e l’avvocato, non è sufficiente soprattutto se si pensa che l’entrata in vigore dei necessari percorsi di alfabetizzazione e formazione all’uso dei sistemi di intelligenza artificiale è stata rimandata ad ottobre 2026.
Avrebbe molto più senso l’introduzione di un obbligo/dovere, sin da subito, per gli avvocati di studiare la AI. 
Possiamo paragona la AI ad una macchina sportiva che corre velocissima, bellissima ma se non la sai guidare non la puoi e devi usare. Tutti noi abbiamo la patente per l’auto, ma pochissimi di noi sarebbero in grado di fare un giro in pista con una formula 1. Forse la potremmo avviare, ma alla prima curva andremmo a sbattere. 
Questo è ciò che è accaduto ai colleghi di Torino e Firenze…
Tutti noi già usiamo la AI anche se non lo sappiamo. Ovviamente parlo di AI applicativa, quella che sta dentro ai programmi e alle app dei nostri device. La AI generativa è già arrivata e chi non impara a usarla ne sarà travolto, in un modo o nell’altro: se non la utilizzerà rimarrà indietro nel suo lavoro; se proverà ad usarla senza avere una adeguata formazione, farà dei danni. 
 
Guardando al futuro, come immagina un uso etico e responsabile dell’intelligenza artificiale nella professione forense? Crede che arriveremo a un equilibrio tra innovazione tecnologica e tutela dei principi del diritto?
 
La responsabilità è l’ingrediente per rendere etico l’uso dell’AI. Se l’avvocato userà l’AI responsabilmente e quindi con competenza e circospezione, allora si potrà parlare di un uso etico dell’AI, ma l’equilibrio sarà sempre precario perché questa tecnologia andrà sempre più avanti e sempre più velocemente.