L’Italia è il primo Paese in Europa ad approvare una legge nazionale sull’intelligenza artificiale. Il provvedimento, entrato in vigore il 10 ottobre 2025, integra e affianca l’AI Act europeo con norme mirate a responsabilità penali, diritto d’autore e uso dei sistemi nei processi produttivi e giudiziari.
La legge 132/2025 introduce nuove fattispecie di reato legate ai contenuti creati o manipolati dall’IA e stabilisce aggravanti quando un sistema intelligente diventa strumento per commettere un illecito. Viene previsto un nuovo reato per chi diffonde immagini, video o voci false, generate artificialmente, capaci di trarre in inganno sull’autenticità. La norma è procedibile a querela della vittima salvo casi più gravi, come quando coinvolge minori o soggetti vulnerabili.
Il legislatore ha inserito un aggravante generale: se un reato è commesso attraverso l’IA, la pena può essere aumentata. Un passaggio che riguarda anche la responsabilità delle aziende, chiamate ad aggiornare i propri modelli organizzativi e a documentare i processi automatizzati critici.
La legge tocca anche il diritto d’autore. Le opere create con l’ausilio dell’IA sono protette se esiste un contributo creativo umano. Allo stesso tempo vengono limitate le pratiche di text and data mining: i sistemi non potranno addestrarsi liberamente su contenuti coperti da copyright senza autorizzazioni esplicite.
Molti dettagli restano affidati a deleghe al Governo, che dovrà stabilire regole su sicurezza, responsabilità civile e utilizzo dell’IA nelle indagini. Ciò significa che la cornice è tracciata, ma il disegno non è ancora completo.
L’approvazione segna un passaggio storico: l’Italia prova a bilanciare tutela dei cittadini e innovazione tecnologica. La vera sfida sarà l’applicazione concreta, quando i giudici dovranno stabilire cosa significa davvero “idoneità a ingannare” o “dolo specifico”, concetti che decideranno il confine tra legittimo e illecito nell’era delle macchine intelligenti.