Il codice di condotta UE per l'IA obsoleto prima di entrare in vigore

Secondo una recente analisi del Centre for European Policy (CEP), il codice di condotta UE per l’IA potrebbe trasformarsi in un documento inefficace, incapace di garantire parità di condizioni o protezione adeguata contro i rischi emergenti. Il timore è che il progetto finisca per legittimare le pratiche già consolidate delle grandi aziende tecnologiche statunitensi, mancando l’opportunità storica di stabilire un quadro normativo globale equo.
UN CODICE DI CONDOTTA SENZA MORDENTE
La terza bozza del codice di condotta per l’IA generale – destinato a fornire principi guida per i principali operatori del settore – promette alcune regole basilari per i grandi fornitori di sistemi di intelligenza artificiale. Tuttavia, gli esperti sollevano dubbi significativi sulle sue ambizioni e sulla sua capacità di incidere concretamente. Secondo Anselm Küsters, esperto digitale del CEP e autore dell’analisi presentata alla Commissione Europea, il testo attuale lascia irrisolti nodi critici come la responsabilità legale e il ruolo delle verifiche esterne.
«Le disposizioni previste non chiariscono quando le aziende devono assumersi piena responsabilità durante la fase di adattamento e miglioramento dei modelli di IA esistenti», spiega Küsters. «È urgente definire soglie chiare per determinare quando queste aziende devono essere considerate fornitori indipendenti di IA».
Le piccole e medie imprese rischiano di essere schiacciate da oneri significativi rispetto a quanto, diversamente, accadrebbe per i colossi della tecnologia.
UN DOCUMENTO TROPPO TIMIDO
L’analisi del CEP sottolinea come le versioni precedenti del codice fossero già state indebolite, con la classificazione dei rischi ridotta a una forma più blanda e le verifiche esterne drasticamente ridimensionate. «Queste lacune minacciano la parità di condizioni, favorendo gli attori dominanti del mercato che possono eseguire audit interni con maggiore facilità», avverte Küsters.
Inoltre, la rimozione delle tutele specifiche per i whistleblower rappresenta un ulteriore passo indietro. Senza meccanismi espliciti per proteggere coloro che segnalano problemi, c’è il rischio che informazioni cruciali sui pericoli associati all’IA non emergano tempestivamente. Allo stesso modo, l’eliminazione delle revisioni periodiche dei sistemi di IA – sostituite da valutazioni “su base necessità” – introduce ulteriori lacune nella governance.
«La tecnologia IA si sviluppa in modo esponenziale e i rischi possono emergere inaspettatamente; controlli regolari sono quindi fondamentali», commenta Küsters.
UN'OCCASIONE STORICA SPRECATA
Secondo il CEP, il codice di condotta attualmente in discussione rischia di diventare poco più di uno specchio delle pratiche già in uso presso le grandi aziende tecnologiche americane. «Questo approccio non è sufficiente per tutelare i diritti fondamentali dei cittadini europei né per prepararsi alle sfide future», sostiene Küsters. «Abbiamo bisogno di un codice che promuova l’innovazione, protegga le piccole imprese e fissi standard chiari, invece di perpetuare le dinamiche di mercato esistenti».
A detta degli esperti, il problema principale risiede nel fatto che il documento riflette un’eccessiva influenza delle lobby delle grandi aziende tecnologiche con interessi divergenti rispetto a quelli delle istituzioni pubbliche.
VERSO UN FUTURO MIGLIORE
Non tutto è perduto, ma il tempo stringe. Il CEP sollecita l’UE a rivedere profondamente il testo del codice di condotta, introducendo miglioramenti concreti per renderlo realmente efficace. Tra le priorità individuate, emerge la necessità di stabilire criteri chiari per definire quando un’azienda debba essere considerata un fornitore indipendente di IA, garantendo maggiore certezza sul fronte della responsabilità legale. Inoltre, sarà fondamentale rendere obbligatorie verifiche esterne periodiche su tutti i sistemi di intelligenza artificiale, affidate a enti indipendenti per assicurare trasparenza e oggettività. Un altro punto cruciale riguarda la protezione dei whistleblower, con misure solide per tutelare chi segnala irregolarità o rischi legati all’uso dell’IA. Infine, si rendono necessarie revisioni sistematiche per monitorare costantemente l’evoluzione di questi sistemi e prevenire nuove minacce
In conclusione, se il codice di condotta per l’IA dovesse rimanere nella sua forma attuale, questa ambizione rischia di svanire e potrebbe trasformarsi in un'illusione di controllo. Servono coraggio e lungimiranza.