Europa vs Big Tech: l’AI Act alla prova contro i colossi della Silicon Valley

23 Luglio 2025 - 11:01
22 Luglio 2025 - 20:53
 0  4
Europa vs Big Tech: l’AI Act alla prova contro i colossi della Silicon Valley
Immagine di Freepik

Meta dice no, OpenAI dice sì: chi guiderà davvero l’IA del futuro?

Agosto non sarà solo il mese delle ferie. Per l’intelligenza artificiale, potrebbe essere il mese in cui l’Europa scopre se ha davvero voce in capitolo nel definire le regole del gioco. Entrano infatti in vigore le prime applicazioni concrete dell’AI Act, il regolamento UE pensato per governare i sistemi di IA generativa ad uso generale (GPAI), come ChatGPT, Gemini, Claude e compagnia.

Ma i segnali che arrivano dai principali player globali sono contrastanti. E a Bruxelles comincia a fare caldo. Molto caldo.

Meta alza i toni: “L’Europa sta sbagliando strada”

C’è chi non ha nemmeno fatto finta di pensarci. Meta – sì, proprio la casa madre di Facebook, Instagram e WhatsApp – ha deciso di sfilarsi dal codice di condotta volontario introdotto dalla Commissione per accompagnare le aziende nell’attuazione dell’AI Act.

A renderlo noto è stato Joel Kaplan, capo degli affari istituzionali globali dell’azienda, con un post su LinkedIn dal tono inequivocabile: “L’Europa sta andando nella direzione sbagliata sull’AI.”

Meta considera il codice confuso, eccessivo e legalmente rischioso, e ha scelto di non firmarlo. Una mossa che non sorprende: i tempi in cui le Big Tech si mostravano collaborativi sembrano lontani. Oggi a Washington c’è di nuovo Donald Trump e lo slogan “America First” è tornato a dettare l’agenda. Le regole europee? Per molti colossi statunitensi sono solo sabbia negli ingranaggi.

OpenAI ci sta, e non è l’unica

Dall’altra parte del campo, però, c’è chi gioca una partita diversa. OpenAI ha fatto sapere che firmerà il codice. Una scelta tutt’altro che ingenua: l’azienda guidata da Sam Altman guarda con interesse ai progetti europei su infrastrutture e data center. E una gigafactory val bene qualche pagina di compliance.

Insieme a OpenAI, si è fatta avanti anche Mistral AI, promettente startup francese sostenuta da investitori pubblici e privati, considerata la risposta europea a GPT-4. Un endorsement importante, anche simbolicamente.

Il parziale bilancio? Due sì (pesanti), un no (fragoroso), e tanti silenzi.

Le regole in arrivo: cosa cambia davvero?

Il codice di condotta e le linee guida tecniche pubblicate il 18 luglio servono a chiarire chi deve fare cosa, e quando. In particolare:

I GPAI vengono definiti come modelli addestrati con una potenza computazionale pari o superiore a 10^23 FLOPs (unità di misura delle operazioni in virgola mobile al secondo) e capaci di generare testi, immagini, audio o video da un semplice input.

Le regole aiutano a capire quando un’azienda è solo utilizzatrice di un modello, e quando invece è sviluppatrice (spoiler: se impieghi almeno un terzo delle risorse di calcolo, sei sviluppatore).

Sono previste esenzioni per i modelli open source, ma anche maggiori obblighi per quelli ad alto rischio, tra cui misure per la cybersicurezza e la trasparenza verso Bruxelles.

In allegato, la Commissione ha identificato otto modelli GPAI già attivi sul mercato, tra cui ChatGPT, Claude di Anthropic, Imagen di Google e Stable Diffusion di Stability AI. Alcuni non sono ancora del tutto trasparenti, ma la direzione è chiara: chi supera una certa soglia di potenza dovrà rendere conto.

O è politica, o non è niente

Dietro le sigle e le definizioni, però, c’è uno scontro politico profondo. Meta – che porta ancora sulle spalle il peso dello scandalo Cambridge Analytica – si candida a rappresentare anche le istanze di 44 colossi industriali europei (da Bosch a Siemens, passando per BNP e Airbus) e una cinquantina di startup che chiedono di congelare l’applicazione del regolamento.

La Commissione europea, dal canto suo, ha scelto la linea dura: niente rinvii, niente mediazioni preventive. Il codice di condotta è stato pubblicato a ridosso della scadenza di agosto per mostrare che Bruxelles non ha intenzione di arretrare.

Come osserva Zach Meyers del Centre for European Reform, l’Europa ha un’occasione rara: presentare il codice non come un ostacolo, ma come un facilitatore per chi vuole innovare responsabilmente. Chi saprà coglierla?

In gioco c’è molto più della burocrazia

È chiaro che in questo momento non si tratta solo di IA, né solo di tecnologia. È politica industriale, è sovranità digitale, è credibilità geopolitica. E soprattutto: è la possibilità di dimostrare che l’innovazione può anche avere regole – senza per questo smettere di innovare.

Il tempo stringe. E l’Europa ha bisogno che qualcuno alzi la mano e dica: “Io ci sto.” Chi sarà il prossimo?