Il rapporto tra le nuove generazioni e l'intelligenza artificiale generativa sta entrando in una fase di regolamentazione serrata. OpenAI e Anthropic, solitamente rivali nella corsa alla supremazia tecnologica, hanno deciso di unire le forze per affrontare una delle sfide più urgenti del settore: la creazione di un sistema affidabile per il riconoscimento dell'età degli utenti. Questa mossa, analizzata da testate internazionali come il Financial Times e il Wall Street Journal, risponde alla necessità di proteggere i minori da contenuti inappropriati e di garantire che l'interazione con i chatbot avvenga entro una cornice di sicurezza adeguata alla maturità cognitiva del fruitore.
Il cuore del progetto risiede nello sviluppo di tecnologie di biometria comportamentale e analisi del linguaggio. Invece di affidarsi esclusivamente a documenti di identità o carte di credito, che possono essere facilmente aggirati o non posseduti dai più giovani, le aziende stanno testando algoritmi capaci di stimare l'età in base al modo in cui l'utente formula le domande e interagisce con la macchina. Se il sistema rileva pattern tipici di un minore, come strutture sintattiche infantili o interessi specifici, il chatbot può attivare automaticamente restrizioni più severe o richiedere una conferma ufficiale dell'identità attraverso i canali dei tutori legali.
La collaborazione tra OpenAI e Anthropic mira anche a definire uno standard universale per la privacy dei minori. Una delle maggiori preoccupazioni dei regolatori, in particolare nell'Unione Europea con il rispetto del GDPR e dell'AI Act, riguarda la raccolta di dati sensibili durante il processo di verifica. Il nuovo sistema allo studio punta a validare l'età senza archiviare informazioni personali identificabili, utilizzando prove crittografiche che confermino il requisito anagrafico senza rivelare l'identità dell'individuo. Questo approccio di "zero knowledge proof" è considerato fondamentale per ottenere il via libera dalle autorità di controllo globali.
L'urgenza di tali misure è dettata dai recenti casi di cronaca in cui i chatbot sono stati accusati di fornire consigli pericolosi o di creare dipendenza psicologica nei preadolescenti. Creando una barriera d'ingresso più sofisticata, i produttori di AI sperano di evitare sanzioni miliardarie e di scongiurare possibili blocchi nazionali del servizio, simili a quelli già visti in passato. La sfida resta tuttavia aperta: trovare un equilibrio tra una protezione efficace e la facilità di accesso per l'utenza adulta, evitando che la sicurezza si trasformi in una barriera tecnologica invalicabile.
Alla fine, la corsa verso un'AI a prova di bambino rappresenta il tentativo dell'industria di autoregolamentarsi prima che siano le leggi a imporre restrizioni ancora più drastiche. Se OpenAI e Anthropic riusciranno a creare uno standard condiviso, il futuro dei chatbot sarà caratterizzato da un'intelligenza capace di comprendere non solo cosa l'utente chiede, ma soprattutto chi è l'utente che sta parlando.