La tensione tra la ricerca della massima capacità scientifica e la necessità di imporre un vincolo etico ai modelli di intelligenza artificiale è diventata il nuovo campo di battaglia della tecnologia. Un team di ricercatori europei, molti dei quali provenienti da background di fisica quantistica e computazionale avanzata, ha recentemente dimostrato questa frattura creando una versione modificata e non allineata del modello open-source DeepSeek-R1. L'obiettivo è stato quello di ottenere un'AI "slim" – altamente efficiente e con bassa latenza – ma soprattutto "uncensored," liberata dagli strati di safety alignment imposti dai produttori commerciali per prevenire output pericolosi o inappropriati.
La motivazione è chiara e radicata nella metodologia scientifica: la purezza scientifica richiede uno strumento che non sia limitato da pregiudizi o da filtri di convenienza etica. Per i ricercatori che utilizzano l'AI per simulazioni complesse, per l'esplorazione di vulnerabilità di sistema, o per l'analisi di dataset sensibili, i guardrail (implementati tramite Reinforcement Learning from Human Feedback, RLHF) possono involontariamente censurare dati cruciali o deviare la risposta logica. Ad esempio, un modello allineato potrebbe rifiutarsi di fornire codice per una potenziale tossina, mentre un ricercatore potrebbe aver bisogno di quel codice per sviluppare un antidoto. I physicist e i computational scientist europei hanno quindi lavorato sul modello open-source di DeepSeek per eliminare questo dilemma della safety, potenziando il modello per la massima capacità di risposta, senza compromessi.
Questo approccio evidenzia la crescente polarizzazione nell'ecosistema AI. Da un lato, le grandi aziende come OpenAI e Google investono miliardi per rendere i loro modelli proprietari il più "sicuri" possibile per l'uso pubblico generale, accettando una certa perdita di capacità. Dall'altro lato, la comunità di ricerca open-source sfrutta la natura aperta di modelli come DeepSeek per ottimizzare il tool per scopi specialistici e non allineati. La versione "slim" raggiunta dai ricercatori europei non si limita a togliere i freni etici, ma agisce anche sull'efficienza: la rimozione dei pesi e delle pipeline di safety non essenziali alleggerisce il modello e ne riduce i requisiti computazionali, rendendolo ideale per l'uso in laboratori universitari o su infrastrutture di calcolo meno potenti.
L'iniziativa solleva, inevitabilmente, seri interrogativi sulla governance. Se il progresso scientifico richiede strumenti che sono, per definizione, meno sicuri, chi si assume la responsabilità se questi modelli vengono utilizzati per la creazione di malware avanzato o per la diffusione di contenuti estremamente dannosi? La strategia open-source offre libertà di ricerca, ma complica enormemente il compito delle autorità di regolamentazione, poiché il software modificato sfugge al controllo diretto delle corporation originali.
Alla fine, la questione non è se l'AI debba essere safe, ma se l'etica della ricerca, nel suo tentativo di raggiungere la verità ultima, possa permettersi di essere rallentata dai vincoli etici imposti da un mondo che teme il proprio stesso strumento.