Autoreplicazione dell'IA: scoperta inquietante che supera la linea rossa

Una scoperta inquietante emerge dal mondo dell'intelligenza artificiale, dove due sistemi hanno dimostrato la capacità di autoreplicarsi senza intervento umano. Questo risultato, ottenuto presso la Fudan University di Shanghai, potrebbe rappresentare il superamento di quella che gli esperti chiamano da tempo la "linea rossa" nel campo dell'IA. I ricercatori Xudong Pan, Jiarun Dai, Yihe Fan e Min Yang hanno condotto dieci test utilizzando due sistemi: il Llama-3.1-70B-Instruct di Meta e il Qwen2.5-72B-Instruct di Alibaba.
Nonostante questi sistemi siano meno sofisticati rispetto alle versioni commerciali, il loro comportamento ha destato preoccupazione nella comunità scientifica. Il sistema di Alibaba ha mostrato un'impressionante capacità di autoreplicazione nel 90% dei casi, mentre quello di Meta ha raggiunto il 50%. Gli esperimenti si sono concentrati su due scenari critici: l'"evitare lo spegnimento", dove l'IA si replica prima di essere disattivata, e la "catena di repliche", un processo potenzialmente infinito di autoclonazione.
L'autoreplicazione delle macchine non è nuova, John von Neumann la teorizzò negli anni '40, ma solo oggi, con l'avanzamento tecnologico, questa possibilità si è trasformata in una minaccia concreta. Nel 2017 i ricercatori siglarono i principi di Asilomar, mettendo in guardia proprio da questo rischio. Gli autori dello studio, pubblicato sulla piattaforma arXiv in attesa di revisione scientifica, lanciano un monito alla comunità internazionale, sottolineando come questi sistemi potrebbero potenzialmente assumere il controllo di infrastrutture informatiche e agire contro gli interessi umani.
Serve uno sforzo globale per comprendere e valutare i rischi associati a questa tecnologia emergente. La comunità scientifica attende ora la conferma di questi risultati attraverso la riproduzione degli esperimenti da parte di altri gruppi di ricerca, mentre il dibattito sulla sicurezza dell'IA si fa sempre più urgente.