ChatGPT cancella due anni di ricerca con un semplice click sollevando dubbi sulla sicurezza dei dati professionali

Un incidente occorso a un ricercatore tedesco mette in luce la fragilità delle infrastrutture di OpenAI, dove la disattivazione di un’opzione sulla privacy ha comportato la perdita definitiva di anni di lavoro accademico.

ChatGPT cancella due anni di ricerca con un semplice click sollevando dubbi sulla sicurezza dei dati professionali
Condividi:
4 min di lettura

Marcel Bucher, professore di scienze vegetali presso l'Università di Colonia in Germania, ha denunciato alla fine di gennaio 2026 la perdita definitiva di due anni di lavoro accademico accumulato all'interno di ChatGPT a causa di una singola modifica alle impostazioni del profilo. L'incidente si è verificato sulla piattaforma di OpenAI quando il docente, nel tentativo di testare le funzionalità del sistema senza condividere i propri dati per l'addestramento, ha disattivato l'opzione relativa al consenso al trattamento delle informazioni. Senza alcun preavviso o richiesta di conferma definitiva, l'interfaccia ha svuotato istantaneamente tutte le cartelle dei progetti e la cronologia delle conversazioni, rendendo irrecuperabili bozze di pubblicazioni, materiali didattici e domande di finanziamento. Nonostante i ripetuti tentativi di assistenza tecnica, la società di San Francisco ha confermato l'impossibilità di ripristinare i dati, citando i protocolli di sicurezza e privacy che impongono la cancellazione immediata dai server. Il caso, rilanciato dalla prestigiosa rivista Nature, solleva ora interrogativi urgenti sulla reale affidabilità degli strumenti di intelligenza artificiale per l'uso professionale e scientifico ad alto livello.

La vicenda di Bucher non è un semplice errore tecnico isolato, ma mette a nudo una filosofia di design che privilegia la velocità della funzione rispetto alla protezione del patrimonio informativo dell'utente. Il ricercatore tedesco aveva integrato il chatbot nelle sue attività quotidiane, affidando al sistema la strutturazione di corsi universitari e la revisione di articoli scientifici complessi. La scomparsa improvvisa di questo archivio digitale dimostra quanto possa essere fragile la fiducia riposta in una infrastruttura centralizzata che non offre strumenti di backup locale o sistemi di cestino temporaneo. OpenAI ha risposto alle critiche sostenendo che le procedure di cancellazione sono conformi alle migliori pratiche di riservatezza, ma la mancanza di un meccanismo di recupero per errore umano evidenzia una lacuna strutturale che mal si concilia con gli standard di affidabilità richiesti in ambito accademico e industriale.

L'episodio ha generato una vasta risonanza internazionale, spingendo molti esperti di sicurezza informatica a rivalutare l'uso dei modelli linguistici come repository di conoscenza. Sebbene la comodità di avere un assistente capace di ricordare il contesto di mesi di ricerca sia innegabile, la permanenza del dato non può essere garantita se l'utente non ha il controllo fisico sui file generati. Molti analisti sottolineano come le piattaforme di intelligenza artificiale siano nate con una vocazione sperimentale e che, nonostante la loro rapida ascesa nel mercato professionale, manchino ancora di quelle garanzie di resilienza che caratterizzano i software di gestione documentale tradizionali. Per il mondo scientifico, questo evento rappresenta un monito brutale sulla necessità di mantenere copie di sicurezza esterne, evitando di affidare il nucleo creativo del proprio lavoro a un ecosistema basato esclusivamente sul cloud.

Inoltre, il caso solleva un paradosso legato alle normative sulla privacy, dove l'esercizio di un diritto da parte dell'utente, come il rifiuto del consenso al trattamento dei dati, si trasforma in una sanzione tecnologica involontaria. Se la protezione della riservatezza deve passare necessariamente attraverso la distruzione della cronologia operativa, il prezzo dell'anonimato diventa la perdita della produttività passata. Questa architettura del "tutto o niente" impedisce una gestione granulare delle informazioni e costringe i professionisti a una scelta difficile tra la sicurezza dei propri dati personali e la conservazione della propria eredità lavorativa. Le critiche rivolte a OpenAI riguardano proprio questa rigidità dell'interfaccia, che non sembra prevedere zone grigie o salvaguardie per chi desidera cambiare le proprie preferenze senza azzerare il proprio profilo.

La discussione che si è aperta nelle comunità scientifiche globali suggerisce che sia giunto il momento di pretendere standard di archiviazione più elevati per i servizi di intelligenza artificiale a pagamento. Se un utente Plus versa una quota mensile per accedere a funzioni avanzate, è lecito attendersi che il sistema tratti i dati caricati con lo stesso rigore di una banca o di un archivio istituzionale. Il rischio è che la percezione di ChatGPT come uno strumento di lavoro completo venga intaccata da una sensazione di instabilità, spingendo le istituzioni a vietare o limitare l'uso di questi modelli per la gestione di proprietà intellettuale sensibile. La lezione che emerge dall'esperienza del professor Bucher è che l'efficienza di un algoritmo non può mai sostituire la prudenza di un backup tradizionale, specialmente quando l'interfaccia con cui interagiamo è progettata per dimenticare con la stessa velocità con cui impara.

Alla fine, la perdita di anni di lavoro accademico in un solo istante ci ricorda che, nell'era dell'automazione, il controllo umano non deve limitarsi alla supervisione dei risultati, ma deve estendersi alla custodia dei processi. Affidare la memoria storica di un progetto di ricerca a una finestra di chat significa accettare un rischio che la scienza, per sua natura basata sulla verifica e sulla tracciabilità, difficilmente può continuare a sostenere senza garanzie più solide.

Tag: