Il 4 dicembre 2025, la società di ricerca Anthropic ha presentato Anthropic Interviewer, un'applicazione specializzata del modello Claude progettata per condurre interviste strutturate e adattive su larga scala. Il sistema, testato in una fase pilota con 1.250 professionisti tra cui scienziati, creativi e impiegati del settore amministrativo, opera in tre fasi distinte: pianificazione della ricerca, conduzione del colloquio e analisi tematica avanzata. A differenza dei sondaggi tradizionali, lo strumento interagisce per circa quindici minuti con ogni partecipante, approfondendo le risposte per catturare sfumature che solitamente sfuggono alle metriche quantitative. I risultati della ricerca, pubblicati contemporaneamente a San Francisco e Londra, evidenziano un'accoglienza positiva della tecnologia sul piano della produttività, ma sollevano dubbi profondi sulla percezione della competenza umana all'interno degli uffici moderni.
I dati emersi dallo studio rivelano che l'86% dei lavoratori generici attribuisce all'intelligenza artificiale un risparmio di tempo significativo, una percentuale che sale al 97% tra i professionisti creativi. Tuttavia, questo aumento di efficienza convive con quello che i ricercatori definiscono stigma sociale dell'IA. Circa il 69% degli intervistati ha ammesso di temere il giudizio negativo dei colleghi o dei superiori qualora venisse scoperta la reale entità del supporto algoritmico ricevuto. Questo fenomeno crea una discrepanza tra il modo in cui i lavoratori descrivono il proprio utilizzo della tecnologia (presentato come semplice supporto o "augmentation") e i dati d'uso reali, che mostrano invece un crescente ricorso all'automazione integrale dei compiti più complessi.
L'analisi di Anthropic evidenzia inoltre una divergenza interessante tra i settori. Se i creativi segnalano un miglioramento della qualità del lavoro nel 68% dei casi, gli scienziati mostrano una cautela maggiore a causa delle cosiddette allucinazioni algoritmiche, limitando l'uso della tecnologia a compiti di supporto come il debugging di codice o la revisione di manoscritti. Emerge dunque una polarizzazione professionale: da una parte chi vede nell'intelligenza artificiale uno strumento di liberazione creativa, dall'altra chi la considera un rischio per l'integrità del metodo sperimentale. Questa distinzione suggerisce che l'adozione dell'IA non segua un percorso uniforme, ma si adatti alle diverse culture lavorative e ai relativi standard di verità e precisione.
Un altro elemento centrale della ricerca riguarda il futuro delle carriere. Quasi la metà degli intervistati (48%) ha dichiarato di voler orientare il proprio percorso professionale verso la gestione di sistemi intelligenti piuttosto che verso l'esecuzione tecnica dei compiti. Questa aspirazione a diventare "supervisori di macchine" riflette una mutazione del concetto di identità professionale, dove il valore del lavoratore non risiede più nel saper fare, ma nel saper dirigere. Tuttavia, la preoccupazione per la sicurezza del posto di lavoro rimane alta nel 55% dei partecipanti, segnalando che il passaggio verso una "super-agenzia" umana non è privo di attriti e ansie sistemiche.
In questo scenario, Anthropic Interviewer non è solo uno strumento di indagine, ma un esempio di come l'intelligenza artificiale stia iniziando a studiare l'uomo per migliorarsi. I dati raccolti verranno utilizzati per affinare i futuri modelli di Claude, cercando di colmare il divario tra le aspettative degli utenti e le reali capacità del software. Resta da capire se la trasparenza richiesta dai ricercatori potrà mai conciliarsi con il desiderio dei lavoratori di proteggere la propria originalità agli occhi di un mondo che corre sempre più veloce, forse troppo per non essere aiutato da un algoritmo nascosto.