Il 12 febbraio 2026 un gruppo di ricercatori dell’Università di Copenaghen ha pubblicato su Nature uno studio che classifica gli utenti di intelligenza artificiale generativa in quattro profili comportamentali, distinguendoli in base al linguaggio utilizzato e agli obiettivi psicologici delle loro sessioni di chat. La ricerca, costruita sull’analisi di migliaia di conversazioni raccolte in contesti lavorativi e privati nell’arco di diciotto mesi, propone una mappa apparentemente neutra delle modalità con cui gli esseri umani stanno imparando a dialogare con sistemi come ChatGPT. Eppure la vera notizia non è la segmentazione in sé, né l’eleganza della tassonomia. La vera notizia è che nel modo in cui interroghiamo una macchina stiamo lasciando emergere, senza filtri, la nostra antropologia.
L’errore sarebbe leggere questi quattro profili come categorie tecniche. Non siamo di fronte a un’analisi dell’intelligenza artificiale, ma a un’analisi dell’umano nel momento in cui si confronta con un dispositivo che risponde sempre. L’IA, in fondo, non possiede intenzioni, desideri o bisogni. È un sistema probabilistico addestrato a generare coerenza linguistica. Tuttavia, proprio perché priva di intenzionalità, essa diventa uno specchio perfetto delle nostre intenzioni. Quando la utilizziamo come strumento di efficienza, con richieste asciutte, operative, orientate esclusivamente al risultato, non stiamo mostrando qualcosa della macchina, ma la nostra adesione culturale a un paradigma di ottimizzazione permanente. La velocità diventa valore, la sintesi diventa virtù, il dialogo diventa superfluo. L’algoritmo non ci ha resi produttivisti. Ha reso visibile quanto lo fossimo già.
All’estremo opposto si colloca chi usa l’IA come spazio di esplorazione creativa, quasi come un interlocutore capace di rilanciare idee, di suggerire connessioni, di alimentare il processo di pensiero. Anche in questo caso, però, l’illusione di un dialogo tra pari va ridimensionata. La macchina non pensa con noi, ma riorganizza statisticamente ciò che è già stato pensato. Eppure l’effetto cognitivo è reale: costringe l’utente a formulare meglio le domande, a precisare le intenzioni, a esplicitare ipotesi. In questa dinamica non è l’IA a essere creativa, ma l’umano a essere messo di fronte alla propria capacità o incapacità di generare complessità. La qualità della risposta dipende in larga misura dalla qualità della domanda. E nella qualità della domanda si riflette la struttura del pensiero di chi la pone.
Particolarmente delicata è la categoria di coloro che trattano il modello linguistico come un motore di ricerca evoluto, delegando all’algoritmo la funzione di filtro della conoscenza. Qui il nodo diventa epistemologico. L’intelligenza artificiale è progettata per produrre risposte plausibili, non per garantire verità. La sua architettura non contempla il silenzio come risposta fisiologica all’ignoranza, ma tende a colmare ogni lacuna con una formulazione coerente. Questo meccanismo, se non compreso criticamente, può generare una forma di fiducia eccessiva, quasi una delega cognitiva totale. Non stiamo più interrogando una fonte, stiamo accettando una sintesi preconfezionata del sapere. E la differenza tra plausibilità statistica e fondatezza scientifica non è un dettaglio tecnico, ma il cuore del problema.
Infine, la dimensione più complessa è quella degli utenti che cercano compagnia, conforto, ascolto. In queste interazioni il linguaggio si carica di tonalità emotive, si allunga, si fa confidenziale. Non si chiede una prestazione, si cerca una presenza. È il punto in cui la questione tecnologica diventa antropologica. L’IA non prova empatia, ma simula pattern linguistici associati all’empatia. E tuttavia, per chi scrive e legge quelle frasi, l’effetto soggettivo può essere autentico. Ciò che dovrebbe interrogarci non è la capacità della macchina di imitare il calore umano, ma la crescente disponibilità dell’essere umano ad accettare come sufficiente una reciprocità simulata. La linea di confine tra consapevolezza razionale e investimento emotivo è più sottile di quanto immaginiamo.
Questa segmentazione proposta dallo studio danese non fotografa una semplice evoluzione delle interfacce, ma un passaggio culturale più profondo. L’intelligenza artificiale non è uno strumento neutro che si limita a rispondere a bisogni preesistenti. È un ambiente relazionale che amplifica inclinazioni, carenze, paure, ambizioni. In essa proiettiamo la nostra ansia di efficienza, il nostro desiderio di creatività, la nostra fame di conoscenza rapida, la nostra solitudine. Se la macchina assume forme diverse a seconda dell’utente, è perché l’utente la modella con il proprio linguaggio, e nel farlo si espone.
Non è l’IA che ci classifica. Siamo noi che, parlando con lei, ci lasciamo classificare. E forse la questione più urgente non è come rendere l’intelligenza artificiale più umana, ma come evitare che, nel dialogo con un sistema matematico, rinunciamo silenziosamente a interrogare noi stessi su cosa significhi ancora essere umani.