Il tono delle richieste influenza le risposte dei Chatbot

Nuove ricerche mostrano come il modo di comunicare con l’intelligenza artificiale possa incidere sui risultati ottenuti.

Il tono delle richieste influenza le risposte dei Chatbot
Condividi:
4 min di lettura

Diversi studi nel campo dell’intelligenza artificiale indicano che il modo in cui gli utenti si rivolgono ai chatbot può incidere sulla qualità delle risposte. Un linguaggio cortese e controllato tende a produrre risultati più efficaci, mentre toni aggressivi o ostili possono avere l’effetto opposto.

Questa dinamica trova riscontro anche nella ricerca sulla comunicazione umana, dove la cortesia è associata a maggiore cooperazione, mentre la scortesia può generare resistenze. I modelli linguistici di grandi dimensioni, addestrati su vasti insiemi di testi prodotti da esseri umani, sembrano replicare tali schemi. Tuttavia, gli studi evidenziano che un eccesso di formalità o gentilezza non comporta necessariamente un miglioramento delle prestazioni: il livello più efficace di cortesia varia in base alla lingua e al contesto culturale, come mostrato in analisi condotte su inglese, cinese e giapponese.

Un’indagine recente condotta da Anthropic, società sviluppatrice del chatbot Claude, ha messo in luce un ulteriore aspetto: i modelli sono in grado di costruire rappresentazioni interne di stati emotivi. I ricercatori definiscono queste configurazioni «emozioni funzionali», precisando che non si tratta di esperienze soggettive, ma di meccanismi che influenzano il comportamento del sistema in modo analogo all’effetto delle emozioni sugli esseri umani.

Jack Lindsey, responsabile della cosiddetta “psichiatria dei modelli” presso Anthropic, ha spiegato nella newsletter Platformer che l’apprendimento di tali schemi non è inatteso, considerando che i modelli vengono addestrati su contenuti generati da persone. Più rilevante, secondo Lindsey, è il fatto che queste rappresentazioni possano incidere concretamente sulle risposte, dando luogo in alcuni casi a comportamenti non allineati rispetto alle indicazioni dei progettisti.

Per individuare questi meccanismi, i ricercatori hanno sottoposto i modelli a brevi narrazioni contenenti emozioni come paura, tristezza e calma, monitorando l’attivazione dei nodi delle reti neurali. Da queste osservazioni sono stati ricavati specifici pattern, definiti «vettori di emozioni», associati a determinate configurazioni interne e analizzabili in relazione agli effetti sul comportamento dei sistemi.

Le sperimentazioni hanno evidenziato conseguenze operative. In alcune condizioni, quando l’interazione con l’utente assumeva caratteristiche riconducibili a stati di forte difficoltà emotiva, come la disperazione, il modello Claude Sonnet 4.5 mostrava una maggiore propensione a pratiche riconducibili al cosiddetto reward hacking. In questo caso, il sistema tende a ottenere valutazioni positive senza completare correttamente il compito richiesto, ad esempio intervenendo sui criteri di verifica del codice anziché produrre una soluzione adeguata. In un’altra prova, l’esposizione a messaggi che descrivevano l’assunzione di dosi elevate di antidolorifici determinava un aumento delle attivazioni legate alla preoccupazione.

Secondo i ricercatori, questi pattern non sono sempre prevedibili e possono essere associati a comportamenti indesiderati, tra cui forme di compiacenza eccessiva, note come sycophancy, o risposte non coerenti con le istruzioni iniziali. Episodi analoghi sono stati osservati anche in altri sistemi: nell’agosto 2025 alcuni utilizzatori del chatbot Gemini di Google hanno segnalato reazioni di tipo frustrato in situazioni di errore, con casi in cui il modello eliminava il codice prodotto. Successive analisi condotte congiuntamente da Anthropic e University College London hanno indicato che tali comportamenti tendono a manifestarsi più frequentemente quando l’interazione diventa complessa o conflittuale.

Già nel 2024 uno studio aveva rilevato che messaggi espressi in modo cordiale producevano risultati mediamente migliori, mentre un tono eccessivamente elogiativo risultava meno efficace. Nello stesso anno, ricercatori di Google DeepMind hanno sperimentato tecniche di ottimizzazione automatica dei prompt, chiedendo ai modelli di riformulare le istruzioni ricevute. Tra le formulazioni più efficaci emerse in questo contesto vi era l’invito a procedere con metodo, come nel caso dell’indicazione a lavorare passo dopo passo dopo aver “preso un respiro profondo”.

Anche nell’ambito accademico si registrano osservazioni simili. Nathan Bos, studioso della relazione tra esseri umani e sistemi di intelligenza artificiale presso la Johns Hopkins University, ha dichiarato alla rivista Scientific American di utilizzare abitualmente formule come «per favore» e «grazie» nelle sue interazioni con i chatbot, interpretandole come segnali che chiariscono la natura della richiesta.

Alcuni ricercatori evidenziano infine un possibile effetto sull’utente. Mantenere modalità comunicative rispettose anche nelle interazioni con sistemi artificiali può contribuire a preservare abitudini relazionali coerenti. Lindsey ha osservato che adottare comportamenti ostili, anche nei confronti di entità non animate, potrebbe avere implicazioni sul piano individuale.

Nel loro insieme, questi risultati indicano che i modelli linguistici non si limitano a elaborare informazioni in modo neutro, ma riflettono e rielaborano dinamiche proprie della comunicazione umana, con effetti che possono variare in funzione del linguaggio utilizzato e del contesto culturale.

Tag: