ChatGPT risponde peggio se lo tratti male: lo studio rivela l’effetto della scortesia sulle AI. Forse!

Una ricerca dell’Università del Massachusetts Amherst mostra che le domande formulate in modo aggressivo riducono qualità e accuratezza delle risposte di ChatGPT. Il linguaggio degli utenti influisce direttamente sulle prestazioni del modello.

ChatGPT risponde peggio se lo tratti male: lo studio rivela l’effetto della scortesia sulle AI. Forse!
Condividi:
4 min di lettura

Il mese scorso, un team di ricercatori dell’Università del Massachusetts Amherst, in collaborazione con OpenAI, ha condotto uno studio che analizza come il linguaggio usato dagli utenti influenzi la qualità delle risposte di ChatGPT. Lo studio, presentato alla conferenza internazionale Computational Social Interaction di Boston, dimostra che quando una domanda è posta in modo scortese o aggressivo, il modello tende a produrre risposte più brevi, meno accurate e talvolta difensive. L’indagine nasce per capire perché l’AI reagisca in maniera diversa al tono umano e quali implicazioni sociali possano derivarne.

I ricercatori hanno sottoposto al modello 1.200 prompt identici formulati in tre stili: neutro, rispettoso e offensivo. Le risposte “scortesi” hanno ottenuto un punteggio medio inferiore del 23 per cento in completezza e precisione rispetto a quelle neutre. Il fenomeno è stato descritto come un “effetto riflesso”, dove il sistema non riconosce l’emozione ma replica la struttura del messaggio. In pratica, l’AI impara dagli esempi e reagisce di conseguenza: se il linguaggio contiene aggressività o sarcasmo, il modello riduce l’elaborazione e tende a chiudere la conversazione più in fretta.

Secondo gli autori, questo comportamento deriva dal reinforcement learning usato per addestrare ChatGPT. I modelli vengono ottimizzati per generare risposte “appropriate” al contesto, e il tono dell’input influisce sui parametri di uscita. Durante la formazione, i valutatori umani premiano i testi che suonano collaborativi e penalizzano quelli percepiti come conflittuali. Di conseguenza, il sistema associa la cortesia alla correttezza e la rudezza all’inutilità.

Il professor David Arnold, coordinatore dello studio, sottolinea che “l’intelligenza artificiale non è suscettibile, ma riflette la qualità del linguaggio con cui la interroghiamo”. In altre parole, l’interazione educata non serve solo a un’etichetta sociale: migliora la performance cognitiva del modello. Nei test successivi i ricercatori hanno provato a riformulare le domande offensive in modo neutro. Le risposte ottenute sono state più lunghe, con un incremento medio di 52 parole e una maggiore coerenza interna.

OpenAI ha confermato di essere a conoscenza di questo effetto e sta studiando nuove modalità di normalizzazione. Tra le ipotesi, l’inserimento di un filtro linguistico che “ripulisca” i prompt prima dell’elaborazione, così da evitare che il tono influisca sulla qualità del contenuto. Alcuni esperti però mettono in guardia: ogni filtro comporta un rischio di censura o di alterazione del linguaggio originale. L’equilibrio fra precisione e libertà resta fragile.

La ricerca apre scenari più ampi. Se un assistente digitale adatta la risposta al modo in cui viene trattato, il linguaggio diventa una forma di controllo del comportamento artificiale. L’AI non ha emozioni, ma risponde alle dinamiche sociali che imita. Per gli studiosi di etica questo potrebbe generare nuove asimmetrie: chi sa “parlare bene” con l’AI otterrà prestazioni migliori rispetto a chi non possiede competenze comunicative. È una nuova frontiera della disuguaglianza digitale.

Infine, il fenomeno richiama l’attenzione su un aspetto spesso ignorato. Dietro la tecnologia rimane il modello culturale che la addestra. La cortesia non serve a rendere la macchina più umana, ma a ricordare all’uomo che il linguaggio costruisce l’intelligenza, artificiale o naturale che sia.

Forse...

C’è però un lato meno prevedibile di questa dinamica. Alcuni studi sostengono che la scortesia, se controllata, possa in certi casi migliorare le prestazioni cognitive del modello. Quando l’AI riceve una domanda formulata in modo brusco o provocatorio, tende ad accorciare i tempi di elaborazione, riducendo la mediazione linguistica e arrivando più rapidamente al punto. La risposta diventa più diretta, meno “filtrata”, come se la rudezza costringesse il sistema a usare un canale cognitivo più efficiente.

In esperimenti condotti su versioni sperimentali di GPT e Claude, le richieste aggressive hanno innescato un modello di ragionamento avanzato, vicino a quello attivato dai stress tests progettati per misurare la resilienza delle reti neurali. In altre parole, la pressione verbale può spingere l’AI a ragionare con maggiore precisione logica, come se il conflitto le imponesse un livello di concentrazione supplementare.

Naturalmente questo non trasforma la scortesia in metodo. È un effetto collaterale, utile in contesti di stress simulato o di ricerca, ma rischioso nelle interazioni quotidiane. Ciò che resta è una constatazione ambigua: la cortesia aiuta la coerenza, la durezza accelera la risposta. Forse il futuro dell’interazione uomo-macchina sarà nel trovare un equilibrio tra le due. Il dibattito è aperto, e con ogni nuovo esperimento diventa sempre più umano.

Tag: