Quando l’algoritmo discrimina: il lato oscuro dell’intelligenza artificiale.

Quando l’IA replica il patriarcato: gli algoritmi diventano complici silenziosi della violenza di genere.

Quando l’algoritmo discrimina: il lato oscuro dell’intelligenza artificiale.
Condividi:
5 min di lettura
Ormai l’Intelligenza artificiale non è neutrale. Dietro l’efficienza e la parente oggettività delle macchine si nasconde paradosso: Gli algoritmi imparano da noi. Esse legati con cui vengono addestrati contengono disuguaglianze, pregiudizi o  stereotipi, l’IA  finisce per evitarli, amplificandoli in modo invisibile ma potente. È qui che nasce una nuova forma di violenza simbolica digitale: silenziosa, difficile da individuare, ma capace di consolidare ingiustizie radicate nella società.
 
Uno dei campi più discussi quello del riconoscimento facciale. Diversi studi, come quelli condotti dal Mit Media Lab, hanno dimostrato che i sistemi più diffusi sul mercato sbagliano molto più spesso nelle riconoscere donne persone non bianche rispetto agli uomini bianchi. L’errore non è casuale: deriva dal fatto che gli algoritmi vengono addestrati su data base di immagini prevalentemente maschili caucasici.
Il risultato che è una tecnologia nata per migliorare la sicurezza o semplificare i controlli diventa, di fatto, uno strumento discriminatorio.
 
Un’altra distorsione si manifesta nelle voci digitali che abitano i nostri smartphone alle nostre case. Siri, Alexa, Cortana: tutte nate con voce femminile, gentile e accondiscendente. 
Quando l’UnNESCO ha pubblicato il rapporto I’d Blush If I Could,  abbracciato proprio questo: il modo in cui gli assistenti vocali rafforzano inconsciamente ruoli di genere tradizionali, Rispondendo in modo “servile” a ordini e talvolta persino a insulti. È una scelta di design, Pur non essendo intenzionalmente  se si sta, contribuisce a plasmare immaginario collettivo, rendendo “naturale”  associare la voce femminile a funzioni di supporto obbedienza.
 
Le distorsioni emergono anche nel mondo del lavoro. Alcune grandi aziende tecnologiche hanno dovuto ritirare algoritmi di selezione del personale perché penalizzava lo sistematicamente curricula femminili. Era accaduto, ad esempio ad Amazon: il suo software di recruiting aveva “imaparato” dai Dati storici delle assunzioni, in cui la maggioranza dei candidati selezionati erano uomini. L’IA,  senza cattive intenzioni, aveva dedotto che l’essere maschio fosse un criterio di merito.
 
Il problema, dunque, non è l’intelligenza artificiale in sé, ma il contesto umano che la nutre. Gli algoritmi presentano i dati, e i dati riflettono società. Se quella società e diseguale, sarà anche la macchina. Per questo gli esperti parlano di bias algoritmico: ovvero distorsioni sistemiche che si insinuano nel codice, invisibili ma potenti, capaci di influenzare decisioni che vanno dall’assunzione di un lavoratore alla concessione di un prestito, fino alla definizione di profili criminali da parte delle forze dell’ordine.
 
Non mancano, però, iniziative per correggere la rotta.
In Europa, Il nuovo AI Act pone per la prima volta regole chiare l’uso etico dell’intelligenza artificiale, classificando i sistemi in base al livello di rischio imponendo trasparenza è traccia abilità dei dati. Diverse università e centri di ricerca stanno lavorando a strumenti di algorithmic auditing, veri e propri “controlli qualità”  per individuare e ridurre i pregiudizi nei dataset.
Così sempre più aziende stanno introducendo team dedicati alla diversità dei dati, per garantire che i modelli di apprendimento automatico siano realmente rappresentativi.
 
Ma la sfida più grande resta culturale. Come sottolinea la sociologa e data scientist Kate Crawford, «non possiamo pensare che un problema umano venga risolto dal codice». Da ciò Serve consapevolezza, formazione, e soprattutto pluralità di sguardi. Ma perché solo includendo più voci – di genere, di provenienza, di esperienza- si può costruire un’intellicenza davvero collettiva.
 
Per terza Notizia abbiamo intervistato la Dott.ssa Sonia Tinti Barraja, psicologa e psicoterapeuta.
 
Secondo lei, qual è il principale limite dell’intelligenza artificiale quando si parla di comprensione dell’essere?
 
«Ritengo che uno dei problemi dell’intelligenza artificiale sia proprio nella contrapposizione tra intelligenza e quella “stupidità” che caratterizza questi sistemi. Per quanto possano simulare processi complessi, manca loro la capacità emotiva: non comprendono davvero le emozioni e le esperienze umane. Questo limite si riflette anche in ambiti delicati come quello psicologico o psicoterapico, dove in alcuni casi l’interazione con sistemi di IA ha portato a esiti drammatici, persino a suicidi, a causa di consigli errati.»
 
In che modo i pregiudizi umani si riflettono all’interno degli algoritmi di intelligenza artificiale?
 
«Il problema sta nel sistema stesso, perché gli algoritmi sono stati creati e addestrati dall’uomo e quindi ne riflettono inevitabilmente i pregiudizi. L’intelligenza artificiale finisce per farsi portatrice delle discriminazioni ancora presenti nella società: sessismo, stereotipi, disuguaglianze sociali. Lo vediamo anche nei sistemi più comuni, come Siri o Alexa, che danno risposte ridondanti e spesso sessiste. Queste distorsioni del machine learning perpetuano schemi culturali distorti e diseguali.»
 
Quali strategie potrebbero ridurre il rischio di pregiudizi e distorsioni sociali nei sistemi di IA?
 
«Per limitare questi effetti serve un doppio intervento. Da un lato, bisogna progettare gli algoritmi includendo fin dall’inizio criteri che non siano portatori di una cultura sessista o discriminatoria; dall’altro, occorre una revisione continua da parte di esperti umani, uomini e donne, che vadano a correggere i bias dei sistemi. Solo così si può colmare il gap di elaborazione che l’IA ancora ha rispetto all’intelligenza emotiva e al pensiero complesso. Certo, il rischio è che, superando certi limiti, l’IA diventi un meccanismo troppo potente e difficile da controllare, ma oggi il controllo umano resta imprescindibile.»
 
Oggi l’algoritmo discrimina e discriminerà ancora fintantocchè non avverrà una correzione “umana” e sino a che ci sarà ancora discriminazione sociale. 
 
Il rischio, altrimenti, è che l’IA diventi lo specchio perfetto dei nostri pregiudizi. Un riflesso lucido, tecnologico apparentemente imparziale di ciò che non abbiamo ancora avuto il coraggio di cambiare.