Nel settore dell’intelligenza artificiale solo tre professionisti su dieci sono donne

IA e gender gap: la scarsa presenza femminile può influire su qualità e sicurezza dei sistemi.

Nel settore dell’intelligenza artificiale solo tre professionisti su dieci sono donne
Condividi:
6 min di lettura

La crescita dell’intelligenza artificiale sta cambiando molti settori economici. Tuttavia, la partecipazione delle donne nello sviluppo di queste tecnologie è ancora limitata. Un'analisi della Asian Development Bank mostra che la poca presenza femminile nell'ecosistema dell'IA può influenzare l'equità, la sicurezza e l'inclusività dei sistemi tecnologici.

Secondo le stime di MarketsandMarkets e Investopedia, il mercato globale dell’intelligenza artificiale potrebbe superare i 400 miliardi di dollari di fatturato entro il 2027. Nonostante l’espansione del settore, il divario di genere resta ampio, sia nell'accesso alle professioni tecnologiche sia nei ruoli decisionali legati allo sviluppo delle applicazioni di IA.

Il rapporto dell’Asian Development Bank segnala che, a livello mondiale, solo il 30% dei professionisti che lavorano nell’intelligenza artificiale sono donne. Questa percentuale è aumentata di quattro punti rispetto al 2016. La presenza femminile è ancora più limitata nel campo della ricerca, dove le donne rappresentano soltanto il 12% dei ricercatori impegnati nello studio e nello sviluppo dell’IA.

Il divario è evidente anche nelle discipline scientifiche e tecnologiche. Nei paesi dell'Asia-Pacifico, le donne costituiscono il 23,9% dei ricercatori nelle materie STEM, una proporzione inferiore alla media globale del 29,3%. L'analisi evidenzia anche una diminuzione della rappresentanza femminile con l'aumento dei livelli gerarchici nel settore tecnologico. Le donne occupano circa il 23% delle posizioni senior, mentre solo l’8% dei ruoli tecnici senior è ricoperto da professioniste. La presenza nelle posizioni di leadership è ancora più ridotta.

Secondo lo studio, la bassa partecipazione femminile nella progettazione e nello sviluppo dell’intelligenza artificiale può influenzare il funzionamento dei sistemi tecnologici. L'assenza di diversità tra i professionisti che progettano queste soluzioni può influenzare le priorità di sviluppo, la selezione dei dati utilizzati e i criteri per la valutazione dei sistemi. Questo contesto può contribuire a riprodurre pregiudizi di genere nelle applicazioni di IA.

Il tema dei bias nei sistemi digitali coinvolge tutto il ciclo di vita delle tecnologie di intelligenza artificiale, dalla raccolta dei dati ai processi decisionali per la loro gestione. Alcuni studi citati nel rapporto indicano che il 44% dei sistemi di IA analizzati presenta forme di bias di genere, mentre il 25% mostra bias di genere e razziali.

Tra gli esempi menzionati ci sono i modelli linguistici utilizzati nell’elaborazione automatica del linguaggio. Sistemi come GPT-2, sviluppato da OpenAI, e Llama 2, realizzato da Meta, hanno mostrato in alcuni test la tendenza a collegare le donne a ruoli domestici e gli uomini a professioni più rispettate. Gli studiosi affermano che questi risultati derivano principalmente dalla composizione dei dataset usati per l'addestramento dei modelli e dalla mancanza di attenzione alle questioni di genere durante la fase di progettazione.

Anche l'uso di assistenti vocali con voce femminile può contribuire a rinforzare stereotipi tradizionali. Inoltre, la predominanza di dataset in lingua inglese limita la rappresentazione di utenti provenienti da contesti linguistici diversi, con possibili conseguenze di marginalizzazione per le comunità non anglofone e per le popolazioni rurali. Le disparità di genere si osservano anche nell'accesso alle tecnologie digitali. Secondo dati della GSM Association del 2023, nelle regioni dell’Asia meridionale, le donne hanno il 32% di probabilità in meno rispetto agli uomini di utilizzare internet mobile. Nei paesi a basso reddito, solo il 20% della popolazione femminile ha accesso alla rete.

Diversi fattori contribuiscono a questa situazione, come limiti economici, minore accesso ai servizi finanziari, responsabilità familiari e opportunità di formazione digitale ridotte. Inoltre, ci sono problemi legati alla sicurezza online e alla protezione della privacy, che possono dissuadere le donne dalla partecipazione agli ambienti digitali. Le disuguaglianze si manifestano anche nei sistemi automatizzati utilizzati in ambito professionale e finanziario. Alcuni algoritmi impiegati nei processi di selezione del personale hanno penalizzato i curricula con riferimenti al genere femminile. Analogamente, i modelli di valutazione del credito possono risultare sfavorevoli per chi ha percorsi lavorativi discontinui o part-time, condizioni più comuni tra le donne. Nel settore sanitario, l'uso di dati non differenziati per genere può portare a risultati diagnostici meno accurati per le pazienti.

Il dibattito sui rischi dell’intelligenza artificiale è aumentato anche dopo casi recenti di uso improprio delle tecnologie digitali. Tra questi, ci sono i deepfake sessuali non consensuali realizzati attraverso l’IA del chatbot Grok, sviluppato dalla società xAI fondata da Elon Musk. Alcuni di questi contenuti hanno coinvolto donne e minori, attirando l'attenzione delle istituzioni. L’Unione Europea ha avviato un’indagine per esaminare le implicazioni legate all’uso di queste tecnologie.

Oltre ai rischi evidenziati nel rapporto, ci sono anche iniziative che promuovono un approccio più inclusivo allo sviluppo dell’intelligenza artificiale. In India, ad esempio, l’impresa sociale Karya, sostenuta da Microsoft, Google e dalla Bill & Melinda Gates Foundation, coinvolge oltre 30.000 donne delle aree rurali nella creazione di dataset linguistici inclusivi. Il progetto mira a migliorare la rappresentazione delle lingue locali nei sistemi digitali e a ridurre le associazioni automatiche di genere presenti negli algoritmi. Un'altra iniziativa riguarda la piattaforma di microcredito Amartha, attiva in Indonesia e sostenuta da Accion e dal Mastercard Center for Inclusive Growth. Grazie a strumenti di valutazione del credito basati sull’intelligenza artificiale, la piattaforma ha ampliato l’accesso ai finanziamenti per le imprenditrici, triplicando il numero dei richiedenti idonei e riducendo i tempi di approvazione dei prestiti a meno di 24 ore. Il sistema ha anche eliminato pratiche tradizionali come la richiesta della firma del marito per accedere al credito.

In India, la piattaforma Safecity utilizza dati raccolti dagli utenti e tecnologie di analisi per identificare e mappare le aree urbane meno sicure per le donne, fornendo informazioni utili alle autorità locali per creare politiche di sicurezza urbana.

Il rapporto dell’Asian Development Bank sottolinea l'importanza di adottare politiche pubbliche e strategie industriali che considerino la dimensione di genere nello sviluppo delle tecnologie digitali. Tra le misure suggerite ci sono l'integrazione dell'uguaglianza di genere nelle strategie nazionali sull’intelligenza artificiale, l'uso di dati disaggregati per sesso e una maggiore partecipazione femminile negli organismi di supervisione e governance.

Un'altra area prioritaria è il sostegno a progetti tecnologici progettati con il coinvolgimento diretto delle donne e l'aumento degli investimenti in iniziative guidate da imprenditrici o orientate all'inclusione. Lo studio sottolinea anche l'importanza di migliorare le competenze digitali femminili attraverso programmi di alfabetizzazione tecnologica, formazione nelle discipline STEM e percorsi di leadership. L’analisi regionale condotta dalla banca di sviluppo mostra però che l'integrazione della prospettiva di genere nelle politiche sull’intelligenza artificiale è ancora limitata. Tra i 14 paesi asiatici con strategie nazionali sull’IA, soltanto Malaysia e Pakistan includono esplicitamente il tema dell’uguaglianza di genere nei rispettivi quadri normativi.

Lo studio conclude che, con la crescente diffusione dell’intelligenza artificiale nelle economie e nelle società, la questione della parità di genere diventa centrale nella governance delle tecnologie digitali. Secondo l’Asian Development Bank, governi, aziende e organizzazioni della società civile devono lavorare insieme per integrare la prospettiva di genere in tutte le fasi dello sviluppo dell’IA, dalla progettazione alla distribuzione delle applicazioni.

Tag: