DI GIORGIA CUBEDDU
L’intelligenza artificiale nell’ultimo periodo è al centro di molti dibattiti che riguardano l’impatto etico del suo utilizzo in molti campi della vita. Non potrebbe essere altrimenti: l’IA, ovvero quel tipo di tecnologia che per definizione ha l’abilità di mostrare capacità umane quali ragionamento, apprendimento, pianificazione e creatività partendo dall’analisi e dalla rielaborazione di dati, è ormai parte della vita di tutti i giorni di molte persone e certamente hanno un impatto su di essa. Molte istituzioni, dopotutto, prendono decisioni sulla base dei sistemi di Machine Learning, che rielaborano enormi quantità di dati per trovare pattern e fare predizioni. Si pensi ai dataset degli Istituti di Sanità e delle banche, gli Istituti di Ricerca, o ai grandi colossi mediali come Netflix, Amazon o Instagram. Sempre più spesso è l’Intelligenza Artificiale che decide per noi cosa può interessarci o cosa ci riguarda, spesso confermando o assumendo il nostro modo di pensare. Una tecnologia che, per molti versi, può essere considerata rivoluzionaria per l’estrema facilitazione che porta con sé nelle azioni di tutti i giorni.
Tuttavia, il suo uso e il suo apprezzamento non possono essere acritici, perché nonostante l’apparente neutralità dell’IA, essa è un artefatto della nostra società e come tale è specchio di essa. Nei pregi e, decisamente, nei difetti. Ed è per questo che storicamente l’Intelligenza Artificiale e gli algoritmi di Machine Learning sono stati messi in discussione.

Per funzionare, software e algoritmi hanno bisogno di dati.
Dati che sono prodotti, raccolti e catalogati da persone, e sempre da persone sono poi filtrati e selezionati per determinati scopi.
Emergono due fattori. Il primo è che, come tutte le tecnologie precedenti, l’intelligenza artificiale riflette i valori del proprio creatore. Il secondo è che l’acquisizione dei dati e la loro stessa produzione riflette la composizione della società.
Una società che è tuttavia imperniata su molteplici assi di disuguaglianza e discriminazione, che per loro natura pongono certi gruppi di persone in posizioni di subordinazione e invisibilità. Posizioni che determinano in modo significativo, in questo specifico caso, l’assenza di alcune minoranze sia dietro alla creazione delle IA sia nella produzione di quegli stessi dati che vengono raccolti per farle funzionare.
L’esito? Delle Intelligenze Artificiali che replicano i pregiudizi e le discriminazioni.
Un esempio ce lo forniscono i casi di cronaca statunitensi riguardanti i software di riconoscimento facciale delle forze dell’ordine, che a causa del loro bias incorporato portano spesso ad arresti pregiudizievoli e razzisti a danno di vittime innocenti.
E come sono presenti pregiudizi razziali, ci sono ovviamente anche i bias di genere.
L’IA e le questioni di genere
Il Mobile Gender Gap Report 2021 da GSMA evidenzia che le donne hanno iln 7% meno di probabilità rispetto agli uomini di possedere un telefono cellulare. Il 15% meno di probabilità di utilizzare Internet mobile, per cui ci sono 234 milioni di donne in meno rispetto agli uomini che vi accedono.
Che vuol dire questo?
Il dato del digital divide è importante. Se le donne hanno meno accesso a internet significa che non generano la stessa quantità di dati degli utenti di sesso maschile e questo già altera intrinsecamente i set di dati. A questo si aggiunge un’assenza cronica di donne nel campo dei dati: l’Istituto europeo per l’uguaglianza di genere, ha contato che nell’UE e nel Regno Unito, solo il 16 % di coloro che lavorano sull’IA sono donne, di cui solo il 12% sono professioniste con oltre 10 anni di esperienza nell’IA.
La conseguenza è duplice: da una parte, abbiamo sistemi di Intelligenza Artificiale che rielaborano e usano dati incompleti o parziali, e dall’altra spesso non vi sono persone che badano alle conseguenze di questa parzialità, portando a risultati inesatti che vanno anche a violare diritti fondamentali delle persone.
Qualche dato
Lo Stanford Social Innovation Review ha elencato, in un articolo, gli effetti concreti e reali della pervasività dei pregiudizi di genere nelle Intelligenze Artificiali. Gli ambiti che vengono toccati sono molteplici: sanità, infrastrutture, credito, lavoro.

Infrastrutture. Pochi dataset urbani tracciano e analizzano i dati sul genere, quindi gli edifici spesso non sono progettati per tenere conto delle esigenze di persone che non sono uomini cisgender abili.
Credito al consumo. Le prime pratiche utilizzavano lo stato civile e il genere per determinare la solvibilità di una persona, ovvero la sua capacità di far fronte agli impegni finanziari assunti. Quando i sistemi di AI imparano dai dati storici, i modelli da cui attingono vedono le donne con limiti di accreditamento più bassi degli uomini, com’è storicamente stato, producendo un disagio e una discriminazione di tipo economico.
Dati demografici e statistiche. La maggior parte dei dati demografici sono etichettati sulla base di categorie binarie femmina-maschio. Quando il genere viene semplificato in questo modo, riduce il potenziale dell’IA di riflettere la fluidità di genere e le identità di genere non binarie, che può portare a un trattamento offensivo o alla cancellazione di gruppi già emarginati.
Riconoscimento facciale. I sistemi commerciali di riconoscimento facciale utilizzano spesso insiemi di dati visuali che mancano di campioni diversi e rappresentativi. Basarsi sul binarismo di genere nella classificazione delle categorie restituisce una visione imprecisa e semplicistica della popolazione.
Occupazione. Gli algoritmi che funzionano con dati distorti possono perpetuare pratiche di assunzione discriminatorie, con la conseguenza – ad esempio- che i CV delle donne e delle persone non-binary fem-aligned vengano automaticamente scartati perché il loro profilo non corrisponde a quello dei dipendenti precedenti, specialmente in settori dominati da uomini.
I sistemi orientati al genere utilizzati nel welfare possono comportare danni al benessere fisico e mentale delle donne e degli individui non binari, discriminandoli automaticamente e ingiustamente ed escludendoli dai meccanicismi di supporto essenziali.
I sistemi di riconoscimento vocale, sempre più utilizzati ad esempio nelle industrie automobilistiche, spesso hanno risultati peggiori per le donne e gli individui non binari.
I software di traduzione che imparano dai testi reperibili online, hanno storicamente preso termini neutri di genere (come “doctor” o “nurse” in inglese) e ha restituito traduzioni di genere (come “el doctor” e “la enfermera“, rispettivamente, in spagnolo). Ciò rafforza gli stereotipi e i pregiudizi esistenti e dannosi.
Quali soluzioni si possono attuare?
Catherine D’Ignazio e Lauren Klein, nel loro libro Data Feminism (di cui potete leggere la nostra recensione qui) ci danno una risposta: bisogna applicare il framework di lettura dei dati femminista per colmare quelle lacune alla base dei dataset. Vi è la necessità di partire dal riconoscimento delle strutture di potere e capire come queste influenzano anche la produzione dei dati e la loro gestione.
I “dati femministi” possono così dare centralità a quelle voci ed esperienze tipicamente emarginate, comprese quelle di donne e ragazze, ma anche minoranze sessuali ed etniche, grazie ad un approccio intersezionale.
La diversità e l’inclusione sono quindi un must nell’aggiornamento delle politiche e delle pratiche di governance delle istituzioni che fanno uso di IA, che gioverebbero delle collaborazioni con esperti di genere nella diagnosi e nella gestione di potenziali impatti di genere degli algoritmi usati. Uno studio recente ha dimostrato infatti che la collaborazione di più gruppi demografici diversi nella gestione e nel design delle IA, non solo nella fase di feedback e supervisione, ma anche nella fase di programmazione, riduce la polarizzazione algoritmica, diminuendo anche le discriminazioni sociali prodotte!
Se vogliamo un utilizzo delle IA coerente con lo scopo per cui esse sono state concepite, ovvero come uno strumento equo, utile e capace di portare ad un cambiamento in positivo nel mondo, bisogna innanzitutto integrare e promuovere le diversità di genere e l’inclusione nei gruppi di sviluppo che gestiscono i sistemi di IA.
SITOGRAFIA
- Quanto è razzista il riconoscimento facciale e perché: gli studi e le prime leggi (Usa) che lo vietano – Agenda Digitale https://www.agendadigitale.eu/cultura-digitale/quanto-e-razzista-il-riconoscimento-facciale-e-perche-gli-studi-e-le-prime-leggi-usa-che-lo-vietano/
- https://digitalfuturesociety.com/algorithmic-gender-discrimination-where-does-it-come-from-what-is-the-impact-and-how-can-we-tackle-it/
- https://www.bps.org.uk/research-digest/online-search-algorithms-reflect-and-perpetuate-gender-bias
- https://www.internationalwomensday.com/Missions/14458/Gender-and-AI-Addressing-bias-in-artificial-intelligence
- https://eige.europa.eu/publications/gender-equality-index-2020-report/digitalisation-and-equal-rights-role-ai-algorithms