Esperimenti accademici, ma anche semplici esperienze personali, dimostrano che le immagini create con l’intelligenza artificiale rappresentano un mondo dominato da maschi bianchi

Nell’ultimo anno, l’intelligenza artificiale generativa ha avuto un boom, con l’arrivo e la diffusione di strumenti come Midjourney, DALL-E 2 (creatori di immagini) e, soprattutto, ChatGPT per il testo. Ma mentre grandi aziende come OpenAI, Google e Microsoft si stanno affrettando a sviluppare strumenti di intelligenza artificiale, governi, aziende e intellettuali stanno dibattendo su come l’intelligenza artificiale avrà un impatto sul lavoro e sull’ambiente.

Entusiasti e apocalittici

Elon Musk – SHUTTERSTOCK

Accanto agli entusiasti (e alle campagne pubblicitarie), c’è anche una corrente critica, composta prevalentemente da pionieri dell’intelligenza artificiale e da “addetti ai lavori“. Nel marzo dell’anno scorso, un gruppo di eminenti esperti, tra cui l’informatico canadese Yoshua Bengio, il ceo di Twitter Elon Musk e il co-fondatore di Apple Steve Wozniak, hanno firmato una lettera aperta chiedendo una pausa nello sviluppo di sistemi di intelligenza artificiale più potenti di ChatGPT-4. E ad aprile, il “padrino dell’intelligenza artificiale”, Geoffrey Hinton, ha lasciato Google, citando preoccupazioni sul rischio “esistenziale” rappresentato dall’intelligenza artificiale.

In un’intervista con The Guardian, Hinton ha sostenuto che l’intelligenza artificiale non solo creerà «così tante notizie false che le persone non avranno alcuna comprensione di quale sia la verità“, ma alla fine supererà anche il cervello umano. Ha inoltre suggerito che l’umanità è a un bivio, al quale potremmo non sopravvivere. Sam Altman, ceo di OpenAI, ha scritto: «Un’intelligenza artificiale generale superintelligente disallineata potrebbe causare gravi danni al mondo; Anche un regime autocratico con un deciso vantaggio di superintelligence potrebbe fare lo stesso».

Al netto di questi scenari apocalittici, è certamente importante pensare in anticipo e intensamente al prossimo impatto dell’intelligenza artificiale generativa, cosa che non è riuscita con i social media. Quando Facebook e Twitter furono lanciati, gli esperti di tecnologia e i politici non immaginavano che le piattaforme sarebbero state utilizzate come strumenti di disinformazione online, odio e interferenze.

LEGGI AI Act, cosa dice la prima legge al mondo sull’intelligenza artificiale

Gli scenari ipotetici di Hinton non colgono il punto, perché ignorano il presente. L’intelligenza artificiale, soprattutto quella generativa, sta già causando danni, in particolare ai gruppi storicamente emarginati e sottorappresentati. Lo aveva detto già Altman davanti alla sottocommissione del Senato americano a proposito della legge sulla privacy e tecnologia, a proposito del provvedimento del 16 maggio 2023.

Mentre Altman e i membri del comitato discutevano di questioni etiche e di sicurezza nazionale, hanno citato poco impatti che alcuni esperti evidenziavano da anni: gli effetti della tecnologia sulle donne. In effetti, la parola donne è stata menzionata solo una volta durante le tre ore di udienza. Interrogato in merito da Women Rule di Politico , il senatore Richard Blumenthal ha detto che la commissione alla fine avrebbe ascoltato i testimoni concentrarsi sulle «molestie sulle donne». Tali omissioni riflettono una continua mancanza di comprensione dei continui rischi legati al genere.

Un realismo tutto suo

Un’immagine creata dall’AI – SHUTTERSTOK

L’intelligenza artificiale generativa crea immagini, testo, audio e video in base a suggerimenti testuali. DALL-E 2 di OpenAI, ad esempio, affermano di «creare immagini e opere d’arte realistiche da una descrizione in linguaggio naturale».

Ma sono davvero realistiche? La maggior parte dei modelli text-to-image vengono addestrati su LAION-5B, un ampio set di dati open source compilato estraendo contenuti, comprese le immagini, da Internet. Ma Internet non dispone di dati rappresentativi del genere ed è disseminato di informazioni errate, disinformazione e di contenuti xenofobi e sessisti. Ciò significa che, senza i filtri e le misure di mitigazione necessarie, gli strumenti di intelligenza artificiale generativa vengono addestrati e modellati su dati errati, a volte non etici. I nuovi strumenti mostrano gli stessi pregiudizi ingiusti, razzisti e sessisti del materiale originale.

Il divario digitale di genere è reale: le donne hanno meno accesso alla tecnologia rispetto agli uomini e sono online meno degli uomini. Sono ampiamente sottorappresentate nel settore tecnologico e nei dati presenti su Internet. E le donne sono le principali vittime dell’odio online, della disinformazione e dei pregiudizi algoritmici. In effetti, le esperienze online delle donne, in particolare delle donne di colore, rispecchiano le disuguaglianze storiche ed esistenti. 

Nella sua ricerca vincitrice del Premio Pulitzer 2023, la professoressa Hilke Schellmann della New York University ha mostrato come i pregiudizi algoritmici dei social media sopprimano arbitrariamente determinati contenuti sulle donne. Su Instagram, ad esempio, la foto di una donna che indossa pantaloni da yoga e mostra un pezzetto di pelle può essere “shadowbanned”: non rimossa, ma limitata nella sua portata o condivisibilità a causa di un algoritmo che la classifica come “troppo audace”. Tuttavia, l’immagine di un uomo a torso nudo non verrà valutata allo stesso modo.

Il fatto che Internet sia pieno di immagini di donne appena vestite o nude significa che i generatori di immagini AI non solo replicano questi stereotipi, ma creano anche immagini ipersessualizzate di donne.

L’Accelerator Lab del Programma di sviluppo delle Nazioni Unite (UNDP) ha testato la visione dei campi STEM (scienza, tecnologia, ingegneria e matematica) di due generatori di immagini AI rispetto alla rappresentazione delle donne. Quando i ricercatori hanno chiesto a DALL-E e Stable Diffusion, un prodotto di Stability.AI, rappresentazioni visive di un ingegnere, uno scienziato e un esperto IT, tra il 75 e il 100 per cento dei risultati generati hanno raffigurato uomini.

OpenAI riconosce che DALL-E replica gli stereotipi: se si vuole un “avvocato efficiente“, il software produce in modo sproporzionato immagini di persone che assomigliano a uomini anzianicaucasici che indossano abiti occidentali; l’”infermiera pronta” è donna, come l’assistente di volo. Come ha scritto per il World Economic Forum Gabriela Ramos, vicedirettore generale per le scienze sociali e umane presso l’Organizzazione delle Nazioni Unite per l’educazione, la scienza e la cultura , «questi sistemi replicano modelli di pregiudizio di genere in modi che possono esacerbare l’attuale divario di genere». Man mano che l’intelligenza artificiale visiva si diffonde, esiste il rischio reale che le tecnologie esacerbano gli stereotipi di genere. E lo dicono i laboratori. 

Come ti vede l’AI

Donna orientale in AI – SHUTTERSTOCK

Nel 2022, Melissa Heikkilä, una reporter senior che si occupa di intelligenza artificiale presso il MIT Technology Review, ha testato un’app per la generazione di avatar chiamata Lensa , che trasforma i selfie in avatar utilizzando Stable Diffusion. Heikkilä ha riferito sui risultati dell’esperimento. Quando ha provato a creare un avatar di se stessa, si è imbattuta in una collezione di avatar prevalentemente nudi o vestiti in modo succinto e “pornizzati in stile cartone animato” che non le somigliavano per niente.

Al contrario, gli avatar dei colleghi maschi di Heikkilä erano completamente vestiti e «dovevano essere astronauti, esploratori e inventori“. Peggio ancora, Heikkilä, che è asiatico-americana, ha ricevuto avatar feticisti di “donne asiatiche generiche” modellate su personaggi di anime o videogiochi, mentre la sua collega bianca «ha ricevuto molte meno immagini sessualizzate, con solo un paio di nudi e accenni di scollatura». L’esperienza di Heikkilä mostra sia i pregiudizi sessisti che quelli razzisti di alcuni strumenti di intelligenza artificiale generativa.

Quindi, una delle maggiori inquietudini sull’intelligenza artificiale generativa è la sua capacità di generare disinformazione: i deepfake non sono una novità, ma la loro diffusa disponibilità e il crescente realismo dovrebbero essere motivo di preoccupazione.

Già nel 2019, un rapporto pubblicato da Deeptrace Labs ha riferito che dei 15.000 video deepfake trovati online, un sorprendente 96% erano contenuti pornografici non consensuali con volti di donne trovati sul web. Chiunque può diventare una vittima dell’AI, ma le donne sono statisticamente  gli obiettivi principali. Nel maggio del 2023, Bloomberg ha riferito che i predatori di bambini hanno sfruttato l’intelligenza artificiale generativa per generare immagini di abusi sui minori. Man mano che queste tecnologie diventano ampiamente disponibili, possiamo aspettarci che queste forme di abuso e criminalità peggiorino.

I sostenitori della tecnologia etica, come Meredith Whittaker e Timnit Gebru, osservano l’attuale paura dell’intelligenza artificiale con una certa ironia; da anni lanciano allarmi sui danni contro le donne e i gruppi razziali. In un’intervista con Slate , Whittaker, co-fondatore dell’AI Now Institute della New York University e presidente della Signal Foundation con sede negli Stati Uniti, identifica cosa è cambiato nell’ultimo anno: tecnologi come Hinton immaginano un futuro in cui l’intelligenza artificiale potrebbe non avere un impatto “semplicemente” sulle donne, sui neri e sui lavoratori a basso salario, ma anche sui privilegiati.

Finché l’industria non coinvolgerà tutti coloro che sono colpiti dall’intelligenza artificiale per contribuire a modellare il prodotto, questo problema peggiorerà. Come nel caso delle precedenti ondate tecnologiche, i pregiudizi di genere nell’IA generativa sono causati dall’esclusione delle donne “in ogni fase del ciclo di vita dell’IA”, come ha sostenuto Gabriela Ramos nel suo articolo per il World Economic Forum. Il problema, al livello più elementare, è che questo campo resta dominato dagli uomini. I fondatori di OpenAI, ad esempio, sono Sam Altman ed Elon Musk; l’attuale team esecutivo di otto persone comprende una sola donna, Mira Murati. È un problema che riguarda tutto il settore: a livello globale, solo il 22% dei professionisti dell’intelligenza artificiale sono donne, il che le rende praticamente invisibili.

Soluzioni possibili

Una delle foto generate dall’AI – SHUTTERSTOCK

È possibile progettare queste tecnologie pensando all’esperienza femminile? Come è possibile curare i dati in modo più equo? Chi dovrebbe decidere sul contenuto di origine? E come si possono mitigare i danni? In un editoriale per The Guardian, Stephen Marche sostiene che «la Silicon Valley usa l’apocalisse per scopi di marketing: ti dicono che la loro tecnologia finirà il mondo per mostrarti quanto sono importanti» e come il loro prodotto potrebbe cambiare il mondo. Ciò attira l’attenzione sul prodotto, dando anche ai politici e al pubblico in generale l’impressione che le aziende tecnologiche siano più interessate ai valori che al profitto. Ma come ha detto al Guardian a fine maggio Gebru, direttore esecutivo del DAIR, il Distributed AI Research Institute,  «è una corsa all’oro. E molte delle persone che stanno facendo soldi non sono le persone che effettivamente si trovano nel mezzo di esso. Ma sono gli esseri umani a decidere se tutto questo debba essere fatto oppure no. Dovremmo ricordare che abbiamo l’agenzia per farlo».

I cittadini di tutto il mondo dovrebbero accogliere con favore il fatto che i governi e le organizzazioni regionali come l’Unione Europea cerchino di sviluppare normative chiare sull’IA, cosa che non sono riusciti a fare con tante tecnologie precedenti, inclusi spyware e social media. Allo stesso tempo, “rallentare” o “mettere in pausa” l’innovazione dell’intelligenza artificiale per alcuni mesi non invertirà le disuguaglianze sociali. Sebbene l’intelligenza artificiale generativa abbia la capacità di replicare i mali derivanti dai pregiudizi di genere, razziali, religiosi ed etnici, bisogna affrontare le fonti del problema, non semplicemente la sua trasmissione.

L’intelligenza artificiale generativa può funzionare per le donne. Ad esempio, un artista indiano, Sk Md Abu Sahid, ha reinventato gli uomini più ricchi del mondo come donne utilizzando Midjourney , chiedendoci di immaginare un mondo in cui i settori aziendale, politico e tecnologico fossero guidati da più donne. Allo stesso modo, il programma “Digital Imaginings: Women’s CampAIgn for equality” dell’UNDP ha utilizzato l’arte generata dall’intelligenza artificiale per rappresentare un mondo in cui le donne hanno più opportunità e potere. Quindi, un’altra realtà di genere non è impossibile. 

di Giulia Guidi

foto SHUTTERSROCK