La rivista

SUI GENERIS - Questioni di parità

L’INTELLIGENZA ARTIFICIALE E LA RIPRODUZIONE DEGLI STEREOTIPI DI GENERE

È difficile sottovalutare il ruolo della rappresentazione nella costruzione delle soggettività. Scorrendo le pagine delle riviste scientifiche e le analisi sul ruolo della diffusione di contenuti testuali, immagini e, ormai, anche video riprodotti in modalità completamente generativa dallIntelligenza Artificiale, constatiamo che uno dei maggiori problemi della produzione di contenuti è lamplificazione degli stereotipi di genere, oltre allintensificazione di valutazioni discriminatorie.

Il mondo mediale, in generale, è sempre stato un contesto di intensificazione delle posizioni stereotipiche, incapace di riflettere su come condividere le informazioni per evitare che possano rappresentare i fenomeni sociali in modo ristretto o tradizionalista.

Il problema è che i e le fruitrici della comunicazione non sempre sono disponibili allesercizio critico. Di solito non hanno molto tempo e hanno bisogno che la loro attenzione venga catturata allistante; per questo non è facile mantenere una postura attenta alle sfumature e ai dettagli.

La tendenza a normalizzare e amplificare gli stereotipi

Nel 2018 Safiya Umoja Noble, nel suo volume Algorithms of Oppression, recentemente tradotto in italiano (Tamu, 2025), affrontava la discriminazione di genere prodotta dagli algoritmi di raccomandazione di un motore di ricerca come Google, soprattutto nel modo in cui restituiva le immagini delle soggettività marginali come le donne afroamericane, latine o cinesi. Le immagini risultavano perverse, poiché rappresentavano lidentità di genere in modo tanto tradizionale e stereotipato da produrre effetti negativi anche sullauto percezione dei soggetti rappresentati.

Gli strumenti di intelligenza artificiale predittiva hanno confermato la tendenza a normalizzare e amplificare gli stereotipi, prevedendo i comportamenti delle persone o valutando, ad esempio, laffidabilità creditizia dei soggetti, perpetuando ingiustizie epistemiche nei confronti delle donne anche rispetto ai membri maschili della stessa famiglia. La situazione non è migliorata con lavvento dei sistemi di intelligenza artificiale generativi, che hanno intensificato la produzione di contenuti sintetici su richiesta di un prompt.

Le ricerche scientifiche recenti sul potenziale discriminatorio della rappresentazione, sia linguistica che visiva, mostrano con chiarezza la tendenza ad acuire le visioni più tradizionaliste: certe professioni intellettuali vengono associate a figure maschili, mentre i lavori di cura restano prevalentemente femminili. Le donne appaiono sorridenti, sottomesse o sessualizzate; gli uomini, invece, vestiti in modo elegante, con pose di forza e potere, replicano una mascolinità tossica priva di emozioni.

Una sorte ancora più dura viene riservata alle soggettività non binarie, spesso rappresentate in modo caricaturale o deformato, segnalando una percezione di difformità rispetto a uno standard prestabilito.

Questo fenomeno è particolarmente allarmante in società democratiche che hanno già acquisito importanti trasformazioni in materia di parità di genere, cultura del consenso e accesso alle professioni di prestigio.

Da dove nasce la distorsione

Per comprendere la restaurazione di rappresentazioni tradizionaliste dei ruoli di genere attraverso la mediazione dellIA generativa, occorre esaminare il funzionamento dei sistemi di apprendimento, in particolare dellapprendimento profondo (deep learning). Questi metodi si basano su grandi quantità di dati e su algoritmi che estraggono regolarità e schemi, proiettandoli sulla rappresentazione futura. Cercando gli schemi nei dati, finiscono per imporre una sorta di dittatura della normalità e una maggiore replicabilità di ciò che appare più probabile. Inoltre, tali sistemi richiedono il lavoro di un esercito di persone impiegate a basso costo per letichettatura o la pulizia dei dati, spesso situate in Paesi economicamente svantaggiati ma anglofoni. Questi lavoratori e lavoratrici, provenendo da contesti culturali più tradizionalisti rispetto allemancipazione di genere, contribuiscono involontariamente alla riproduzione di rappresentazioni conservative.

Leffetto è amplificato nei sistemi di IA generativa, che si addestrano su corpora di contenuti già dominati da visioni tradizionaliste. I sistemi, basandosi su modelli statistici, riproducono ciò che è più probabile, non ciò che è più giusto o rappresentativo. Ne deriva che le distorsioni storiche legate alle discriminazioni di genere, ma anche ad altre marginalità (etniche, economiche, sociali), vengono rafforzate dalla forza della probabilità. Leffetto è quello di una doppia discriminazione: la realtà dellingiustizia epistemica e materiale si riflette nella rappresentazione, che la rafforza e la naturalizza.

Così, sebbene le donne stiano progressivamente raggiungendo posizioni apicali, le rappresentazioni faticano a riflettere questo cambiamento. Se chiediamo a un sistema generativo come DALL·E, Gemini o Midjourney di rappresentare un direttore generale, esso restituirà prevalentemente figure maschili, rafforzando lo stereotipo che il potere appartenga agli uomini.

Questo effetto non è neutro: può rallentare le conquiste sociali e culturali.

Nessuna soluzione “magica”

Potremmo criticare tale fenomeno con largomento platonico della mimesis nella Repubblica: se larte è una copia della natura, e la natura una copia del mondo delle idee, allora larte è solo una copia della copia, che ci allontana dalla verità. Allo stesso modo, la rappresentazione generativa rischia di produrre copie di copie, deformando ulteriormente la realtà. Tuttavia, Platone stesso usò lo stile poetico e il mito come strumenti di conoscenza: anche la rappresentazione, quindi, può avere un valore educativo, se consapevolmente compresa.

Il carattere di riflesso delle immagini generate dallIA non condiviso da tutta la produzione artistica ci aiuta a riconoscere le potenziali storture. Poiché i sistemi generativi si alimentano di immagini stereotipate, il problema risiede nella selezione dei dati: la quantità non garantisce la qualità rappresentativa. Lelaborazione statistica di grandi corpora, mediata da culture tradizionaliste, produce dunque una copia della copia, ciò che Platone considerava pericoloso per la conoscenza.

Come nota Shannon Vallor nel suo recente The AI Mirror (2024), lIA rischia di intrappolarci in un gioco di specchi che impedisce il cambiamento reale del nostro rapporto con il mondo. Per essere davvero innovativi, dobbiamo liberarci dalle superfici riflettenti e guardare verso orizzonti ancora inesplorati.

Leffetto filtro dellIA generativa può comunque diventare unopportunità: mostrare in modo evidente il funzionamento della mediazione, come espressione del potere nella rappresentazione, può favorire processi di liberazione a patto di non cedere allillusione di una magica soluzione. Seguendo il progetto delle studiose femministe Catherine DIgnazio e Lauren Klein in Data Feminism (2020), è necessario sottrarsi al monopolio della raccolta generalista dei dati e costruire percorsi di curatela consapevole per addestrare sistemi capaci di sostenere una politica del femminismo intersezionale.

A valle, poi, c’è bisogno di un progetto educativo per chi fruisce dei media e per la rappresentazione del mondo. Per essere fruitori consapevoli abbiamo bisogno di una formazione adeguata: lo sguardo va costruito criticamente. Tale necessità è ancora più intensa quando la mediazione avviene tramite dispositivi digitali, tanto più infidi quanto più sembrano neutri, a causa della retorica della disintermediazione.

L'autore

Teresa Numerico