FEMMINISMO DIGITALE: algoritmi e bias di genere a partire dalla scoperta di Henrietta Swan Leavitt

Il rapporto tra media digitali e genere problematizza ed eviscera i contenuti e i significati veicolati da internet attraverso l’analisi della rappresentazione del genere femminile e della sua rappresentanza.

Questo rapporto è complicato dalla costruzione sociale delle tecnologie: basti pensare all’architettura di internet che non è naturale, ma dovuta ai valori e alle scelte degli scienziati che progettano la struttura della rete, alle scelte politiche dei programmatori e delle programmatrici che realizzano operativamente gli algoritmi.

E – a proposito – il fatto di ritrovarsi il termine “programmatore” o “programmatrice” nella voce Wikipedia di una donna appunto “programmatrice” non è un fatto scontato come possa sembrare ad un primo impatto, ma nasconde tutta una problematica tra algoritmi e questione di genere.

Marzia Vaccari, nell’ambito della sua Lectio “Reti neurali artificiali, successi e insuccessi della traduzione automatica dal punto di vista di genere”,  tenuta lo scorso 11 aprile presso il corso di laurea magistrale COMPASS,  ha dimostrato che approfondire questo argomento sia come scoperchiare uno dei tanti vasi di Pandora di cui, purtroppo, è ancora piena la questione di genere.

Un esempio magistrale è l’esperienza di Henrietta Swan Leavitt, vissuta all’inizio del ‘900. Laureata in materie umanistiche, Henrietta fu una “donna calcolatrice” di Harvard; difatti l’astronomo Pickerin, che dirigeva l’osservatorio dell’Harvard College, per svolgere le sue ricerche si circondò di 12 donne “calcolatrici”. Queste donne dall’intelligenza brillante venivano utilizzate da scienziati e astronomi come forza lavoro di bassa lega: eseguire calcoli era un compito considerato “ingrato”, che avrebbe abbassato il valore degli uomini di ricerca.

Non è difficile allora comprendere perché i grandi scienziati di sempre sono per la maggior parte uomini, soprattutto se consideriamo che in quell’epoca alle donne era consentito intraprendere esclusivamente studi umanistici. Dunque il bias di genere ha radici molto profonde che affondano nella storia, nella società e nell’impostazione culturale – che per le donne si trattava di imposizione. Un bias che deve essere corretto a partire dall’infanzia, per non ritrovarci un’altra generazione di bambini che giocavano a diventare astronauti e bambine che sognavano di essere principesse.

Henrietta Swan Leavitt

Tornando alla Leavitt, essa aveva l’incarico di esaminare migliaia e migliaia di lastre fotografiche prese dalla succursale andina dell’Osservatorio dell’Harvard College per analizzare le stelle individuate dentro la Piccola Nube di Magellano. Tra queste scoprì 1800 stelle variabili, tra le quali 25 Cefeidi.

Specializzata nella fotometria fotografica, Henrietta comprese come misurare l’universo attraverso un originale metodo di osservazione delle caratteristiche; la sua scoperta riguarda lo schema di comportamento della luminosità nel tempo di particolari stelle, le Pulsar.

Le Cefeidi sono stelle variabili con un periodo regolare di pochi giorni. La variazione di luminosità viene spiegata con una variazione periodica del diametro – ovvero una pulsazione – della stella. Se prima di allora non ci si poteva spingere più in là di qualche centinaio di anni luce dal Sole, ora le distanze potevano essere misurate fino a milioni di anni luce: dunque aumentava il volume dell’Universo affidabilmente sondabile.

Leavitt mise a punto un’ equazione che rappresentava la distribuzione del tempo in relazione alla luminosità di queste Pulsar. Questa scoperta diventò la chiave che per aprire tutte le porte dell’astronomia, per svelare ogni segreto. Henrietta Leavitt la consegnò alla storia il 3 marzo 1912 sotto forma di una nota di tre pagine, una tabella e due grafici, intitolata “Periodi di 25 stelle variabili nella Piccola Nube di Magellano”. È la storica Circolare 173 dell’Osservatorio dell’Harvard College, che porta in calce la firma non di Henrietta, ma del direttore Edward C. Pickering, astronomo e maschio.

Ma che cosa rimane di questa incredibile scoperta?

Possiamo ricavarne due aspetti: uno che vede nel metodo delle Cefeidi il metodo fondante di tutta la pratica degli algoritmi e delle analisi previste, un altro – diametralmente  opposto – che mette in luce l’effetto del Bias di genere nelle discipline scientifiche, dagli sforzi compiuti dalle donne computer della squadra dell’osservatorio di Harvard a tutte le altre astronome che ne hanno condiviso la stessa sorte, soprannominate dalla scrittrice Dava Sobel  “Stelle dimenticate”- appunto titolo del suo saggio.

Nel nostro piccolo, ogni volta che utilizziamo l’IA per scattare una foto con il nostro smartphone o mentre chiediamo a Google Translate di tradurci un pezzo di saggio dovremmo ringraziare proprio Henrietta Leavitt: il suo metodo è utilizzato nel far apprendere alle macchine anche la possibilità di parlare il linguaggio degli umani, permettendo di sviluppare strumenti come il riconoscimento facciale. Questo avviene perché si creano dei network di dati, oggi detti “reti neurali” che fanno apprendere alla macchina tutta una serie di caratteristiche.

La Leavitt descrisse proprio i livelli visivi che permisero questa formulazione, cioè  i vari livelli che le hanno permesso di formulare quell’andamento logaritmico di variazione di luminosità delle stelle. Questa modalità oggi è l’ingegneria delle caratteristiche che serve per allenare le macchine a compiere quel procedimento, cosa che la Leavitt fece manualmente.

Questo processo di machine learning è fondamentale per far apprendere l’IA: per questo i set di dati di addestramento devono essere sufficientemente grandi e diversificati.

Sono infatti algoritmi predittivi quelli che stanno dietro al riconoscimento vocale, di immagini, alla traduzione automatica ecc.

Leavitt applicò un procedimento matematico chiamato “principio dei minimi quadrati” per adattare la sua regola ai dati. Introdotto dal matematico Legendre nel 1805, questo principio fornisce una formula esplicita per trovare la retta “ottimale” che descrive un insieme di dati, ovvero la retta che restituisce il minore errore di ricostruzione medio possibile. Gli scienziati usano estensivamente questa formula sin da allora. Ed oggi è in uso per costruire i più sofisticati sistemi di intelligenza artificiale.

Proprio come Henrietta apprese dall’osservazione diretta, oggi nell’analisi predittiva è la tecnologia che apprende dall’esperienza, fornita tramite dati, per prevedere il comportamento futuro di individui. Si basa sull’utilizzo di modelli ed enormi insiemi di dati, sul provare e riprovare un milione di volte al secondo e sul deep learning: in questo modo il sistema artificiale impara.

deep learning: riconoscimento di un’immagine

Oltre che essere un settore della scienza, però, l’analisi predittiva è un movimento che esercita un impatto molto potente sulla quotidianità: milioni di decisioni ogni giorno determinano la vita di tutti noi.

Un altro esempio di algoritmi predittivi e questione di genere è molto visibile nei traduttori automatici, come ad esempio GoogleTranslate.

I traduttori automatici fin ora hanno appreso tramite un approccio “top down”.  Questo è una sorta di approccio proveniente dalla linguistica applicata in cui regole da seguire vengono date dall’alto.

Ma nonostante siano in evoluzione, i traduttori automatici non si sono evoluti a sufficienza per saper distinguere il genere.

Oggi ci sono dei nuovi algoritmi che partono dal basso: sono i set di dati che allenano i modelli statistici a predire il modo in cui una persona umana può ottenere lo stesso risultato.  Dunque l’attenzione si sposta dalla comprensione (top down) all’imitazione(bottom up). Si tratta di fornire alla macchina il maggior numero di esempi possibili di linguaggio umano.  Nonostante questo approccio bottom up abbia migliorato fino a 9 volte tutta la materia della traduzione automatica, rimangono molte imprecisioni che ci riportano alla problematica del bias di genere.

Si parla di punti ciechi, ovvero punti che riflettono le asimmetrie sociali controverse, come appunto il genere. Ne parlano due ricerche.

La prima è del 2019 ed è di Kate McCurdy, della Cornell University: McCurdy ha fatto una ricerca sulla traduzione automatica di 1000 aggettivi utilizzati in inglese riferiti all’essere umano. Essa ha riscontrato un’alta percentuale di valori predefiniti maschili. Al contrario, le frasi contenenti parole come “gentile” “felice” “timido” “vergognoso” sono prevalentemente  tradotte al femminile, mentre “arrogante”, “crudele” e “colpevole” sono tradotte in modo sproporzionato con pronomi maschili.

La seconda: “Assessing Gender Bias in Machine Translation – A CaseStudy with Google Translate” svolta da Marcelo Prates, Pedro Avelar, Luis C. Lamb della Federal University of Rio Grande do Sul è opera di un gruppo di ricerca brasiliano che ha trascritto frasi come “He/She is an Engineer” in 12 diverse lingue con genere neutro, come l’Ungherese, il cinese, lo yoruba e molte altre. Hanno tradotto queste frasi in inglese usando l’API di Google Translate, e hanno raccolto statistiche sulla frequenza dei pronomi femminili, maschili e di genere neutri nell’output tradotto. La ricerca ha mostrato che Google Translate mostra una forte tendenza verso i default maschili.

Ecco quindi che il bias di genere presenta delle soprese, perché rispecchia gli stereotipi e i pregiudizi della nostra lingua parlata, in cui ad esempio il programmatore si sottende che sia una professione prettamente maschile e in la parola “Sindaca” sembra ancora dare fastidio a molti.

Dunque, non è il genere ad essere indice predittivo di fenomeni discriminatori precedenti, ma i fenomeni discriminatori precedenti ad essere indici di genere.

Secondo Marzia Vaccari, in conclusione, se non teniamo conto di fenomeni discriminatori precedenti per prevedere fenomeni futuri, non facciamo altro che trascrivere nel futuro la discriminazione di genere di oggi.

Gli algoritmi predittivi in input tengano presente la questione di genere, ma se il genere fosse un dato in input al sistema, si metterebbe piede in un enorme campo minato. Il dibattito di fronte a questa problematica è enorme e interseca l’ambito non solo della programmazione ma anche culturale, politico, linguistico.

A proposito di vasi di Pandora, scavando a fondo, tutta la materia del data mining porta alla luce grandissime ingiustizie,  e c’è il rischio di trascrivere nel futuro questa discriminazione.

C’è bisogno di uno sforzo da parte di tutte le professionalità per far emergere questi fenomeni discriminatori, ma facendo attenzione a non trasformarli in una sorta di “profezia auto avverante”.

Lascia un commento