In una società in continua evoluzione dove il dibattito sulle tematiche di genere è all’ordine del giorno, quanto risultano inclusive le nuove tecnologie?
L’intervista di Alessandro Isidoro Re a Diletta Huyskies, responsabile del dipartimento Advocacy di Privacy Network.
A che punto siamo con la ricerca tech legata alle dinamiche di genere?
Durante questi ultimi due anni di pandemia, la ricerca tech legata alle dinamiche di genere non ha avuto grandi sviluppi, anche se qualcosa in realtà è cambiato. Rispetto agli anni precedenti, la situazione sulla questione di genere è lievemente migliorata. Esiste però ancora molta discriminazione di genere legata agli automatismi degli algoritmi.
In base a una decisione algoritmica si può, per esempio, concedere o meno un prestito ovvero un passaporto. Le ‘macchine’, infatti, non solo riflettono le nostre discriminazioni sociali ma hanno anche il potere di amplificarle. E quasi sempre la colpa risiede nella scelta dei dati su cui ‘addestrare’ l’algoritmo – che idealmente dovrebbero cambiare di volta in volta, in base al compito che il sistema deve svolgere. Spesso, però, non è così; e per motivi pratici e di convenienza vengono utilizzati gli stessi dataset per scopi completamente diversi, generando in questo modo degli squilibri incredibili. Questi dataset, inoltre, presentano un grave problema di fondo: mancano di dati specifici di genere.
Un esempio lampante di questo malfunzionamento è un episodio accaduto ad Amazon: qualche anno fa, durante una selezione per reclutare nuovi dipendenti in ambito tech, l’algoritmo ha scartato tutte le donne.
Come è potuta accadere una cosa del genere?
Basandosi su dati storici che mostravano che in azienda venivano assunti quasi solo uomini, l’algoritmo ha dedotto in maniera automatica che i profili femminili non fossero consoni a ricoprire una mansione dall’elevato aspetto tecnico e tecnologico. Gli stessi stereotipi razzisti, misogini e omofobi, a cui assistiamo nella vita di tutti i giorni nel nostro contesto sociale, vengono di fatto amplificati dai software e dalle intelligenze artificiali.
Cosa sono i Gender Bias?
Con il termine Gender Bias indichiamo un errore di classificazione (di matrice sociale) che porta a trattare le persone in modo diverso in base al genere di appartenenza, colpendo maggiormente le donne e i generi diversi da quello maschile dalla nascita.
Quando poi parliamo di Tech Gender Bias, un focus su cui vale la pena concentrarci e quindi aprire un confronto è il riconoscimento facciale e le tecnologie biometriche con le quali si vorrebbe dedurre e ipotizzare il genere di una persona in base al suo aspetto fisico. Questo meccanismo, però, crea un grave problema di inclusione nei confronti di quelle persone che non si identificano con il proprio genere: e così, sempre più persone transgender non vengono riconosciute dalle nuove tecnologie.
Questo problema si lega a tutte le tematiche di identità biologica e identità di genere che riconosciamo noi come esseri umani e quelle che invece identificano le tecnologie. Il tech infatti ha una velocità diversa, procede più lentamente rispetto a una società contemporanea che ogni giorno è in continuo cambiamento e non riesce quindi a essere inclusivo da un punto di vista sociale e politico: una sorta di ‘neoparadosso’ di Achille e la Tartaruga, declinato all’uopo in salsa innovativa, che inficia ancor di più il cammino tortuoso delle tante lotte in corso per il miglioramento sociale.
Il tema dell’identità, d’altronde, è il fulcro della filosofia esistenzialista del Novecento – in particolare in quella heideggeriana – dove si pone attenzione alla relazione che ogni ente ha con sé stesso e con le infinite possibilità che l’Essere porta in seno; una tecnologia che decide e desume in maniera automatica il genere e quindi l’identità di una persona, senza fare nessuna verifica da parte dei soggetti coinvolti, risulta pertanto obsoleta, scomoda e financo ingiusta.
Quali sono le possibili soluzioni?
In un’intervista sull’Espresso a Privacy Network (associazione di cui sono Head of Advocacy) si è avanzata la proposta di procedere al riconoscimento facciale biometrico utilizzando soltanto metadati; tuttavia, anche questi dati non sono ‘adeguati’ perché valutano elementi come l’abbigliamento, e da questi risalgono al genere o lo fraintendono (per esempio: nel caso di un uomo vestito da donna).
Il dibattito, allora, si concentra sulla seguente complessa dicotomia: se includere nel machine learning il genere come caratteristica implicita oppure no. Trattandosi di una macchina, non possiede empatia o intelligenza emotiva; se non si esplicita il genere, l’algoritmo lo andrà a dedurre e desumere da altri dati, che può però interpretare in maniera sbagliata. Ci si trova quindi a un bivio, di fronte a due opzioni problematiche. E saremo obbligati, molto probabilmente, a optare per quella ‘meno’ negativa.
Un’alternativa valida, ciononostante, potrebbe palesarsi: dovremmo, infatti, provare ad adottare soluzioni culturali, e non meramente tecniche. Una soluzione potrebbe essere quella di coinvolgere molte più donne (ma anche persone non binarie) nel processo di ‘insegnamento’ al software. Delegare in modo ieratico alle macchine, innescando un processo di deresponsabilizzazione quantitativo e neutrale, pensando sia un’arma infallibile, è infatti un atteggiamento nefasto.
Vincenzo Di Nicola, responsabile innovazione INPS, a una domanda relativa a queste problematiche ha dichiarato che «poi risolveremo in futuro» – guidato da un cieco ottimismo, senza una visione risolutiva e preventiva. E senza una valutazione d’impatto pre-progetto (per esempio, quella di un dataset ‘sostenibile’).
Insomma, per citare un vecchio apoftegma di Paul Virilio, tanto caro ai futurologi: «l’invenzione della nave coincide con l’invenzione del naufragio».
Ogni innovazione, in altre parole, contiene in nuce il suo difetto. Dobbiamo costruire delle valide scialuppe per affrontare bene la tempesta…