Einstein è scienziato come Messi è centrocampista.
Parigi è in Francia come Tokyo è in Giappone.
Jobs sta ad Apple come Ballmer a Microsoft.

Queste sono solo alcune delle molte analogie che i sistemi di intelligenza artificiale sono in grado di completare con precisione, grazie alle scoperte nell’elaborazione del linguaggio naturale. Negli ultimi due anni, la ricerca di sistemi che producono rappresentazioni di parole sempre più sofisticate è diventata una realtà, con gruppi di ricerca che hanno rilasciato modelli sempre più potenti che hanno costantemente battuto l’avanguardia di quel tempo. Con queste tecniche, i computer sono in grado di dedurre molto sul mondo in cui viviamo, come la professione di Lionel Messi o la compagnia di Steve Ballmer.

E se ci fossero alcune parti del nostro mondo che sono meglio escluse da questi sistemi?

A causa del proverbiale compromesso potere-responsabilità, è importante dedicare del tempo a discutere le implicazioni etiche di questi progressi: vale a dire, la perpetuazione dei pregiudizi umani. In particolare il pregiudizio di genere, come comunemente esiste nella lingua, senza capire se la lingua dovrebbe o meno essere più neutrale rispetto al genere.

Cosa intendiamo esattamente per pregiudizio?

Colloquialmente parlando, il pregiudizio è definito come un pregiudizio a favore o contro una persona o un gruppo, in genere in un modo considerato ingiusto. Il pregiudizio nel senso dell’apprendimento automatico è definita in modo leggermente diverso, come un “errore derivante da assunzioni errate in un algoritmo di apprendimento”. In altre parole, un modello che fa costantemente gli stessi errori.

Una visualizzazione della discriminazione nell’apprendimento automatico come freccette su un bersaglio: le previsioni del modello sono coerenti ma distorte.

Quando parliamo di parzialità nella PNL, possiamo effettivamente parlare di entrambi i tipi. I pregiudizi preesistenti nella nostra società influenzano il modo in cui parliamo e ciò di cui parliamo, che a sua volta si traduce in ciò che è scritto, che alla fine è ciò che utilizziamo per addestrare i sistemi di apprendimento automatico. Quando formiamo i nostri modelli utilizzando dati distorti, questi vengono incorporati nei nostri modelli, il che consente di confermare e conservare i nostri pregiudizi.

Per comprendere meglio come ciò avvenga, è necessario innanzitutto comprendere come i programmi per computer sono in grado di elaborare il testo e gli algoritmi che utilizziamo per questo. Nel caso in cui ti sia perso il nostro articolo su come le macchine capiscono il linguaggio, in breve è che le parole sono rappresentate da elenchi di numeri chiamati incorporamenti di parole che codificano informazioni sul significato, sull’uso e su altre proprietà della parola. I computer “apprendono” questi valori per ogni parola ricevendo dati di addestramento su molti milioni di righe di testo, in cui le parole vengono utilizzate nei loro contesti naturali.

Poiché gli incorporamenti di parole sono numeri, possono essere visualizzati come coordinate in un piano e la distanza tra le parole – più precisamente, l’angolo tra loro – è un modo per misurare la loro somiglianza semantica. Queste relazioni possono essere utilizzate per generare analogie.

In questo esempio dell’articolo precedente, le frecce arancioni rappresentano la sovranità e le frecce blu il genere, che cattura la relazione come l’ uomo e Re e come donna e regina.

Ma cosa succede se vogliamo estendere questa analogia ad altre parole, diciamo professioni?

L’uomo è programmatore di computer come la donna è _________

Il buon senso dice che il termine mancante dovrebbe essere programmatore di computer perché il termine non è intrinsecamente di genere, a differenza di re e regina. Riesci a indovinare come il computer, con un sistema di incorporamento di parole standard, riempie lo spazio vuoto?

L’uomo è programmatore di computer come la donna è casalinga (la seconda parola più probabile è casalinga)

Puoi provare le tue analogie usando questo strumento di incorporamento delle parole.

La Traduzione automatica offre un altro esempio. Con alcuni sistemi, traducendo le frasi ungheresi di genere neutro “Ő egy orvos. Ő egy nővér “, in inglese si traduce in” È un medico. È un’infermiera ”, ipotizzando il genere di entrambe i soggetti.

Questi ovviamente non sono i risultati ideali. I dati di addestramento utilizzati nel modello linguistico che ha prodotto molto probabilmente l’analogia includevano la programmazione negli uomini nello stesso contesto linguistico delle donne che fanno le casalinghe molto più spesso delle donne che fanno qualsiasi altra cosa. Il risultato ideale di chi è un dottore / è un’infermiera è meno bianco e nero, ma potremmo usare un pronome neutro rispetto al genere, dare all’utente la possibilità di specificare il genere o almeno scegliere lo stesso pronome per entrambi.

I sistemi di apprendimento automatico sono ciò che “mangiano” e gli strumenti di elaborazione del linguaggio naturale non fanno eccezione: questo è diventato chiarissimo con Tay, la chatbot con IA di Microsoft. Vi è una tendenza generale a supporre che un numero maggiore di dati produca modelli con prestazioni migliori e, di conseguenza, i corpora più grandi sono in genere set di dati sottoposti a scansione Web. Poiché Internet e altri contenuti comprendono un vero linguaggio umano, esibiranno naturalmente gli stessi pregiudizi che fanno gli umani e spesso non viene prestata sufficiente attenzione a ciò che il testo effettivamente contiene.

Riduzione del pregiudizio di genere

Alla fine, a un certo punto di questa discussione, qualcuno – chiunque – solleverà la domanda: se vogliamo che l’IA sia una vera rappresentazione dell’umanità, dovremmo anche provare a rimuovere i pregiudizi? L’IA dovrebbe essere semplicemente descrittiva del comportamento umano o dovrebbe essere prescrittiva? È una domanda giusta; tuttavia, se non altro, dobbiamo anche tenere presente che i modelli distorti non stanno solo producendo analogie goffe – a volte sono imprecise: una programmatrice di computer femmina non è equivalente a una casalinga.

Parlando come ingegnere dell’IA, dobbiamo sempre considerare chi utilizzerà i nostri sistemi e per quale scopo. In Unbabel, dobbiamo essere attenti ai clienti dei nostri clienti e impegnarci a fornire le traduzioni più accurate ed equilibrate. Avere gli esseri umani nel circuito certamente riduce il rischio di disporre di dati di formazione di genere, contribuendo a colmare il divario in cui l’apprendimento automatico fallisce. Ma cosa possiamo fare, come ingegneri, per ridurre la distorsione di genere nei sistemi di PNL?

Il metodo più intuitivo è modificare i dati di allenamento. Se sappiamo che i nostri modelli apprendono la distorsione dai dati, forse dobbiamo solo deviarli. Una di queste tecniche è lo “scambio di genere”, in cui i dati di addestramento sono aumentati in modo tale che per ogni frase di genere, viene creata una frase aggiuntiva, che sostituisce pronomi e parole di genere con quelli del genere opposto e sostituisce i nomi con segnaposto di entità. Ad esempio, “Mary ha abbracciato suo fratello Tom” creerebbe anche “NAME-1 ha abbracciato sua sorella NAME-2”. In questo modo, i dati di allenamento diventano equilibrati rispetto al genere e inoltre non apprendono le caratteristiche di genere associate ai nomi. Ciò migliorerebbe le analogie fornite dal modello, poiché avrebbe visto i programmatori di computer in contesti maschili e femminili un numero uguale di volte.

Tuttavia, è importante notare che questo approccio è semplice per l’inglese, una lingua senza un genere grammaticale produttivo, mentre per molte altre lingue il semplice scambio di pronomi come suo / lei e nomi come sorella / fratello non è sufficiente, perché gli aggettivi e altri modificatori esprimono anche il genere. Ad esempio, le lingue romanze, come il francese, il portoghese o lo spagnolo, non hanno un genere grammaticale neutrale. Come ha spiegato Helena Moniz, linguista e ricercatrice dell’Università di Lisbona, “lelingue derivate dal latino hanno perso il loro genere grammaticale neutrale molto tempo fa.

Per quanto ne sappia, la ricerca su questo tipo di tecnica di de-distorsione per corpora non inglesi è in gran parte inesplorata.

Un altro metodo specifico per la traduzione automatica che aiuta le traduzioni ad essere più accurate in base al genere prevede l’aggiunta di metadati alle frasi che memorizzano il genere del soggetto. Ad esempio, mentre la frase “Sei molto gentile” è ambigua in termini di genere in inglese, se la frase portoghese parallela fosse “Tu és muito simpática”, aggiungeremmo il tag all’inizio della frase inglese in modo che il modello possa apprendere il traduzione corretta. Dopo l’allenamento, se richiediamo una traduzione e forniamo il tag di genere desiderato, il modello dovrebbe restituire quello corretto e non solo il genere di maggioranza.

Se il sistema ungherese-inglese venisse addestrato in questo modo, potremmo chiedere di tradurre ““ egy orvos “e ricevere la traduzione” She is a doctor “o” “egy nővér” e ricevere “He is a nurse”. Per eseguire questo su larga scala, dovremmo formare un modello aggiuntivo che classifica il genere di una frase e usarlo per taggare le frasi, aggiungendo un livello di complessità.

Questi metodi sono efficaci nel ridurre la distorsione di genere nei modelli di PNL ma richiedono molto tempo per essere implementati, poiché richiedono ulteriori informazioni linguistiche che potrebbero non essere prontamente disponibili o addirittura impossibili da ottenere.

Per fortuna, questo argomento sta diventando un’area di ricerca in rapida crescita. All’ incontro annuale dell’Associazione per la linguistica computazionale che si è tenuto questa estate, a cui hanno partecipato molti Unbabelers di IA artificiale, si è tenuta un’intera traccia di presentazioni su carta dedicate a Bias in Language Processing, nonché il primo Workshop sulla Discriminazione di Genere per l’elaborazione Naturale della lingua.

Anche Google ha investito risorse per mitigare questo problema. A dicembre del 2018, è stato annunciato che Google Translate avrebbe iniziato a fornire le traduzioni di singole parole da quattro lingue in inglese, sia in forma femminile che maschile.

È bello vedere i leader del settore affrontare gli errori di genere negli algoritmi, ma il lavoro è tutt’altro che finito. Stiamo ancora lottando con una mancanza di diversità nel settore dell’intelligenza artificiale – secondo il MIT Technology Review, “ledonne rappresentano solo il 18% degli autori alle principali conferenze IA, il 20% dei docenti di intelligenza artificiale e il 15% e il 10% del personale di ricerca su Facebook e Google, rispettivamente“- e non possiamo negare che ciò non sia parzialmente responsabile del problema. Come ingegneri, non possiamo evitare il problema, nascondendoci supponendo che la tecnologia sia neutrale. Soprattutto perché le conseguenze della nostra inerzia non sono solo aneddotiche, come gli esempi che abbiamo condiviso – la parzialità negli algoritmi può portare a discriminazioni nelle procedure di assunzione, nelle richieste di prestito e persino nel sistema giudiziario penale.

Questa non è una funzionalità, è un bug. E man mano che la nostra consapevolezza cresce, dobbiamo realizzare il nostro ruolo nella creazione di tecnologia che funzioni per molti, non per pochi.

fonti
Mitigazione del pregiudizio di genere nell’elaborazione del linguaggio naturale: revisione della letteratura https://arxiv.org/abs/1906.08976