Perché sono tutte donne?

8 min read
AI-Assistants-Women-Header
Artwork by Nicolae Negura

Gli assistenti digitali al giorno d’oggi tengono in ordine le nostre agende, ci danno indicazioni e curano la nostra corrispondenza. Sono, prima di tutto, segretarie virtuali, il che significa che occupano un ruolo svolto tradizionalmente dalle donne.

Non è una coincidenza che Alexa di Amazon, l’Assistente di Google, Cortana di Microsoft e Siri di Apple abbiano tutti un fattore in comune: sono donne. O, almeno, sono femminili per quanto lo permettano migliaia di righe di codice. Gli utenti lo sanno. Alcuni indizi relativi al sesso, come la voce, il nome e il parlato di un assistente digitale, consentono agli utenti di individuare immediatamente il sesso.

Potreste essere perdonati per supporre che la maggior parte degli assistenti IA siano donne, perché così hanno voluto i loro designer, per lo più maschili. Una semplice ricerca su Google riporta rapidamente alla memoria l’immagine tradizionale di una segretaria, ma non è tutto. Molte grandi aziende tecnologiche hanno svolto ricerche che mostrano la preferenza per gli assistenti donna. I dati danno loro ragione. Quello che c’è dietro a quei dati merita un approfondimento.

In che modo le teorie sul genere riferite al discorso influenzano la nostra tecnologia

Esiste una grande quantità di ricerche sulla differenza tra il discorso maschile e quello femminile, molte delle quali sono state raccolte dai media e dai libri divulgativi. L’opera di Robin Lakoff del 1975: “Language and the Woman’s Place” ha suggerito una serie di modi in cui si differenziano il linguaggio maschile e quello femminile. Una ricerca più recente, di Deborah Tannen e altri, ha aggiunto altro materiale. La valutazione generale è che il discorso femminile è più educato, meno diretto e più accomodante per il partner di conversazione.

Se l’utente desidera un assistente personale che sia accomodante e educato, non dovrebbe sorprendere il fatto che nella ricerca sui consumatori spicchi ripetute volte la preferenza per una voce femminile. Se questa preferenza si basa su fatti o finzione, tuttavia, è motivo di dibattito.

Vi sono importanti detrattori della teoria della differenza di genere. Janet S. Hyde ha esaminato 46 meta-analisi e ha trovato differenze relativamente piccole tra i sessi. Deborah Cameron scrive in The Guardian, “L’idea che uomini e donne differiscano in modo sostanziale nella maniera in cui usano il linguaggio per comunicare è una leggenda nel contesto quotidiano: una credenza diffusa ma falsa… Che siano o meno “vere” in qualsiasi contesto storico o scientifico, tali storie hanno conseguenze nel mondo reale. Esse modellano le nostre convinzioni e influenzano così le nostre azioni”. Quando le aziende tecnologiche esaminano i loro utenti, queste sono le convinzioni cui gli utenti attingono per rispondere.

Le eccezioni alla regola sono curiose a riguardo. L’assistente Watson di IBM viene utilizzato dagli operatori sanitari per fornire ausilio, tra le varie attività, nella valutazione dei tumori e nella diagnosi del cancro. Sembra che il posizionare l’IA in qualità di esperto e figura autoritaria si addica ad una figura maschile; la ricerca mostra che ambo i sessi prestano maggiore attenzione alle voci maschili che alle voci femminili. La scelta di IBM di rendere maschio Watson forse non dovrebbe sorprendere. In una questione di vita o di morte, vuoi dare alla tua IA una maggiore probabilità di essere ascoltata, anche se la premessa su cui si basa è opinabile.

Gli smart assistant nei ruoli amministrativi o di segreteria, storicamente dominati dalle donne, sono assegnati ad un personaggio femminile, perpetuando uno stereotipo di genere alla nuova generazione, mentre gli smart assistant nei domini associati agli uomini sono assegnati ad un personaggio maschile. Il risultato è un rafforzamento dei ruoli tradizionali di genere.

AI-Assistants-Women

Il problema di genere nella tecnologia

La tecnologia ha un problema di genere. Anche nelle aziende tecnologiche con centinaia di dipendenti non è insolito che il numero di ingegneri del software femminili si contino sulle dita di una mano. Parlare del problema, come molti fanno, comporta dei rischi. Non ha molto senso parlare in modo anonimo a un giornale quando vieni descritta come “Una dipendente donna presso la compagnia X”. Tali affermazioni spesso restringono il campo a una manciata di persone.

Le manifestazioni di questa disparità di genere possono manifestarsi in vari modi. Alcuni sono banali: “Non capivano perché sedersi su un pouf non vada bene ad una donna”, mi ha detto una donna ingegnere. “È perché indossiamo le gonne”, ha immediatamente chiarito come se parlasse con un collega.

Altri sintomi sono più gravi: alcune aziende non dispongono di impianti di smaltimento adeguati per i prodotti sanitari. I critici sostengono anche che, se esiste una limitata visione del mondo all’interno dell’azienda, può finire per essere incorporata nei prodotti che sviluppa, così come può essere incorporata nella cultura aziendale.
L’app Apple Health, ad esempio, è stata criticata a lungo, perché al momento del lancio non aveva un tracker del ciclo mestruale, una funzione essenziale per il 48% degli utenti che sono donne — lo stesso gruppo demografico che è sotto-rappresentato nella forza lavoro dell’azienda. La preoccupazione è che, quando i prodotti vengono creati in un ambiente vuoto, vengono creati senza considerazione per il loro impatto sul più ampio mondo e senza impegno critico o interpretazione dei dati.

AI-Assistants-Women

Il problema dei dati

Studi aziendali condotti da Amazon e Microsoft hanno trovato una preferenza per la voce femminile negli assistenti virtuali. Un portavoce di Microsoft ha dichiarato al Wall Street Journal che, “Per i nostri obiettivi — di creare un collaboratore che sia disponibile, di supporto e affidabile — una voce femminile era la scelta più valida”.
Per molti, una voce femminile evoca le qualità più desiderate in un assistente digitale: affidabilità, efficienza e, cosa un po’ preoccupante, deferenza. La realtà è che le persone non sono particolarmente educate verso la loro IA. L’evidenza suggerisce che gli utenti di IA (in particolare i bambini) danno alle macchine istruzioni dirette prive del solito “per favore” o “grazie”. Se una delle figure influenti più presenti nella vita di un bambino è rappresentata dall’IA, il sesso di quell’IA potrebbe avere un impatto sul modo in cui il bambino interagisce con gli altri. È necessario fare più ricerca.

Per quanto riguarda gli adulti, la ricerca sta già portando a dei risultati. Un team di ricercatori di Stanford ha testato gli stereotipi di genere negli assistenti vocali e ha rilevato che le IA con voce maschile vengono valutate “in modo più positivo nell’ambito della cordialità e competenza” rispetto alle IA con voce femminile. Lo studio suggerisce che ogni indizio di genere – ad esempio un nome o una voce – può innescare una risposta stereotipata.

In particolare, hanno trovato che i computer con voce femminile in un ruolo dominante sono stati valutati in modo più negativo rispetto ai computer con voce maschile nello stesso ruolo. In breve, è facile dire ad Alexa cosa fare perché è una donna. Se incominciasse a dirti cosa devi fare, potresti voler renderla maschile.
Un fatto altrettanto interessante nella loro ricerca è che i soggetti del test hanno negato di essere influenzati dal sesso percepito nelle voci informatiche. Chiaramente, lo erano.

I ricercatori spiegano che: “un progettista o un ingegnere, nello scegliere una voce particolare, può innescare nella mente dell’utente una serie di aspettative associate al sesso di quella voce. Per i progettisti e gli ingegneri assumere che qualsiasi voce sia neutrale è un errore; una voce maschile porta con sé un ampio insieme di aspettative e risposte basate su stereotipi sui maschi, mentre una voce femminile porta con sé un ampio insieme di aspettative e risposte basate su stereotipi sulle femmine”.

Le loro scoperte riflettono la ricerca aziendale condotta da ditte come Microsoft e Amazon. La scelta del genere ha il suo impatto e sarebbe deliberatamente ingenuo pensare diversamente.

I ricercatori spiegano la scelta: “La decisione di dotare una determinata tecnologia di una voce può quindi comportare scelte difficili. Progettare una tecnologia conforme agli stereotipi di genere dell’utente può essere il modo più semplice per soddisfare le sue aspettative sulla tecnologia. D’altra parte, la tecnologia che sfida questi stereotipi può servire a cambiare, nel lungo periodo, i pregiudizi profondamente radicati che sono alla base delle scoperte della ricerca attuale.”

Sembra certamente che le grandi aziende stiano assecondando i dati, il che significa seguire il percorso di minor resistenza e seguire il pregiudizio.

Il risultato è un ciclo di rinforzo dei ruoli storici e stereotipi di genere, che mostrano pochi segni di cedimento. Un bambino oggi può essere abituato a segretarie sia maschili sia femminili in un modo cui i propri genitori non erano abituati, ma se il ruolo di segretaria nella propria vita è svolto da una donna digitale perennemente deferente, non sarebbe irragionevole presumere che crescerà con una serie simile di pregiudizi di genere.

La tecnologia si insinua nelle nostre vite – attraverso i film, la TV, la pubblicità. Il sesso dell’IA può sembrare a prima vista un cavillo, ma non lo è. Nel momento in cui abbiamo a che farci quotidianamente, è difficile non vederlo come qualcosa di normale. Eppure dobbiamo impegnarci, perché non avere un’opinione significa automaticamente prendere una posizione.

ArtboardFacebook iconInstagram iconLinkedIn iconUnbabel BlogTwitter iconYouTube icon