Les assistants numériques actuels gardent nos agendas à jour, nous donnent des directives et s’occupent de notre correspondance. Ce sont avant tout des secrétaires virtuels, ce qui signifie qu’ils remplissent un rôle traditionnellement attribué aux femmes.

Ce n’est pas une coïncidence si Alexa d’Amazon, l’Assistant Google, Cortana de Microsoft et Siri d’Apple ont tous un point commun : ils sont féminins. Ou du moins, ils sont aussi féminins que des milliers de lignes de code peuvent l’être. Les utilisateurs le savent. Les indices liés au genre, tels que la voix, le nom et le parler d’un assistant numérique, permettent aux utilisateurs de déduire immédiatement le genre.

On pourrait vous pardonner de supposer que la plupart des assistants à IA sont des femmes, car c’est ainsi que leurs concepteurs principalement masculins les veulent. Une simple recherche sur Google rappelle rapidement l’image traditionnelle d’une secrétaire, mais cela n’explique pas tout. De nombreuses grandes entreprises technologiques ont mené des recherches démontrant la préférence pour des assistants féminins. Les données étayent cela. Ce qui se cache derrière ces données mérite une enquête.

Comment les théories du genre du parler influencent notre technologie

Il existe de nombreuses recherches sur la différence entre les parlers masculins et féminins, dont une grande partie a été reprise par les médias et les livres de vulgarisation scientifique. Le livre de Robin Lakoff publié en 1975, « Language and the Woman’s Place » (Le langage et la place de la femme), a suggéré un certain nombre de différences entre les parlers masculin et féminin. Des recherches plus récentes, menées par Deborah Tannen et d’autres, ont complété ce livre. L’analyse générale est que le parler féminin est plus poli, moins direct et plus accommodant avec l’interlocuteur.

Si l’utilisateur souhaite un assistant personnel accommodant et poli, il ne faut pas s’étonner que dans les études sur les préférences des consommateurs, c’est la préférence pour une voix féminine qui revient régulièrement. Que cette préférence soit réalité ou mythe est cependant sujet à discussion.

Il y a des détracteurs renommés de la théorie de la différence de genre. Janet S. Hyde a examiné 46 méta-analyses et a constaté que les différences de genre étaient relativement faibles. Deborah Cameron, écrit dans « The Guardian », « L’idée que les hommes et les femmes diffèrent fondamentalement par la façon dont ils utilisent le langage pour communiquer est un mythe au sens général : une croyance répandue mais fausse… De telles idées, qu’elles soient « vraies » ou non au sens historique ou scientifique, ont des conséquences dans le monde réel. Elles façonnent nos croyances et influencent donc nos actions. » Lorsque les entreprises de technologie interrogent leurs utilisateurs, ceux-ci se fient à ces croyances pour répondre.

Les exceptions à la règle quant à elles, sont curieuses. L’assistant Watson d’IBM est, entre autres, utilisé par les professionnels de la santé pour l’évaluation des tumeurs et le diagnostic du cancer. Il semble que la position de l’IA en tant qu’expert et autorité se prête à une personnalité masculine ; la recherche montre que les deux sexes accordent une plus grande attention aux voix masculines qu’aux voix féminines. Le choix par IBM de faire de Watson un assistant masculin ne devrait peut-être pas surprendre. Dans une question de vie ou de mort, vous voulez donner à votre IA la meilleure chance d’être écoutée, même si cela est fondé sur un principe douteux.

Les assistants intelligents ayant des rôles dans les domaines administratifs ou de secrétariat, historiquement à dominante féminine, se voient attribuer un genre féminin, perpétuant le stéréotype de genre pour une nouvelle génération, tandis que les assistants intelligents dans les domaines associés aux hommes se voient attribuer un genre masculin. Le résultat est un renforcement actuel des rôles de genre traditionnels.

AI-Assistants-Women

Problème de genre de la technologie

La technologie a un problème de genre. Même dans les entreprises technologiques comptant des centaines d’employés, il n’est pas rare que le nombre de femmes ingénieurs en informatique soit inférieur à dix pour cent. Le fait d’aborder le problème, comme beaucoup le font, comporte ses propres risques. Il ne sert à rien de parler anonymement à un journal quand on vous décrit comme « UNE employée de la société X ». De telles déclarations limitent souvent le champ à une petite poignée de personnes.

Les manifestations de cette inégalité entre les sexes peuvent se manifester de différentes manières. Certaines sont triviales : « Ils ne comprenaient pas pourquoi s’asseoir sur un pouf poire n’est pas adapté pour une femme » m’a confié une ingénieure. « C’est parce que nous portons des jupes », a-t-elle immédiatement précisé comme si elle parlait à un collègue.

D’autres symptômes sont plus graves : certaines entreprises ne disposent pas d’installations adéquates pour jeter les serviettes et tampons hygiéniques. Les critiques soutiennent également que, si l’entreprise a une vision étriquée du monde, cette vision étriquée peut finir par être intégrée aux produits qu’elle développe, tout comme elle peut être intégrée à la culture de l’entreprise.
L’application Santé d’Apple, par exemple, a été sévèrement critiquée car lors de son lancement, elle ne comportait pas de fonctionnalité de suivi de cycle menstruel, pourtant essentielle pour les 48 % de femmes qui l’utilisent – le même segment démographique qui est sous-représenté dans les effectifs de l’entreprise. Le problème est que, lorsque les produits sont créés en vase clos, ils le sont sans que soit pris en compte leur impact sur l’ensemble du monde et sans engagement ou interprétation critique des données.

AI-Assistants-Women

Le problème des données

Des études d’entreprise menées par Amazon et Microsoft ont révélé une préférence pour la voix féminine chez les assistants virtuels. Un porte-parole de Microsoft a déclaré au Wall Street Journal : « Pour nos objectifs (créer un assistant utile, à l’écoute et digne de confiance) une voix féminine était le choix le plus plébiscité. »
Pour beaucoup, une voix féminine évoque les qualités les plus recherchées dans un assistant numérique : fiabilité, efficacité et, fait troublant, déférence. La réalité est que les gens ne sont pas particulièrement polis envers leur IA. Les faits suggèrent que les utilisateurs d’IA (en particulier les enfants) donnent aux machines des instructions directes sans ajouter les formules de politesse habituelles « s’il vous plaît » ou « merci ». Si l’une des influences les plus présentes dans la vie d’un enfant devient l’IA, le genre de l’IA pourrait avoir un impact sur la façon dont l’enfant interagit avec les autres. Il faudrait certainement effectuer plus d’études à ce sujet.

Pour ce qui concerne les adultes, ces recherches commencent déjà. Une équipe de chercheurs à Stanford a testé les stéréotypes de genre chez les assistants vocaux et a constaté que, par rapport à l’IA à voix féminine, l’IA à voix masculine bénéficiait d’un accueil « plus positif concernant la convivialité et la compétence ». L’étude suggère que tout indice de genre (par exemple un nom ou une voix) peut déclencher une réponse stéréotypée.

Surtout, ils ont découvert que les ordinateurs à voix féminine jouant un rôle prépondérant ont fait l’objet d’une évaluation plus négative que les ordinateurs à voix masculine ayant la même fonction. En bref, il est facile de dicter à Alexa ce qu’elle doit faire parce qu’elle est une femme. Si elle commençait à vous dicter ce que vous devez faire, vous voudriez peut-être la transformer en homme.
Ce qui était également intéressant dans leurs recherches était que les sujets du test niaient avoir été influencés par le genre perçu des voix d’ordinateur. Ils l’étaient pourtant, à l’évidence.

Comme l’expliquent les chercheurs, « en choisissant une voix particulière, un concepteur ou un ingénieur peut déclencher dans l’esprit de l’utilisateur tout un ensemble d’attentes associées au genre de cette voix. Pour les concepteurs et les ingénieurs, supposer que toute voix est neutre est une erreur ; une voix masculine entraîne un large éventail d’attentes et de réponses basées sur des stéréotypes sur les hommes, tandis qu’une voix féminine entraîne un large éventail d’attentes et de réponses basées sur des stéréotypes sur les femmes. »

Leurs conclusions reflètent les recherches effectuées par des entreprises comme Microsoft et Amazon. Le choix du genre a effectivement un impact et il serait délibérément naïf de penser le contraire.

Les chercheurs expliquent leur choix : « La décision d’attribuer une voix à une technologie donnée peut donc impliquer des choix difficiles. Concevoir une technologie conforme aux stéréotypes de genre de l’utilisateur ou de l’utilisatrice peut constituer le moyen le plus simple de répondre à ses attentes en matière de technologie. D’autre part, la technologie qui défie ces stéréotypes peut servir à changer, à long terme, les préjugés profondément enracinés qui sous-tendent les résultats de la présente étude. »

Il semble bien que la haute technologie suive les données, ce qui signifie qu’elle suit la voie de la moindre résistance et des préjugés.

Le résultat est une boucle renforcée des rôles historiques des genres et des stéréotypes qui montrent peu de signes d’essoufflement. Un enfant d’aujourd’hui peut trouver normal de voir à la fois des secrétaires masculins et féminins, alors que ce n’était pas le cas de ses parents, mais si l’on continue de représenter la fonction de secrétariat par une femme numérique, toujours présente et toujours déférente, il ne serait pas déraisonnable de penser qu’il grandira avec les mêmes préjugés de genre.

La technologie s’insinue dans nos vies, à travers le cinéma, la télévision, les publicités. Le genre de l’IA peut sembler à première vue bizarre, mais ce n’est pas le cas. Au moment où nous l’utilisons de façon quotidienne, il est difficile de ne pas y penser comme quelque chose de normal. Nous devons cependant nous impliquer, car ne pas avoir d’avis signifie, par défaut, prendre parti.