Por que são todos mulheres?

9 min read
AI-Assistants-Women-Header
Artwork by Nicolae Negura

Os atuais assistentes digitais mantêm as nossas agendas em ordem, dão-nos orientações e tratam da nossa correspondência. São, acima de tudo, secretários virtuais, o que significa que estão a preencher um papel tradicionalmente desempenhado por mulheres.

Não por coincidência, a Alexa da Amazon, a Assistente do Google, a Cortana da Microsoft e a Siri da Apple têm uma coisa em comum: são mulheres. Ou pelo menos são tão femininas quanto milhares de linhas de código podem ser. Os utilizadores sabem disso. As dicas de género, como a voz, o nome e a fala de um assistente digital, permitem que os utilizadores deduzam imediatamente o género.

Podemos ser perdoados por presumir que a maioria dos assistentes de IA são mulheres, porque os designers, na maioria homens, querem que assim seja. Uma simples pesquisa no Google traz rapidamente à mente a imagem tradicional de uma secretária, mas essa não é a história toda. Muitas grandes empresas de tecnologia realizaram pesquisas que mostram a preferência por assistentes do sexo feminino. Os dados concordam com elas. O que está por trás desses dados merece investigação.

Como as teorias de género da fala influenciam a nossa tecnologia

Existe uma grande quantidade de pesquisas sobre a diferença entre a fala masculina e a feminina, muitas das quais foram captadas pelos media e por livros de ciência popular. O trabalho de 1975 de Robin Lakoff “A Linguagem e o Lugar da Mulher,” sugeriu uma série de maneiras em que a fala do homem e da mulher difere. Pesquisas mais recentes, de Deborah Tannen e outros, desenvolveram ainda mais esse trabalho. A avaliação geral é que a fala feminina é mais educada, menos direta e mais flexível para um parceiro de conversa.

Se o utilizador quer um assistente pessoal que seja acolhedor e educado, não deve ser uma surpresa que, na pesquisa do consumidor, a preferência por uma voz feminina apareça repetidamente. Se essa preferência é baseada em factos ou ficção, é motivo de debate.

Há detratores proeminentes da teoria das diferenças de género. Janet S. Hyde reviu 46 metanálises e encontrou diferenças relativamente pequenas entre os géneros. Deborah Cameron escreve no The Guardian, “A ideia de que homens e mulheres diferem fundamentalmente na maneira como utilizam a linguagem para comunicar é um mito no sentido corrente: uma crença generalizada, mas falsa… Sejam ou não “verdadeiras,” em sentido histórico ou científico, tais histórias têm consequências no mundo real. Elas moldam as nossas crenças e, portanto, influenciam as nossas ações.” Quando as empresas de tecnologia fazem pesquisas junto aos utilizadores, essas são as crenças que os utilizadores utilizam para responder.

As exceções à regra são curiosas. O assistente Watson da IBM é utilizado por profissionais de saúde para ajudar na avaliação de tumores e diagnóstico de cancro, entre outras tarefas. Parece que o posicionamento da IA como especialista e autoridade se presta a uma persona masculina. A pesquisa mostra que ambos os sexos dão mais atenção às vozes masculinas do que às vozes femininas. A opção da IBM de tornar o Watson masculino não deveria talvez surpreender. Numa questão de vida ou morte, quer-se dar à IA a melhor possibilidade de ser ouvida, mesmo que isso seja baseado numa premissa duvidosa.

Assistentes inteligentes, em funções administrativas ou de secretariado, historicamente dominadas por mulheres, recebem uma persona feminina, perpetuando um estereótipo de género para uma nova geração, enquanto os assistentes em domínios associados aos homens recebem uma persona masculina. O resultado é um reforço, até aos dias de hoje, dos papéis tradicionais de género.

AI-Assistants-Women

O problema de género da tecnologia

A tecnologia tem um problema de género. Mesmo em empresas de tecnologia com centenas de funcionários, não é incomum que o número de engenheiras de software do sexo feminino esteja num dígito único. Falar sobre o problema, como muitos fazem, tem riscos próprios. Não faz muito sentido falar anonimamente com um jornal quando se é descrito como “Uma funcionária da empresa X.” Tais declarações geralmente restringem o campo a apenas um pequeno grupo de pessoas.

As manifestações desta disparidade de género pode manifestar-se de várias maneiras. Algumas são triviais: “Eles não entenderam a razão porque estar sentado em poufes não funciona para uma mulher,” contou-me uma engenheira. “É porque usamos saias,” esclareceu imediatamente como se estivesse a falar com um colega.

Outros sintomas são mais graves: algumas empresas não dispõem de instalações adequadas para o tratamento de produtos sanitários. Os críticos também argumentam que, se existir internamente na empresa uma visão limitada do mundo, ela pode acabar por ser incorporada nos produtos desenvolvidos, assim como pode ser incorporada na própria cultura da empresa.
A aplicação da Apple Health, por exemplo, foi bastante criticada porque, no lançamento, não apresentava um sistema de rastreio para o período, um recurso essencial para 48% dos utilizadores, que são mulheres – o mesmo grupo demográfico que está sub-representado na força de trabalho da empresa. A preocupação é que quando os produtos são criados num vácuo, eles são criados sem considerar como afetam o mundo em geral e sem envolvimento ou interpretação crítica dos dados.

AI-Assistants-Women

O problema dos dados

Estudos corporativos realizados pela Amazon e pela Microsoft descobriram uma preferência pela voz feminina em assistentes virtuais. Um porta-voz da Microsoft disse ao Wall Street Journal que, “para os nossos objetivos – construir um assistente prestável, acolhedor e de confiança – uma voz feminina era a escolha mais forte”.
Para muitos, uma voz feminina evoca as qualidades mais desejadas num assistente digital: confiabilidade, eficiência e, de certa forma, deferência. A realidade é que as pessoas não são particularmente educadas com a IA. As provas sugerem que os utilizadores da IA (mas particularmente as crianças) dão instruções diretas às máquinas, sem os habituais “por favor” ou “obrigado.” Se uma das influências mais presentes na vida de uma criança se torna a IA, o sexo dessa IA pode ter um impacto na maneira como a criança interage com os outros. Há uma necessidade de fazer mais pesquisas sobre isto.

Quanto aos adultos, essa pesquisa já está a chegar. Uma equipa de pesquisa em Stanford testou os estereótipos de género em assistentes verbais e descobriu que a IA com voz masculina avaliava “mais positivamente em relação à amizade e competência” em comparação à IA com voz feminina. O estudo sugere que qualquer sugestão de género – por exemplo, um nome ou voz – pode desencadear uma resposta estereotipada.

Crucialmente, descobriram que os computadores com voz feminina num papel dominante foram avaliados mais negativamente do que os computadores com voz masculina no mesmo papel. Em suma, é fácil dizer à Alexa o que fazer porque ela é do sexo feminino. Mas se ela começar a dar ordens, podemos querer que seja do sexo masculino.
O que foi igualmente interessante na pesquisa foi que os sujeitos do teste negaram ser influenciados pelo género das vozes do computador. Claramente que eram.

Como os investigadores explicam, “ao escolher uma voz específica, um criador ou engenheiro podem desencadear na mente do utilizador um conjunto de expetativas associadas ao género da voz. É um erro, criadores e engenheiros suporem que qualquer voz é neutra; uma voz masculina traz com ela um grande conjunto de expetativas e respostas baseadas em estereótipos sobre os homens, enquanto uma voz feminina traz um grande conjunto de expetativas e respostas baseadas em estereótipos sobre as mulheres.”

As descobertas refletem a pesquisa corporativa feita por empresas como a Microsoft e a Amazon. A escolha do género tem impacto, e seria deliberadamente ingénuo pensar de outra forma.

Os pesquisadores explicitam a escolha: “A decisão de imbuir uma dada tecnologia com voz pode, portanto, envolver escolhas difíceis. Projetar tecnologia que esteja de acordo com os estereótipos de género do utilizador pode ser a maneira mais simples de atender às expetativas dele em relação à tecnologia. Por outro lado, a tecnologia que desafia esses estereótipos pode mudar, a longo prazo, os preconceitos profundamente enraizados subjacentes às descobertas do presente estudo.”

O certo é que parece que a grande tecnologia está a seguir os dados, o que significa percorrer o caminho de menor resistência e seguir preconceitos.

O resultado é um ciclo de reforço de papéis e estereótipos históricos de género, que insistem em não desaparecer. Uma criança hoje pode estar habituada tanto a secretários que são homens, como àqueles que são mulheres, de uma forma que os pais não estiveram. No entanto, se a função de secretariado nas suas vidas for uma mulher digital, sempre presente e sempre respeitosa, não seria irracional assumir que a criança crescerá com uma série de preconceitos de género.

A tecnologia faz parte nas nossas vidas – através de filmes, TV, anúncios. O género da IA pode, a princípio, parecer uma peculiaridade, mas não é. No momento em que nos envolvemos com ela diariamente, é difícil não pensar nisso como normal. No entanto, devemos envolver-nos, porque não ter uma opinião é, por padrão, tomar um partido.

ArtboardFacebook iconInstagram iconLinkedIn iconUnbabel BlogTwitter iconYouTube icon