O Einstein está para os cientistas, como o Messi está para os jogadores de meio-campo.
Paris está para a França, como Tóquio está para o Japão.
O Jobs está para a Apple, como o Ballmer para a Microsoft.

Estas são apenas algumas das muitas analogias que os sistemas de IA são capazes de concluir com precisão, graças às inovações no Processamento de Linguagem Natural (PLN). Nos últimos dois anos, surgiram vários estudos sobre sistemas que produzem representações cada vez mais sofisticadas de palavras, com grupos de investigação a lançar modelos cada vez mais poderosos que vencem consistentemente o sistema de última geração. Com estas técnicas, os computadores conseguem inferir muito sobre o mundo em que vivemos, como a profissão de Lionel Messi ou a empresa que Steve Ballmer dirigia.

Mas e se existirem algumas partes do nosso mundo que seria melhor deixar fora destes sistemas?

Por causa da proverbial troca de poder e responsabilidade, é importante dedicar algum tempo para discutir as implicações éticas destes avanços: nomeadamente, a perpetuação de vieses humanos. Especificamente, o viés de género, como geralmente existe na língua, sem entrar na discussão se a língua deve ou não ser mais neutra em termos de género.

O que queremos dizer exatamente com viés?

Coloquialmente falando, o viés é definido como um preconceito a favor ou contra uma pessoa ou grupo, geralmente de uma maneira considerada injusta. O viés no sentido da aprendizagem automática é definido de maneira um pouco diferente, como um “erro a partir de suposições erróneas num algoritmo de aprendizagem”. Por outras palavras, um modelo que comete sempre os mesmos erros.

Uma visualização do viés na aprendizagem automática como dardos num alvo – as previsões do modelo são consistentes, mas distorcidas.

Quando falamos sobre viés no PLN, podemos na verdade falar sobre os dois tipos. Os vieses pré-existentes na nossa sociedade afetam a maneira como falamos e sobre o que falamos, o que por sua vez se traduz no que está escrito, que é o que usamos para treinar os sistemas de aprendizagem automática. Quando treinamos os nossos modelos usando dados tendenciosos, eles são incorporados nos nossos modelos, o que permite que os nossos próprios vieses sejam confirmados e preservados.

Para entender melhor como isto acontece, precisamos primeiro de um entendimento básico sobre como é que os programas de computador são capazes de processar texto e os algoritmos que usamos para isso. Caso tenhas falhado o nosso artigo sobre como as máquinas entendem a linguagem, a versão curta é que as palavras são representadas por listas de números chamadas incorporação de palavras que codificam informação sobre o significado, o uso e outras propriedades da palavra. Os computadores “aprendem” esses valores para cada palavra, recebendo dados de treino de muitos milhões de linhas de texto, onde as palavras são usadas nos seus contextos naturais.

Como as combinações de palavras são números, elas podem ser visualizadas como coordenadas num plano, e a distância entre as palavras – mais precisamente, o ângulo entre elas – é uma maneira de medir a sua semelhança semântica. Estas relações podem ser usadas para gerar analogias.

Neste exemplo do artigo anterior, as setas laranja representam a realeza e as setas azuis o género, capturando a relação ” homem está para rei, como mulher está para rainha”.

Mas o que acontece quando queremos estender essa analogia a outras palavras, digamos a profissões?

O homem está para o programador de computadores, como a mulher está para__ _______

O senso comum diz que o termo que falta deve ser programador de computadores, porque o termo não tem intrinsecamente um género, ao contrário de rei e rainha. Consegues adivinhar como é que o computador, com um sistema de incorporação de palavras padrão, preenche o espaço em branco?

O homem está para o programador de computadores como a mulher está para a dona de casa (a segunda palavra mais provável é dona de casa)

Podes tentar as tuas próprias analogias usando esta ferramenta de incorporação de palavras.

A Tradução automática oferece outro exemplo. Com alguns sistemas, a tradução de frases húngaras de género neutro “Ő egy orvos. Ő egy nővér ”, para inglês resulta em “Ele é médico. Ela é enfermeira”, assumindo o género de ambos os sujeitos.

Obviamente, estes não são os resultados ideais. Os dados de treino usados no modelo de linguagem que produziu a analogia, provavelmente incluíram homens a programar, no mesmo contexto linguístico de mulheres a fazerem tarefas domésticas, com muito mais frequência do que as mulheres a fazerem qualquer outra coisa. O resultado ideal do dilema entre ele é um médico/ela é uma enfermeira é menos preto no branco, mas poderíamos utilizar um pronome neutro em relação ao género, dar ao utilizador a opção de especificar o género ou, pelo menos, de escolher o mesmo pronome para ambos.

Os sistemas de aprendizagem automática são o que comem e as ferramentas de processamento de linguagem natural não são exceção – isso ficou claro com o Tay, o chatbot de IA da Microsoft. Há uma tendência geral para assumir que mais dados produzem modelos com melhor desempenho e, como resultado, os maiores corpora são tipicamente conjuntos de dados recolhidos na Web. Uma vez que a internet e outros conteúdos contêm a linguagem humana real, naturalmente revelam os mesmos vieses que os humanos e muitas vezes não se dá atenção suficiente ao real conteúdo do texto.

Reduzindo o viés de género

Eventualmente, nalgum momento desta discussão, alguém – qualquer pessoa – levantará a questão: se queremos que a IA seja uma verdadeira representação da humanidade, devemos tentar remover o viés? A IA deve ser meramente descritiva do comportamento humano ou deve ser prescritiva? É uma pergunta justa; no entanto, se nada mais, também precisamos de ter em mente que os modelos enviesados não estão apenas a produzir analogias desastrosas – às vezes eles são imprecisos: uma programadora de computadores não é equivalente a uma dona de casa.

Falando como engenheiro de IA, devemos sempre considerar quem usará os nossos sistemas e qual a finalidade. Na Unbabel, precisamos de estar atentos aos clientes dos nossos clientes e esforçar-nos para oferecer as traduções mais precisas e equilibradas. Ter humanos no círculo certamente reduz o risco de ter dados de treino com viés de género, ajudando a fechar a lacuna onde a aprendizagem da máquina falha. Mas o que podemos fazer, como engenheiros, para reduzir o viés de género nos sistemas de PLN?

O método mais intuitivo é modificar os dados de treino. Se sabemos que os nossos modelos aprendem o viés a partir dos dados, talvez apenas precisemos de lhes tirar o viés. Uma das técnicas é a “troca de género”, na qual os dados de treino são aumentados de modo a que, para cada frase com género, seja criada uma frase adicional, substituindo pronomes e palavras de género por pessoas do sexo oposto e substituindo nomes por espaços reservados à entidade. Por exemplo, “Mary abraçou o irmão Tom” também criaria “NAME-1 abraçou a irmã NAME-2”. Desta forma, os dados de treino tornam-se equilibrados em termos de género e também não apontam nenhuma característica de género associada aos nomes. Isto melhoraria as analogias dadas pelo modelo, porque este teria visto programadores de computadores em contextos masculinos e femininos, num igual número de vezes.

No entanto, é importante observar que esta abordagem é mais óbvia para o inglês, uma língua sem género gramatical, enquanto que para muitas outras línguas a simples troca de pronomes, como dele/dela, e substantivos, como irmã/irmão, não é suficiente, porque adjetivos e outros modificadores também expressam género. Por exemplo, línguas românicas, como o francês, o português ou o espanhol, não têm género gramatical neutro. Como explicou Helena Moniz, linguista e investigadora da Universidade de Lisboa, “aslínguas derivadas do latim perderam o seu género gramatical neutro há muito tempo.

Que eu saiba, quase não há estudos sobre este tipo de técnica para retirar o viés em línguas sem ser o inglês.

Outro método que ajuda as traduções a terem maior precisão de género, específico da tradução automática, envolve a adição de metadados às frases que possuem o género do sujeito. Por exemplo, enquanto a frase “You are very nice” é ambígua em termos de género em inglês, se a frase paralela em português fosse “Tu és muito simpática”, adicionaríamos o rótulo no início da frase em inglês, para que o modelo pudesse saber qual a tradução correta. Após o treino, se solicitarmos uma tradução e fornecermos o rótulo de género desejado, o modelo retornará a tradução correta e não apenas o género maioritário.

Se o sistema húngaro-inglês fosse treinado desta maneira, poderíamos pedir para traduzir “Ő egy orvos” e receber a tradução “Ela é médica” ou “Ő egy nővér” e receber “Ele é enfermeiro”. Para fazer isto em escala, precisaríamos de treinar um modelo adicional que classificasse o género de uma frase e o usasse para as marcar, adicionando uma camada de complexidade.

Estes métodos são eficazes na redução do viés de género nos modelos de PLN, mas demoram a serem implementados, pois exigem informações linguísticas adicionais que podem não estar prontamente disponíveis ou mesmo possíveis de serem obtidas.

Felizmente, este tópico está a torna-se uma área de investigação em rápido crescimento. No Encontro Anual da Association for Computational Linguistics, realizado este verão e ao qual muitos Unbabelers da área de IA compareceram, havia uma faixa inteira de apresentações em papel dedicadas ao Viés no Processamento da Linguagem, bem como o primeiro Workshop sobre Viés de Género para Processamento de Linguagem Natural.

A Google também investiu recursos para mitigar este problema. Em dezembro de 2018, eles anunciaram que o Google Translate começaria a fornecer traduções de palavras únicas de quatro línguas para o inglês, tanto na forma feminina como na masculina.

É muito satisfatório ver a abordagem dos líderes do setor ao viés de género nos algoritmos, mas o trabalho está longe de estar concluído. Ainda estamos a lutar com a falta de diversidade no setor daIA – de acordo com a MIT Technology Review, “as mulheres representam apenas 18% dos autores nas principais conferências de IA, 20% dos professores de IA e 15% e 10% da equipa de investigação do Facebook e da Google, respetivamente” – e não podemos negar que isso não é parcialmente responsável pelo problema. Como engenheiros, não podemos evitar a questão, escondendo-nos sob a suposição de que a tecnologia é neutra. Especialmente porque as consequências da nossa inação não são apenas anedóticas, como os exemplos que partilhamos – o viés nos algoritmos pode levar à discriminação nos processos de contratação, pedidos de empréstimo e até no sistema de justiça criminal.

Isto não é um recurso, é um erro informático. E, à medida que a nossa consciencialização cresce, precisamos de cumprir o nosso papel na criação de tecnologia que funcione para muitos, não para poucos.

Fontes
Mitigating Gender Bias in Natural Language Processing: Literature Review https://arxiv.org/abs/1906.08976