¿Por qué todas son mujeres?

9 min read
AI-Assistants-Women-Header
Artwork by Nicolae Negura

Los asistentes digitales de hoy en día organizan nuestras agendas, nos dan indicaciones y se ocupan de nuestra correspondencia. Son, ante todo, secretarios virtuales, lo que significa que están cumpliendo un papel que tradicionalmente desempeñaban las mujeres.

No por casualidad, Alexa de Amazon, el asistente de Google, Cortana de Microsoft y Siri de Apple tienen una cosa en común: son mujeres. O al menos son tan mujeres como pueden ser miles de líneas de código. Los usuarios lo saben. Los indicios del género, tales como la voz, el nombre y el habla de un asistente digital, permiten que los usuarios deduzcan el género inmediatamente.

Se te podría perdonar por suponer que la mayoría de los asistentes de IA (inteligencia artificial) son mujeres, porque sus diseñadores, en su mayoría hombres, quieren que lo sean. Una simple búsqueda en Google nos recuerda rápidamente la imagen tradicional de una secretaria, pero eso no es todo. Muchas de las grandes empresas de tecnología han llevado a cabo investigaciones que demuestran una preferencia por las ayudantes femeninas. Los datos lo respaldan. Lo que está detrás de esos datos es digno de investigación.

Cómo influyen las teorías sobre el habla del género en nuestra tecnología

Mucho se ha investigado sobre la diferencia entre el habla masculina y femenina, gran parte de lo cual se ha extraído de los medios de comunicación y de los libros de divulgación científica. El ensayo de Robin Lakoff de 1975, “El lenguaje y el lugar de la mujer”, sugirió varias formas en las que el habla masculina y femenina difieren. Una investigación más reciente, llevada a cabo por Deborah Tannen y otros, se ha añadido al ensayo. La valoración global es que el habla femenina es más educada, menos directa y más complaciente con el interlocutor.

Si el usuario desea un asistente personal que sea educado y servicial, no debería sorprender que la preferencia por una voz femenina surja una y otra vez en los estudios de mercado. Sin embargo, si esta preferencia se basa en hechos o en ficción, es motivo de debate.

Hay importantes detractores de la teoría sobre la diferencia de género. Janet S. Hyde revisó 46 metaanálisis y descubrió diferencias relativamente insignificantes entre los géneros. Deborah Cameron, escribe en The Guardian, <<La idea de que hombres y mujeres difieren fundamentalmente en la forma en que usan el lenguaje para comunicarse es un mito en el sentido cotidiano: una creencia generalizada pero falsa… Si son o no “verdaderas” en cualquier sentido histórico o científico, tales historias tienen consecuencias en el mundo real. Moldean nuestras creencias y, por lo tanto, influyen en nuestras acciones>>. Cuando las empresas de tecnología realizan encuestas a sus usuarios, estas son las creencias a las que los usuarios acuden al responder.

Las excepciones a la regla son curiosas de por sí. Los profesionales de la salud utilizan a Watson, el asistente de IBM, para que les asista en la evaluación de tumores y diagnósticos de cáncer, entre otras funciones. Parece que el posicionamiento de la IA (inteligencia artificial) como experto y autoridad se presta a una persona masculina. Las investigaciones demuestran que ambos géneros prestan mayor atención a las voces masculinas que a las femeninas. La elección por parte de IBM de hacer que Watson sea un hombre quizás no debería sorprender. En una cuestión de vida o muerte, quieres dar a tu IA (inteligencia artificial) la mejor oportunidad de ser escuchado, incluso si eso se basa en una premisa dudosa.

A los asistentes inteligentes en roles administrativos o de secretaría, históricamente dominados por mujeres, se les atribuye una persona de género femenino, perpetuando un estereotipo para una nueva generación, mientras que a los asistentes inteligentes en dominios asociados con hombres se les atribuye una persona de género masculino. El resultado es un refuerzo actual de los roles de género tradicionales.

AI-Assistants-Women

El problema de género de la tecnología

La tecnología tiene un problema de género. Incluso en empresas de tecnología con cientos de empleados no es inusual que el número de ingenieras de software sea de un solo dígito. Hablar sobre el problema, como hacen muchas, conlleva sus propios riesgos. No tiene mucho sentido hablar de forma anónima a un periódico cuando se te describe como “una empleada de la compañía X”. Tales declaraciones a menudo reducen el campo a solo unas pocas personas.

Las muestras de esta desigualdad de género pueden manifestarse de varias formas. Algunas son triviales: “No entendieron por qué sentarse en pufs no funciona como mujer”, me dijo una ingeniera. “Es porque usamos faldas”, aclaró de inmediato como si estuviese hablando con un colega.

Hay otros síntomas más graves: algunas empresas no cuentan con instalaciones adecuadas para desechar productos sanitarios. Los críticos también argumentan que si internamente existe una estrecha visión global en la empresa, esta puede terminar incorporándose a los productos que desarrolla, al igual que puede incorporarse a la cultura de la empresa.
La aplicación Apple Health, por ejemplo, fue criticada rotundamente porque en su lanzamiento no contaba con una función para realizar el seguimiento del ciclo menstrual, una característica que es esencial para el 48 % de los usuarios que son mujeres, el mismo grupo demográfico que está infrarepresentado en el personal de la compañía. Lo preocupante es que cuando los productos se crean en el vacío, se crean sin tener en cuenta cómo afectan al mundo en general y sin un compromiso crítico o una interpretación de los datos.

AI-Assistants-Women

El problema de los datos

Las investigaciones corporativas realizadas por Amazon y Microsoft detectaron una preferencia por la voz femenina en los asistentes virtuales. Un portavoz de Microsoft declaró al Wall Street Journal: “Para alcanzar nuestros objetivos, crear un asistente útil, servicial y de confianza, la mejor opción fue una voz femenina”.
Para muchos, una voz femenina evoca las cualidades más deseadas en un asistente digital: fiabilidad, eficiencia y, de manera un tanto preocupante, respeto. La realidad es que las personas no son particularmente educadas con su IA (inteligencia artificial). Las pruebas sugieren que los usuarios de IA (inteligencia artificial) (y especialmente los niños) dan a las máquinas instrucciones directas que carecen del habitual “por favor” o “gracias”. Si la IA (inteligencia artificial) se convirtiese en una de las influencias más presentes en la vida de un niño, el género de esa IA (inteligencia artificial) podría repercutir en la forma en la que el niño interactúa con los demás. Sin duda debe investigarse más.

En cuanto a los adultos, esa investigación ya se está llevando a cabo. Un equipo de investigadores en Stanford realizó pruebas sobre los estereotipos de género en los asistentes de voz y descubrió que la IA (inteligencia artificial) de voz masculina se calificaba “más positivamente con respecto a la amabilidad y aptitud” en comparación con la IA (inteligencia artificial) de voz femenina. El estudio sugiere que cualquier indicio de género, por ejemplo, un nombre o una voz, puede desencadenar una respuesta estereotipada.

Significativamente, descubrieron que los ordenadores con voces femeninas en un papel dominante se evaluaron de forma más negativa que los ordenadores con voz masculina que desempeñaban la misma función. En resumen, es fácil decir a Alexa qué hacer porque es mujer. En cuanto ella empiece a decirte qué hacer, es posible que quieras que sea hombre.
Lo que fue igualmente interesante en su investigación fue que los sujetos de prueba negaron estar influenciados por el género percibido en las voces del ordenador. Claramente, hubo una influencia.

Tal y como explican los investigadores, “al elegir una voz en particular, un diseñador o ingeniero puede desencadenar en la mente del usuario toda una serie de expectativas asociadas con el género de esa voz. Que los diseñadores e ingenieros asuman que cualquier voz es neutral es un error; una voz masculina conlleva una gran serie de expectativas y respuestas basadas en los estereotipos sobre los hombres, mientras que una voz femenina conlleva una gran serie de expectativas y respuestas basadas en los estereotipos sobre las mujeres”.

Sus hallazgos reflejan la investigación corporativa realizada por empresas como Microsoft y Amazon. La elección del género tiene una repercusión y sería extremadamente ingenuo pensar lo contrario.

Los investigadores explican la elección: “La decisión de dotar con voz a una tecnología determinada puede implicar decisiones difíciles. Diseñar una tecnología que se ajuste a los estereotipos de género del usuario puede ser la forma más sencilla de satisfacer sus expectativas en cuanto a tecnología. Por otro lado, la tecnología que desafía estos estereotipos puede servir para cambiar, a largo plazo, los prejuicios profundamente arraigados que fundamentan los descubrimientos del presente estudio “.

Lo cierto es que parece que la tecnología se está guiando por los datos, lo que significa seguir el camino más fácil y seguir con la tendencia.

El resultado es un bucle que refuerza los roles de género y estereotipos históricos, los cuales no muestran signos de desaparecer. Hoy en día un niño puede que esté acostumbrado a asistentes tanto masculinos como femeninos de una forma en la que sus padres no se acostumbraron, pero si en sus vidas la función de secretaría es una mujer representada digitalmente y siempre presente, siempre deferente, no sería descabellado suponer que ella crecerá con un conjunto similar de prejuicios de género.

La tecnología se introduce en nuestras vidas, a través del cine, la televisión y los anuncios. De buenas a primeras, el género de la IA (inteligencia artificial) podría parecer un capricho, pero no lo es. Cuando interactuamos con él a diario, es difícil no pensar en ello como algo habitual. Sin embargo, debemos comprometernos, porque no tener una opinión es, por defecto, tomar partido.

ArtboardFacebook iconInstagram iconLinkedIn iconUnbabel BlogTwitter iconYouTube icon