为什么他们都是女性?

1 min read
AI-Assistants-Women-Header
Artwork by Nicolae Negura

当今的数字助理把我们的日程表安排得井然有序。它给我们指路,处理我们的通信。它们首先是虚拟秘书,这意味着它们正在扮演着传统上由女性扮演的角色。

并非巧合,亚马逊的Alexa,Google的Assistant,微软的Cortana,以及苹果的Siri都有一个共同点:都是女性。至少它们和成千上万行代码那样女性化。用户们知道这一点。一些性别提示,如数字助理的嗓音、姓名和语音,让用户们立即推断出性别。

如果你就此假定大多数 AI 助手都是女性,这不怪你,因为它们的大多数男性设计师们希望它们是女性。一个简单的谷歌搜索很快就会将传统秘书的形象牵扯出来,但这还不足以说明整个情况。许多大型科技公司的调查结果,显示出对女性助手的偏好。这是有数据支持的。这些数据背后的意义更值得探究。

语音的性别理论如何影响我们的技术

关于男性和女性语音的差异存在着大量的研究,其中大部分已被媒体和科普书籍所接受。Robin Lakoff1975年的著作《语言与妇女的地位》,假设了一系列男性和女性语音的不同点。Deborah Tannen 等人最近的研究更为这项工作增添了成果。一般的评论是,女性的说话方式更有礼貌,更不直接,更倾向于去适应对话伙伴。

如果用户想要一个包容而有礼貌的个人助理,那么在消费者研究中对女性声音的偏好一次又一次地出现应该不足为奇。不过,这种偏好是基于事实还是虚构,是引起争论的原因。

性别差异理论有一些很著名的批评者。Janet S. Hyde重温了46项元分析,发现性别之间的差异相对微小。Deborah Cameron 在《卫报》撰文说,男人和女人在其使用语言沟通方式上有根本区别,是一种日常意义上的迷思:一种广泛但错误的观念……无论其在任何历史或科学意义上是否是”事实“,这些说法在现实世界中都产生了后果。它们塑造我们的信念,从而影响我们的行为。“当科技公司调查他们的用户时,用户便是从这样的信念中抽取答案。

该规则的例外情况很有意思。IBM的Watson Assistant被医疗保健专业人员用于协助肿瘤评估和癌症诊断以及其他任务。似乎将 AI 定位为专家和权威有助于男性角色;研究表明,男女两性对男性声音的重视都高于对女性声音的重视。IBM把Watson选择为男性,也许不应让我们感到惊讶。在生死攸关的问题上,你想给你的 AI 以最大的可能被听取,即使它基于一个可疑的前提。

在行政或秘书角色上的聪明助理,历史上以女性为主导,被授予女性角色,使新一代的性别刻板印象永久化,而与男性相关的领域的聪明助手则被授予男性角色。其结果是在当下进一步强化了传统的性别角色。

AI-Assistants-Women

技术的性别问题

技术存在性别的问题。即使在拥有数百名员工的技术公司,女性软件工程师的数量也不足十名。正如许多人所说的那样,谈论这个问题会带来风险。当你被描述为“X公司的一名女性员工”时,对报纸匿名发言并没有多大意义。这些陈述经常将这个范围缩小到只有极少数人。

这种性别差异以各种方式表现出来。有些是微不足道的:“他们不明白为什么女人就不能坐在豆袋上,”一位女工程师告诉我。“这是因为我们穿裙子,”她立刻澄清道,好像在和一位同事说话。

其它状况更严重:一些公司没有足够的卫生用品处理设施。批评者也争辩说,如果公司内部存在狭隘的世界观,那么它最终可能被构建到其开发的产品中,就像它可以被融入公司文化一样。
例如,Apple Health应用程序遭到了很多批评,因为它在发布时没有例假跟踪器,这个功能对48%的女性用户来说至关重要。同样的人口统计,在公司的员工队伍中也没有足够的代表性。令人担心的是,当产品在真空中被创建时,其创建并未考虑它们将如何影响更广泛的世界,并且没有对数据的批判性参与或解释。

AI-Assistants-Women

数据问题

由亚马逊和微软展开的企业研究发现,对虚拟助手中的女性声音存在偏好。微软发言人 告诉《华尔街日报》: “为了我们的目标 – 建立一个乐于帮助、积极支持、值得信赖的助手 – 女性的声音是更好的选择。”
对于许多人来说,女性的声音唤起了数字助手最需要的品质:可靠性、效率、尊重,这最后一点有些令人不安。现实是,人们对他们的 AI 并不特别礼貌。证据表明,AI的用户(而 尤其是儿童)给机器发出直接的指令,而欠缺常规的“请”和“谢谢”。如果 AI 成为一个孩子生活中最重要的影响之一,那么AI 的性别可能会对孩子与他人互动的方式产生影响。当然还需要做更多的研究。

至于成年人,这项研究已经开始。斯坦福大学的一个研究小组测试了语音助手中的性别刻板印象,并发现男声 AI 与女声 AI 相比,被评论为“在友善和能力方面更佳”。该研究表明,任何性别线索 – 例如姓名或声音 – 都可能引发某种刻板印象的反应。

至关重要的是,他们发现对于一个重要角色的女声电脑的评价比同一角色的男声电脑的评价更加负面。简而言之,告诉Alexa该做什么很容易,因为她是女性。一旦变成她告诉你该怎么做,你很可能想让她成为男性。
在他们的研究中同样有趣的是,测试对象否认受到电脑语音的感知性别的影响。但很明显,他们确实受到了感知性别的影响。

正如研究人员所解释的那样,“通过选择一个特定的声音,设计师或工程师可能在用户的脑海中触发与该声音的性别相关的一整套期望。对于设计师和工程师来说,假定任何声音都是中性是错误的;一个男性的声音带来了一系列基于对男性的刻板印象的期望和反应,而一个女性的声音带来了一系列基于对女性的刻板印象的期望和反应。“

他们的研究结果反映了微软和亚马逊等公司的研究成果。性别的选择确实会产生影响,你要是不这么认为就是在假装天真。

研究人员阐述了这一选择: “因此,决定向某一特定技术注入语音可能涉及到艰难的选择。” 根据用户性别刻板印象来设计技术,可能是满足用户对该技术期望的最简单方式。另一方面,挑战这些刻板印象的技术,长期来看可能有助于改变这些根深蒂固的偏见,这些偏见是本研究结果的基础。“

当然,大科技公司似乎都在关注数据,这意味着遵循一条阻力最小的道路,也就是遵循一条偏见的道路。

结果是,历史性别角色和刻板印象得到强化循环,几乎没有放松的迹象。今天的孩子可能会同时习惯于男性和女性的秘书,这是他们父母没有过的情况,但如果他们生活中的秘书是一个无时不在的、永远恭恭敬敬的数字化女性,那么这个孩子带着这样的性别偏见长大,也并不是不可能。

通过电影,电视,广告,技术渗透到我们的生活中。AI 的性别起初看起来可能很怪异,但事实并非如此。当有一天我们与它每天接触时,很难不将它视为正常。然而,我们必须参与意见,因为没有观点事实上就是默认采取了某种立场。

ArtboardFacebook iconInstagram iconLinkedIn iconUnbabel BlogTwitter iconYouTube icon