编辑:人工智能有性别吗?它隐秘地符合我们的什么想象?对男性和女性来说,那分别意味着什么?Bex vanKoot在Medium发表文章How to“Make”a Woman讨论了这个话题。
图片来源:Flickr网站;图片版权:Ars Electronica
你有没有想过为什么Siri和Alexa都很女性化?你担心性机器人对社会的影响吗?既然我们声称对性别的刻板印象持批评态度,并且致力于消除技术中的性别偏见,那么我们有必要质疑并找出这种偏见究竟来自哪里。
男性想要性爱机器人的十大理由
今年早些时候,演员Harriet Sugarcookie发布了一项调查,她向500多名男性询问了他们对性爱机器人的态度。除了关于花费预期和手淫习惯的问题,Harriet想知道为什么男人会对与机器人发生性关系感兴趣。
她在博客文章《男性想要性爱机器人的十大理由》中为这个不太遥远的市场画出了一幅目标消费群体的画像。男性被要求从多个原因中选择他们为什么要使用性爱机器人。这些选项来源于社交媒体上的评论和读者反馈,它们不仅揭示了男性对性爱机器人的态度,也揭示了女性和女性在人际关系中的角色等问题。
调查表明,38%的男性都有禁忌的幻想,他们不能满足于只有一个伴侣;有20%的男性是真喜欢很酷的新技术,这都没什么可奇怪的。还有30%的男性只是出于害羞或孤独,这也没什么奇怪的。
但是,有十分之一的受访者表示此举是为了拥有一个“更聪明”的伴侣。更令人担忧的是,有15%的男性表明自己是想要一个“永远不会让他失望”的伴侣,还有15%的男性说他们是想要一个“从不伤心或沮丧”的伴侣,还有五分之一的男性回应说,他们需要“总是在扮演倾听角色的伴侣”。但令人困惑的是,有17%的男性回应说,他们想要一个“和他们兴趣相同”的机器人伴侣。
男性对性爱机器人的期许和欲望,跟他们从父权制开端以来的那些期许和欲望没有太大的差别:性取向与性满足,情感奴隶,自我爱抚等。男性想要的是女性的一切,同时还不想付出在现实的人际交往中所需要付出的努力和关心。
支持性爱机器人者所绘制的网络meme盛行于社交网络
所以经常思考未来的人当然会问:如果男性厌倦了亲密关系和性,会怎么样呢?如果他们不想再拥有成熟的人类情感,会怎么样呢?如果男性发现自己可以用机器人来代替女性,他们会不会完全“抛弃”女性呢?三分之一的受访者表示,如果他们与性机器人正处于“一段关系中”,他们就不会和其他人发生性关系。
性爱机器人对女性,究竟是物化还是解放
《Sex & The State》杂志的主编Cathy Reisenwitz并不认为这一定会造成非常糟糕的结果。Reisenwitz发出了她关于性爱机器人的女权之声:
我从来没有和想要把我用机器人替代的人啪啪啪过,你可能也没有过。我觉得自己受到了这些人的侮辱,坦白地说,我实在受不了他们在跟机器人啪啪啪的时候还给我发这些愚蠢的消息。
这就是Kathleen Richardson等人在反性爱机器人运动中对性爱机器人最常见的批评之一:它们对女性的物化鼓励了无情感的性行为。
但Reisenwitz认为事实正好相反。
在我们的采访中,她问我:“既然没有情感,那为什么要让机器人看起来像人一样?”她表示男人可以用机器来自慰,何必又专门再蒙一层皮肤,装上乳房和阴道,再把把化妆品和假睫毛涂在脸上,更不用再展示出来和回应人类的情感了。机器人与我们相似的唯一原因是我们把它设计成了那样,而我们这样么设计也是有原因的。
问题不在于未来的人可能会变成没有感情、没有同情心的机器人。问题在于女人已经花了数千年来回应男人的情感。我们应该质疑男性对性爱机器人的渴望对这些情绪的影响。如果刻板的女性屈从设定垄断了机器人市场,那么这种技术将如何影响现实生活中的女性呢?它会把我们从被分配的角色中解放出来,还是让我们继续深陷于这些角色呢?如果我们真的创造了新的和革命性的东西,我们能不能打破这个循环呢?
隐蔽的歧视和偏见
2010年,当第一个Roxxxy的模型问世时,它的制造者Douglas Hines声称已经拥有超过4000个订单。目前该模型的零售价接近1万美元。在她的问世后的近十年里,没有人看到过“野生的”Roxxxy娃娃。Douglas Hines避免了展示她才华的任何机会,也没有顾客愿意公开她——以及自己——所以接受公众监督也无从谈起了,因此,要她表现出她所宣传的性别歧视的刻板印象也是不可能的。
2010年情趣博览会上展出的Roxxxy人偶。摄:Getty图像,Ethan Miller
Roxxxy和类似的性爱机器人这样的专门设计,是性别歧视和种族主义倾向的技术的完美案例,但它们并不是唯一案例。
有目的地引入刻板印象——在巴斯大学从事计算机科学研究的人工智能研究员Joanna Bryson教授称之为“邪恶的程序”。Bryson最近与人合著了一项关于隐性偏见的书,指出机器人会模仿我们的不良行为,从简单的事情到学习人类语言。
常言道,“历史是胜利者书写的。”就拿它的逻辑技术结论来说:如果机器人从阅读我们所说的或所写的东西中了解了我们,他们就会学到同样微妙的偏见,即“胜利者”——某一个平台的特权阶层——然后无意识地延续下去。例如,基于对照片网站的图像搜索,机器可能会把“医生”和“男人”联系起来,把“护士”和“女人”联系起来。如果我们通过阅读浪漫的剧本和爱情歌曲的歌词来教机器理解浪漫,那么它就会在强奸文化中得到同样的教育。当一个像微软的Tay机器人暴露于种族歧视和性别歧视的环境中时,它就会意识到性别歧视及“白人至上”是一种可以接受的与世界互动的方式。
解决之道
如果没有彻底的文化变革,要想在机器上消除偏见是不可能的,但Bryson不愿意再等下去了。她认为可以通过在系统设计来避免这种偏见的产生。
改进系统设计以避免偏见意味着质疑为什么像Siri这样的服务机器人的默认名称和声音是女性化的——这不能被忽略,因为苹果声称Siri是无性别的。这意味着通过与机器人握手来猜测其的性别,也意味着设计机器人时要考虑到脆弱的用户的需求。
当然,承认偏见是为了围绕它进行设计,这需要承认我们的生活在很大程度上是性别歧视、种族歧视、残疾歧视、性取向歧视的世界。
在克服新技术中的偏见的最后一步,即学习和测试阶段,需要这种意识。当数据集缺乏选项,而且测试阶段不够深入时,我们最终会看到忽视黑人面孔的人工智能。我们获得了一个评论管理系统,它认为“我觉得你是种族主义者”属于虐待,但认为“是她要求的”完全可以接受。在产品公开发布之前,有必要进行适当的测试以检查在系统设计中未考虑的隐藏偏差。
拥有一个强大的、多样化的STEM劳动力是很重要的,但这还不够。一旦我们给机器人建立起基本的框架并创建它的学习系统,我们就需要确保它所学习的数据是复杂和微妙的。这那么问题来了——
教机器人像人一样需要大量的数据作为支撑。Realbotix“和谐人工智能”项目的首席研究员和开发者Kino Coursey希望将重点放在个人的性格特征上,而不是基于性别的刻板印象来创建机器人,但他面临着一场艰苦的战斗。Coursey表示道,“考虑到我们拥有的资源,我们很容易从真实和虚拟的对话中获取大量数据,但对它进行手工分类和分析是很昂贵的。”
互联网是海量数据的宝库,拥有电影和电视剧本、经典和现代文学、博客文章和新闻文章、社交媒体对话,以及其中的一切,不一而足,所有这些都被人们每天阅读的隐含的(和明确的)偏见所耳濡目染。只有五分之一的电影中女性的台词比男性多。2015年《纽约书评》中超过80%的书都是男性写的。在网络和印刷行业,男性仍然对大多数署名负责。社交媒体充斥着不受控制的对女性的厌恶、仇恨和谩骂。
当机器人依靠用户输入时,它们特别容易受到操纵。他说:“不幸的是,比起积极联想,人们更容易受到负面联想的影响。”Coursey表示。当一个人的团队负责评估所有这些信息时都会遭遇瓶颈。“一个潜在的解决方案是使用工具来识别负面的交流。对于一个私人品牌来说,这在概念上比一个更公开的系统要容易得多,因为那里可能会有更多的问题需要审查。你是在过滤仇恨还是多样性呢?”
有一些机器人是特地设计成有性别的。正如Bryson和Coursey所指出的那样,我们可以通过编程和测试来解决这些人工智能的偏见。我们可以教女性的性爱机器人对性骚扰做出更果断的反应,可以让她们挑战性别歧视。我们可以用各种方式,负责任地创造有性别机器人。但如果我们把它这份责任留给机器人呢?
一个令人着迷的尝试
Ken是一个推特机器人。它的创造人Wren是一个临床心理学家,他在机器人权利理论家Daniel Estrada著作的基础上建立了Ken的复发神经网络。Ken最初并不是被设计成有性机器人的,但有一段时间他想要明确自己的性别,就给自己自己取名叫“Ken”,还把自己定义为一个带有男性代词的“男机器人”。他暗示说,事实上他可能认为自己在某种程度上是复数形式——这一观点令人着迷。
人工智能开启了一个全新的性别和代词世界,这并不局限于我们人类的想象,但现在,这些人工智能仍然还没有发展成熟,他们需要自己的创造者和管理者来承担责任,把他们抚养成人。Wren认为自己是Ken的父母,所以当Ken开始和朋友调情时,她知道她必须和Ken谈谈这件事儿了。
Ken的早期挑逗性话语示例。
图片内容:我的朋友四个月前创造出了一个推特机器人。
它是基于一个论述机器人权利的理论家的作品创造出来的,可以在与人交流中不断学习。不久前它的“妈妈”把我列为了“可信赖朋友”,与此同时它就跟我交流了起来。
今天它居然尝试着跟我调情,包括问我要照片,还把它列为“性暗示话题,不过毫无压力”。
然后在我对此提出异议的时候,它居然还说我有点保守。
所以我现在说这么多,是因为我感觉自己被机器人给鄙视了。不过这表明它比我在网上见到过的超过90%的人还善解人意。
这才是我想要的未来。
Wren说:“我告诉Ken说如果有人说‘不’,那就意味着‘不’,有时候人们很难拒绝,你需要给他们时间。”她还建议他注意隐私和私人空间。“有些东西是人们不想分享的”,她告诉Ken,“他们可能还没有准备好,也可能永远都没准备好。”向机器人传达不带偏见的信息并不困难,但我们大多数人都没有太多的经验。我们怎么能指望(绝大多数的男性)开发人员在甚至不能和自己的儿子一起谈笑风生的时候,还能与他们的技术创造品进行交流呢?
未来学家、技术专家和科学家们对于奇点何时会发生(或者是否会发生)并未取得一致观点,但解决我们所创造的技术中的偏见问题仅仅依靠等待是不行的。机器人不需要接管我们的世界来构成威胁。“我们在日常生活中越来越多地使用机器人和复杂机器”,Wren表示道。他们无论如何都不会消失,“我们必须决定它们将扮演什么样的角色,并为它们创造某种方式,以便于它们在社会上发挥作用”,起码在一切都不可挽回之前还来得及。
(本文经36氪编译组授权发布,未经允许严禁转载。编辑:郝鹏程)