社会焦点

从AI中获得情感智力,难道这仅仅是一个梦想?(2)

字号+ 作者: 来源: 2017-04-26

也许对于孩子来说,护理,就像身着工作服的温柔玩具熊,可以是无关性别的。当涉及成年人的世界时,我们仍然默认女性的工作领域是以服务和养育为主的。为什么当今的AI如此频繁地采用女性的声音或使用女性角色,这一

  也许对于孩子来说,护理,就像身着工作服的温柔玩具熊,可以是无关性别的。当涉及成年人的世界时,我们仍然默认女性的工作领域是以服务和养育为主的。为什么当今的AI如此频繁地采用女性的声音或使用女性角色,这一直是大家研究,讨论和猜测的主题。有人说,我们常把服务或顺从性与女性联系起来,一方面主要是因为男性技术消费者常常将奢侈品与性别相结合,还有就是一般人们都认为女性的声音反响更好一些。“日本对Alexa的定位”Azuma Hikari说,就是一名虚拟助手,她会告诉她的主人,当他离开时,她会想念他,会迫不及待地想要他回家。这样的事情不仅令人不舒服地将性别和顺从性掺杂在一起,而且还包含着在数字时代,情感工作中的陪伴,关爱和日常互动的点滴。我们希望我们的机器人是女性,那是因为我们殷切期望从女性那里得到情感劳动。

  我幻想自己自己是一个专注于瓦解父权制和这些有关一切的人,但当我荒唐冲动地向 Alexa 说“谢谢你”,而她没有回应时,我仍然觉得觉得有点失望。当然,只有当Alexa听到我说“醒来”时,她才会听我的声音,否则她可能一直在偷窥我。但我仍对我们之间的这种互动感到无所适从,因为没有额外的,活泼的互动,让我觉得我没有被强迫,我的需求是正常的。我不只是想让她弹一首歌或告诉我天气,我还想让她觉得我问的问题还是不错的。

  这种特别的冲动可能不利于健康的社会,在一篇名为“将情感劳动外包给机器人的危险”的文章中,克里斯汀?罗森(Christine Rosen)引用了研究进行警告,这种人为地保持我们的舒适区域的方式可能使护理词汇均匀化,换句话说,如果机器人可以礼貌地微笑来回应命令,那么我们是否可以停止评估人类做同样的事情所花费的成本呢?所有的外包都会危及当地劳动力的贬值——我们可能会更少的同情心去直视我们的情感智力退化,或者创造出关于谁值得(或负担得起)关心的奇怪的新的社会信息。如果我们的虚拟助手和情感劳动者都变成具有安抚性,女性化的AI,那么这是否会缩小AI与人类的一些差距?或者他们是否可以得到社会的普遍认可?

  让这些问题变得复杂的关键是,机器人,虚拟助手,生产力软件,电子邮件信号检查器,数据处理算法和类似的太阳下的任何东西现在都在“AI”的大门下大量耕作,尽管许多还只是粗糙的算法或模式匹配软件。谷歌希望一个机器人可以帮助识别有毒的互联网评论,而Facebook正在测试一个AI,它可以发现有可能会自杀的用户,并提供干预选择项。正如伊恩?博格斯特(Ian Bogost)所说,当他将AI的新意义写成一个术语时,这些解决方案是非常不完美的,而且容易被滥用,“人工”但并不是特别“智能”。

  尽管如此,人工智能(或软件或算法)的潜力还是很大的,关键领域是在线生活。基于波特兰的创意技术开发商Feel Train与著名的Black Lives Matter活动家DeRay McKesson合作,联手推出了一个名为@staywokebot的Twitter机器人,该机器人旨在为黑人活动家提供支持性信息,并承担面对社交媒体噪音的一些压力;最终它的目标是作为101级问题的前线,如“为什么不是所有的生命都重要”?机器人已经可以告诉人们如何与当地的代表联系,一个未来的目标就是为复杂而常见的正义问题提供答案,缓解积极分子自身不断参与这些对话的要求。

  除此之外,内容版主在像Facebook这样的平台上面临着反乌托邦式的恐怖,在2014年的《连线》杂志中详细地记载了一些特别可怕的细节,这可能看起来是一项不繁杂或者不需要娴熟技巧的工作。目前,算法只能简单地猜测一个笑话,短语或图像的语气或语境,所以人类的直觉仍然是很重要的。那么这个问题就在于,一个真正的人必须日复一日地看每一个潜在的违规内容,衡量每一个人的价值。基于这样的考量,一个智能机器至少可以形成第一防御,至此人类版主也许可能只需要研究一些微妙和更细微的情况。

  Mitu Khandaker-Kokoris是英国伦敦一家软件公司的首席创意官,这家软件公司专注于使用人工智能技术开发更加人性化和合理的角色交互——包括游戏世界以及外界棘手地区的社区管理。游戏社区是人们想要测试边界的许多复杂空间之一,就像想要找到让他们感到安全的文化场所一样。我向她介绍了她公司的工具之一,Ally——旨在使各种社会平台变得更安全,更具包容性。

从AI中获得情感智力,难道这仅仅是一个梦想?

  来源:Pixabay

  “我们如何处理人们彼此之间直接的情感虐待,我们该如何对这些进行干预呢? 目前,对于版主,对于受害者来说,不得不等到问题得到解决是很困难的。“Khandaker-Kokoris说。

  Ally提议去识别一些潜在的有问题的互动迹象——不仅仅涉及言论或直接接触,而且还包括缠扰或骚扰等行为。从那里,一个AI角色,其参数由产品所在环境的所有者决定,它将会对目标的行为提出否认,以及判断是否需要采取任何行动。

  这种方法可以让用户定义他们自己的个人界限,AI可以从他们与用户的互动中学习什么时候介入和为谁介入。“界限是超级复杂的,”Khandaker-Kokoris说。 “我们可以在某些时候确定某些事情,而不是其他事情,这甚至可能依赖于你当时的心情。所以这个AI角色以及你与他们的互动可以作为你与社区中其他人的互动的传递者。我认为这是一个明显的例子,这样我们可以减少对受害者以及版主的情绪负担。“

转载请注明出处。


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章