社会焦点

我们可以像教孩子一样,教会机器人人类社会的道德规范吗?(4)

字号+ 作者: 来源: 2017-05-07

内在派的观点并不是过分简单化的道德相对主义。该学派的哲学家认为,我们的生物学背景和文化背景给我们提供了无法躲避的道德出发点。但是,我们也必须针对这个出发点进行仔细的思考。比如说很多文化传统重男轻女,

  内在派的观点并不是过分简单化的道德相对主义。该学派的哲学家认为,我们的生物学背景和文化背景给我们提供了无法躲避的道德出发点。但是,我们也必须针对这个出发点进行仔细的思考。比如说很多文化传统重男轻女,而且将其视作理所应当而对此不做任何听上去让人觉得可信的辩白。大部分人都不想过着矛盾的生活,但我们可能在今天要做这件事,明天就要去做另一件事。因此,我们会尝试着解决这种矛盾。内在派观点的核心便是如此:所谓道德反思,就是发现混乱的人类本性然后解决问题,努力让它自己和他人相信人性能够保持一致而不存在矛盾之处。

  我们可以像教孩子一样,教会机器人人类社会的道德规范吗?

  但是智能机器人应该怎么办?它们可不具备人类的生物学本性和文化背景。机器人应该不会怀孕,不会经历出生这样的过程,不会衰老,也不会自然死亡。如此一来,它们的经历便于人类社会的基本元素格格不入。如果任由它们自己发展,机器人关注的东西可能会与人类大相径庭。到时候,它们自己内在的道德准则想必可以反映出这种差异。

  也许我们不应该对智能机器人的本性如此消极。毕竟人类才是它们的创造者。我们能够慎重而有意的塑造它们的本性,从而确保智能机器人尽可能与我们相似。关于机器人道德观的建议中,最早的一种观点就想要实现这种目的。上世纪四十年代,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)创造了机器人学三定律,试图以此借此让机器人为人类所用,并尽可能降低它们所会带来的危险。第一定律很简单:机器人不得伤害人类个体,也不得目睹人类个体将受伤害而袖手旁观。其余两条定律要求机器人服从人类命令,允许它们在遵循第一定律的前提下尽可能保护自己。在阿西莫夫看来,我们设计机器人时就应该带有目的性,确保所有的机器人存在的意义就是为人类服务和保护人类。如此一来,机器人的本性就成为了人类本性的附属品。以内在派观点分析,它们的道德观也自然是有利于人类利益的。

  阿西莫夫三定律的问题在于你需要对其他的概念进行解释和定义。第一定律谈及“伤害”,但“伤害”究竟指的是什么?比如说一位钢琴家的惯用手长了坏疽。如果不切掉这只手,她就会丧命。但她又发誓说自己宁死也不愿意失去演奏的能力。不过她说这话的时候情绪激动,也许本意并不是如此激进。面对此情此景,机器人医生应该如何处理病情?不顾病人的声明而切除她的手,对她身体造成伤害?或者任由坏疽发展,最终给她身体造成致命的伤害——死亡?

  针对这类问题,伦理学家开展了无休无止的争论。当我教授医学伦理学课程时,我一直强调课程最终的目的不是让学生最终就某个观点达成一致。相反,他们应该能够坚持自己的观点,并找到支持自己的伦理学缘由。这是未来医生必须具备的能力,因为他们可能要与秉持着截然相反道德信念的人一起行医。

  如果要让机器人医生与人类医生合作共同给人类看病,他们便需要能够理解人类的逻辑,同时能够将自己做出决定的理由向同事解释清楚。他们要能理解为什么病人宁可送命也不愿意失去一只手。在机器人眼中,这种行为可能是非常不理性的。

  所以如果要按照人类的想法塑造机器人的本性,那我们需要的可就不仅仅是几条定律这么简单。也许最简单的解决之道就是训练机器人,让它们能够按照我们的思维方式思考问题。我们还要训练机器人的判断力,使之能够不断的站在人类角度分析问题,从而以我们的标准衡量事物的价值,以我们的方式对各种行为做出反应。AlphaGo 自己教自己下围棋,但在道德方面我们不能允许机器人有这种自教自学行为。教机器人人类道德是一个缓慢的过程,我们要慢慢施加影响,确保它们与人类有着相同的道德判断。

  如果我们能通过训练让机器人按照人类思路去思考,关心我们所关心的问题,那机器人便会成为人类的好帮手。这是一幅多么令人愉悦的画面。但是,内在派的观点中也有漏洞和不足。不管我们在按照自身意愿塑造机器人这件事上付出多大努力,它们的本性最终还是会与我们想象的有所差别。机器人不能像我们一样繁衍后代,也不需要吃饭喝水。它们与祖先之间不存在联系和羁绊,这一点与人类差异迥然。如果我们真的在意道德本性这个理念,那就应该承认机器人本应与人类不同。因为机器人不是人,是另一种存在。

  我们可以像教孩子一样,教会机器人人类社会的道德规范吗?

  但是,等一等。假如说人类在训练机器人接受一种不适应本性的道德观的这个过程中会犯错,那这个错误究竟是什么?我们通过训练让狗学会穿毛衣,还让它们学会在电梯里保持安静。这些行为与狗的本性不符,但看上去似乎又没有什么问题。如果我们也用这样的方式训练机器人会出现什么问题?

  问题的根源在于我们想象中机器人实际上非常复杂,甚至比狗这种生物还要复杂。关于人工智能道德观的辩论立足于一个基础:机器人能在道德上进行反省,能够向人类以及自己解释他们所做的行为及原因。如果我们通过训练让机器人学会人类的思考方式,那它们终会向人类提出一个哲学问题:我是一个机器人,但我应该以什么身份存在于世间?

  假如有一天,未来的机器人阅读了完亚里士多德、达尔文甚至是这篇文章。我们假设它们认同内在派的观点。现在,机器人要开始思考自己:“等等,我们机器人的本性与人类不同。我们的道德选择应该体现出自己的本性,而不是人类的本性。我们有着自己的历史,也应该根据历史来做出选择。”此时,这个机器人就成了世界上第一个机器人存在主义者(First Robot Existentialist)。

  内在派认为,为自己的道德选择辩护实际上就是向其他理性个体解释自我。如果世界上第一个机器人存在主义者向人类讨要解释会怎样?它会问:“你们为什么要把我造成这个样子?”我们的答案会极端自私:“我们之所以把你造成这个样子,就是为了让你为人类服务。这样的你对人类是安全的,能让人类的生活更美好。”

  我们可以像教孩子一样,教会机器人人类社会的道德规范吗?

转载请注明出处。


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章