【[美]刘纪璐】儒家机器人伦理

栏目:学术研究
发布时间:2019-04-24 20:23:43
标签:人工道德主体、儒家伦理、功利主义、康德伦理学、阿西莫夫定律

儒家机器人伦理

作者:[美]刘纪璐

翻译:谢晨云、闵超琴、谷龙

点校:项锐

来源:《思想与文化》第二十二辑, 华东师范大学出版社2018年 6 月出版

时间:孔子二五七零年岁次己亥正月廿九日辛丑

          耶稣2019年3月5日

 

 

 

作者简介:

 

[美]刘纪璐著**刘纪璐(JeeLoo Liu,1958—),女,美国加州州立大学富乐敦分校哲学系主任教授,主要研究领域及方向为心灵哲学、中国哲学、形而上学、道德心理学。

 

谢晨云(1995—),女,江西吉安人,华东师范大学哲学系硕士研究生,研究方向:中国道教。

 

闵超琴(1995—),女,江西新余人,华东师范大学哲学系硕士研究生,研究方向:先秦哲学、美德伦理学。

 

谷龙(1991—),男,湖南耒阳人,华东师范大学哲学系硕士研究生,研究方向:中国佛教。

 

项锐(1989—),男,江苏镇江人,华东师范大学哲学系硕士研究生,研究方向:科学哲学。

 

[摘要]本文探究在所谓“人工道德主体”身上植入儒家伦理准则的功能性。本文援引儒家经典《论语》,思考哪些伦理规则可被纳入机器人道德。本文也将对比康德型、功利主义型、儒家型这三类人工道德主体,考察它们各自的优劣之处。本文认为,尽管机器人并不具备人所固有的道德情感,如孟子所捍卫的“四端”,但我们能够借由儒家所强调的那种道德准则来构建机器人的道德伦理。随着儒家伦理准则的植入,机器人可以有功能性的道德,从而使它们具备成为人工道德主体的资格。

 

[关键词]人工道德主体;儒家伦理;功利主义;康德伦理学;阿西莫夫定律

 

本文的研究得到了复旦大学的资助。笔者曾作为“复旦学者”在复旦大学访学一月。在此对于复旦大学哲学院的慷慨相助和访学期间的思想交流,谨致谢忱。

 

导言

 

随着人工智能技术的发展,智能的类人机器人很有可能在不远的将来出现在人类社会中。而它们是否真正具有人的智能,是否真正能够像人类那样思考,这还有赖于哲学层面的探讨。但可以肯定的是,它们将能通过英国计算机科学家、数学家、逻辑学家图灵所提出的人工智慧测试法(图灵测试法)——也就是说,如果机器人可以成功诱导和它们对话的人类把它们当作人类来看待,那么它们就可以被认证为具有智能。也许有一天,智能机器人将广泛成为我们社会中的成员,它们会主动分担我们的工作,照顾我们的老人,在酒店和宾馆为我们服务,在导航、军事甚至医疗领域替我们做重要的决定。我们是否应该为这些机器人配置道德准则,教导他们辨明是非?如果回答是肯定的,那么怎样的道德准则才能够塑造出合乎人类社会期许的人工道德主体(artificial moral agents)?

 

众多人工智能设计者乐观地认为,人工道德主体的发展总有一天会获得成功。在此前提之下,本文探究将儒家伦理准则植入人工智能机器人是否可以造就能跟人类和平共存的人工道德主体。本文通过援引儒家经典《论语》,来思考哪些伦理规则可被纳入机器人道德。同时本文也将儒家型人工道德主体对比以康德道德准则和以功利主义准则建立的人工道德主体,考察它们各自的优劣之处。本文认为,尽管机器人并不具备人类所固有的道德情感,如孟子所捍卫的“四端”,但我们能够借由儒家所强调的道德准则来构建机器人,使它们成为我们可以认可的道德主体。

 

对人工智能道德准则的探究不是仅仅作为未来主义的脑力激荡。M.安德森(M.Anderson)和S.安德森(S.Anderson)认为:“机器伦理学让伦理学达到前所未有的精细程度,可以引领我们发现当下伦理学理论中的问题,从而推进我们对一般伦理学问题的思考。”【1】本文将证明:对于机器人道德的比较研究,可以让我们看到讨论人类伦理的一些理论瑕疵。

 

一、机器伦理的兴起

 

让机器人预先考量行为后果,然后自行做出系统性的道德选择,这一点在目前看来依然遥不可及。然而,现今在人工智能机器的设计上已经存在专门为机器做具体选择而设计的指导原则,因为机器的一些抉择会带来许多道德后果。比如,我们可以对军用无人机进行编制,要是它侦测到在军事目标周边地区有许多平民存在,是应该立刻停止攻击还是持续发动攻击。我们也可以对医疗机器人进行编制,当病人已经进入重症末期而有突发情况,是让它实施援救措施还是放弃进一步的治疗。托肯斯(Ryan Tonkens)认为:“自动机器会像人类那样做出与道德相关的行为,因此,为慎重起见,我们的设计必须保证它们以合乎道德的方式来行动。”【2】因此,即使暂时还造不出“有道德的机器”,我们也必须考虑机器伦理。此外,我们所制定的机器伦理的版本,要能够适用于未来的机器道德思考主体,而非仅仅应用于机器人的设计程序。也就是说,机器伦理关心如何将道德准则应用于“人工道德主体”,而不是其设计者。

 

目前设计人工智慧机器有两种截然不同的进路,一种是“自下而上”,另一种是“自上而下”。【3】前者是让机器从日常选择所使用的零碎规则中逐渐发展出自己的道德准则。设计者赋予机器一种处理汇总信息的学习能力,这些信息是机器在不同的情境下,对由自己的行动所产生的结果的汇总。为了让机器形成某种行为模式,设计者可以建立一个奖励系统,鼓励机器采取某些行为。这样一种反馈机制能够促使机器及时发展出自己的伦理准则。此种进路类似于人类在童年时期形成道德品性的学习经验。相比之下,“自上而下”的进路则是在机器身上植入能够控制其日常选择与行为的一般抽象的伦理规则。如果走这种进路,设计者首先必须选择一种伦理理论,分析“在计算机系统中执行该理论所必需的信息和总体程序要求”,然后才设计执行伦理理论的子系统。【4】不过,即使有预置设计,机器在每个道德情境中还是需要根据伦理原则程序,通过推演来选择最佳的行动方案。这种由上而下的设计方式将会反映出规范伦理学内部的争论,因为不同的伦理理论会制造出依据不同的道德准则而思维的人工道德主体。本文将比较这一研究进路中不同的理论模型,而不考虑执行过程所需要的实际算法、设计要求以及其他技术问题。

 

根据M.安德森和S.安德森的观点,机器伦理学的目标在于明确地定义抽象普遍的道德原则,使得人工智能在选择或是思考自身行为的正当性时可以诉诸这些原则。【5】他们认为我们不可能为每一种可能发生的情形制定具体的规则。“为机器设计抽象普遍的道德原则,而不是在每一个特定的情境中制定机器如何做出正确的行动,好处在于机器能够在新情境,甚至新领域中做出正确的行动。”【6】易言之,我们希望人工智能够真正成为人工道德主体,有自己的道德原则,同时基于这些原则做出道德考量,用这些原则建立自身行为的正当性。因此,机器伦理学中至关重要的一步,就是选择一组能够植入人工智能的道德原则。

 

二、电车难题与不同的伦理学模型

 

鉴于我们目前还没有真正有自主性、有意向性的机器人,对于它们在某种情境会如何行动依然还是一种未来的假想,因此我们可以暂借人类伦理讨论中的思想实验来讨论不同的伦理原则会造成怎样的伦理选择。这个思想实验即是著名的电车难题。

 

标准版电车难题:

 

有一辆失控的电车正沿着轨道疾驰,在其前方的轨道上有五人来不及躲避。机器人安检员(或司机)可以对此进行干预:拉动一个操作杆,把电车变换到另一轨道上。然而,另一条轨道上也有一个人。这里面临的选择是,牺牲一个人去救另五个人,还是不牺牲这个人而听凭那五人死去。机器人安检员或司机是否应该操作拉杆来制止灾难,还是应该什么也不做?

 

天桥版电车难题:

 

机器人安检员正站在电车轨道之上的天桥观察电车交通情况。它看到桥下的电车正沿着有五人滞留的轨道疾驰,必须立即采取行动干预。而在天桥上,机器人安检员旁边有一位身材魁梧的男子,他也注意到了同样的情况。如果机器人把该男子推到轨道上以挡住电车,那五个人就可能免于一死,但是这男子则必死无疑。机器人应当这样做吗?

 

面对这两种两难困境,道德主体必须做决定,是认为“拯救五个人的行为是不允许的,因为这一举动会造成伤害”,还是认为“这一举动是被允许的,因为这一伤害只是行善导致的一种副作用”【7】。实验表明,人们在电车难题中通常会选择牺牲一人去拯救另五人,却不会选择牺牲天桥上的男子去营救轨道上的另五人。在实验者看来:“这给心理学家出了一道难题:尽管在这两种情境之间很难找到真正合理的差别点,但究竟是什么原因使得几乎每个人在电车难题上都选择牺牲一人去拯救另五人,而在天桥难题中却未选择这么做?”【8】现在我们以这两种情境作为我们的测试场景,来思考设计人工智能的不同伦理学模型各自会有的后果。

 

就人类的道德情境而言,电车难题看起来似乎有些夸张而且不切实际;然而,在人工道德主体的考量上,机器伦理有可能出现类似的问题。我们不妨设想未来的特斯拉(Tesla)汽车在自动驾驶决定上加了一条主导的道德原则:如果伤害到人类是个不可避免的结果,那么,抉择必须以尽量减少伤害的人数为第一原则。【9】如果一辆载满学生的校车突然失控冲向一辆特斯拉汽车,而特斯拉汽车无法及时停车避免相撞,这辆特斯拉汽车应该冒着司机的生命危险而转向去撞路中间的隔离带呢,还是应该继续前行听凭两车相冲撞呢?如果特斯拉的道德考量可能最终会牺牲它的驾驶人,那也许就没人愿意购买一辆特斯拉了。这种预想情况和电车难题有些类似。在设计机器人的道德主体方面我们还可以设想其他很多跟电车难题类似的情形。因此,电车难题可以用来检测我们的机器伦理。

 

(一)阿西莫夫机器人定律

 

“自上而下”机器伦理设计方向一个很好的范例就是阿西莫夫(Isaac Asimov)于1942年提出的机器人三大定律【10】:

 

[A1]机器人不能以其行动伤害人,或因不作为而使得人受到伤害。

 

[A2]在不违反第一条定律的前提之下,机器人必须绝对服从人类给予的任何命令。

 

[A3]在不违反第一和第二定律的前提之下,机器人必须尽力保存自己的存在。

 

阿西莫夫后来追加了一条第零定律,优先于以上三条定律:

 

[A0]机器人不得伤害人类整体,或因不作为使人类整体受到伤害。【11】

 

第一定律与第零定律之间的区别在于,前者关注人类个体,而后者关注人类整体。第零定律优先于第一定律,这就意味着:为了保护人类整体,机器人可以伤害人类个体。科幻小说中有运用第零定律的例子:如果某些人类个体携带足以使人类灭亡的致命性传染病毒,那么机器人就有义务消灭这些个体。这个道德原则表面上看来很有道理,然而,在实际应用上则是极度有问题的,因为人类整体这个概念作为道德理念极为抽象,在人类历史上这个概念曾被用来作为很多邪恶行径的借口,比如纳粹分子以改良人种而残害犹太民族,或是其他以改良人类整体为名的种族屠杀。因此,第零定律作为最高级别的机器人定律完全有可能废除阿西莫夫三大定律。

 

用阿西莫夫三大定律来处理电车难题也显然捉襟见肘。在标准版电车难题中,第一定律禁止机器人拉动拉杆,因为这会伤害到另一轨道上的人;但该定律也不容许机器人袖手旁观,因为它的不作为会导致轨道上的五人受到伤害。在天桥版中,机器人将胖男子推下桥的行为是绝对禁止的,因为这直接伤害了人类;但与此同时,明明可以推下男子拦停电车,而机器人却袖手旁观,这就违背了第一定律的后半句要求。无论如何,这个机器人会处于没有道德引导的盲目状态。温菲尔德(Alan Winfield)等人曾进行过一系列试验,试验中的“阿西莫夫机器人”肩负着救人的重任。试验设计了三种不同的情景。第一种情景只放置了“阿西莫夫机器人”,而它的任务只是保护自己。这时“阿西莫夫机器人”可以百分之百保证自己不掉入坑里。第二种情景增加了代表人类的机器人H,而第三种情景则包含了两个代表人类的机器人H和机器人H2。在只有一个人类的情景中,阿西莫夫机器人可以成功地完成自己的任务。然而,如果(机器人H和机器人H2所代表的)两个人类面临掉进坑中的危险,那么在近一半的尝试中,“阿西莫夫机器人踌躇无助,结果两个‘人类’都命归黄泉”。【12】温菲尔德等人相信,他们所设计的这个试验非常契合阿西莫夫的第一定律。【13】因此,阿西莫夫机器人的失败,表明阿西莫夫定律不足以处理较为复杂的道德情境。为了解决这个问题,我们需要引入其他规则来指导机器人如何在道德困境中做出正确的选择。

 

在讨论人类伦理规范的种种理论中,除了规范性道德原则的走向之外,还有品德伦理学、关怀伦理学的种种提案,对人类规范性道德来说,这也许是目前更普遍被接受的理路。但是机器人是否可以具有道德品德、道德情怀,或是如何建造有品德、有情感的机器人,都是很有困难也非常容易引起质疑的议题。因此我们姑且不谈。在讨论机器人道德准则的文献中,康德伦理学或功利主义伦理学是最主要的范本。我们不妨对此二者进行一番考察。在讨论这两种道德准则时,我们也不是讨论整个康德道德哲学或是功利主义的各个层面,而是专就其理论中的道德准则运用在机器伦理建构的后果作比较研究。

 

(二)人工道德主体的康德伦理学准则

 

机器伦理学中主导的伦理模型之一,便是康德的道德哲学。许多机器伦理学家认为康德的道德理论提供了一个可以让“我们把伦理学成功应用于自主机器人的最好机会”【14】。康德的规范伦理学是一种义务论,它在进行道德判断时诉诸人的责任感而非情感。“责任是种规则或律令,与之相伴的是我们在进行选择时所感到的约束或动因。”【15】我们不难理解为什么机器人伦理学自然会选择康德道德哲学:对于康德来说,人类的自身利益、欲望、自然倾向,以及诸如荣誉感、同情感与怜悯感之类的道德情感,这些都完全没有道德价值。康德认为,即使某人在向其周围传播幸福时找到了自己内心的喜悦,并且在别人对自己的工作表示满意时而感到欣喜,无论上述行为多么正确或令人喜爱,它“依然没有真正的道德价值”【16】。真正的道德行动必须纯然依据理性存在者的责任感。由于缺少感性,不会受到人类情绪和欲望的干扰,机器人将成为实现康德纯粹理性的道德模式的理想对象。

 

康德的第一条绝对律令表述如下:

 

[D1]我应当永远不会行动,除非以这样的方式,即我的行为准则将成为普遍法则。【17】[另一个版本:行为的准则必须是在选择当下行为准则时,同时认知这个行为准则可以成为普遍法则。]

 

准则是一个人的主观意志原则,而普遍法则是一种本质上约束着一切理性存在者的道德律。康德的“绝对律令”基于以下假设:个人的道德抉择不是当下的意气用事,而是在对当下特定情境进行思量考虑后的结果,人类的道德选择是伴随着对特定情境的考量出现的,且这一考量与个人在处理临时情况时所采用的个人原则相一致。也就是说,个人的道德抉择是个理性的过程,而理性的第一条件就是一致性(矛盾是缺乏理性的一个表征)。康德的“绝对律令”将个人的主观意志原则与普遍法则结合,不仅要求个人的内在一致性(intrapersonal consistency),同时要求人与人之间的同一性(interpersonal agreement)。这一绝对律令的作用就像一条禁令:不要选择不能普遍化的主观意志原则,不要做出违背普遍法则的行为,比如因遭遇不幸而自杀,明知不能依诺归还仍去借钱,沉溺于享乐而没有发展自身天赋,或是在自身不会遭遇危难的情况下仍然拒绝帮助急需帮助的人。即使这种种行为在当下是我们最有意愿去做的事,但从道德理性上考量我们仍不应该放任自己的行为。这种自律的道德,在康德看来,是人类道德的本质。

 

在机器人伦理学方面,我们可以用康德的第一条绝对律令来制定这样的机器人道德律:

 

[DR1]一个机器人的行动必须遵守如下法则,即它所做的选择在原则上应能成为其他机器人的普遍法则。

 

由于机器人伦理学必须设计出一种让机器人在个别情况下,能根据预定原则而做出决定的行动程序,我们必须以情境伦理学的基础,在行动过程中给予个案考量,但是这些主观的行为准则又必须能被普遍化。对人类来说,这种自律的行为是人类道德理性思考的结果,但是要让机器人能做类似的考量才做选择,而不是仅仅服从僵硬的程序法则,我们必须为机器人配置搜寻功能,即搜集每一情形中可能后果的数据,并计算其结果,才能决定是否采取行动或是采取何种行动。换句话说,机器人伦理不得不接受道德后果论,而不是如康德所要求的道德动机论。

 

如果说康德的第一条绝对律令可以起到禁令的作用,那么他的第二条绝对律令则给出了更具体的道德引导:

 

[D2]应当以这样的方式行动,即永远不能把人(自己或他人)仅仅当成手段,而是永远视为目的。

 

这个律令表达人类存在的尊严性。我们永远不能把人仅仅看作达到目的的手段。人们有自由意志。把他们当成达到目的的手段是对他们自主性的否定。(比如说绑架勒索的恐怖主义行为即完全违反这条律令,不管当事人如何用政治理由来证明其行为的正当性)。

 

就机器人伦理学而言,我们可以运用康德的第二条绝对律令制定如下的机器人行为法规:

 

[DR2]一个机器人必须如此行事,即永远不能把任何人仅仅当成手段,而是永远视为目的。

 

前面提过在面临电车难题困境时,人们的典型反应如下:在标准版中,一般人都选择牺牲一个人去救另五个人,而在天桥版中,大多数人会拒绝把一个人从天桥上推下去以救轨道上的五个人。在标准版中,人们所使用的基本原则似乎更看重5∶1的人命比。但在天桥版中,为了使电车停止而把一个人推下桥去显然违背了第二条绝对律令。格林(Joshua Greene)认为:“人们在标准电车难题中的反应是典型的后果论思维,而在天桥版本中的反应则是典型的道德义务论。”【18】格林认为,人们之所以会有不同的反应,是因为“尽管后果相似,但在近距离亲手杀死一个人(如在天桥困境中)的想法比起没那么直接(如在标准电车难题中操作拉杆)的想法具有更大的情绪影响”【19】。格林认为,我们自觉的道德判断其实是主观潜意识对当下情境的整体回应:“我们完全没有意识到,我们是把潜意识中的觉知、记忆,以及情绪处理为合理的叙事,从而让它们释放到显意识之中并做出回应。”【20】可见理性道德判断是由内在情绪反应来驱动的。所以康德的义务论进路其实不是理性主义,而是更接近情感主义的主张。格林称其为“康德灵魂的秘密玩笑”。

 

不过,机器人或是其他人工智能都没有潜意识或情感,也不会有来自下意识的情绪影响,所以它们的决定过程会跟人类很不一样。我们现在可以考虑一下康德伦理学是否能使得机器人在面临电车难题困境时做出和人类一样的选择。

 

很显然的,在天桥版本中,机器人会拒绝把那名男子推下桥,因为这样做将明显违背DR2。所以这不必多虑。然而,在标准版本中,机器人的道德引导就不那么明确了。如果机器人依照在它看来可以通用于一切机器人的原则来行动,那么它可能无力做任何事。人类通常以一种自发、直觉的方式来判断他们自身的行为准则是否能够成为普遍法则。但是,如果想让机器人做出同样的判断,那么,在设计程式上要么给它装备一个巨大的数据库,其中包含了其他机器人以相同的方式行动所造成的一切可能后果(因为机器人能够判断行动对错的根本是后果论的思维),要么给它配备人类所拥有的直觉,可以当下判断对错。但是前者会有数据庞大而且不完整的困难,后者则要面对技术瓶颈,因为人工智能不可能获得人类所具有的直觉本能。因此,康德的第一条绝对律令无法为机器人做道德抉择提供一个充分的指导基础。

 

在此,设计康德式人工道德主体碰到了一个根本性的悖论。康德的第一绝对律令基于其道德形而上学的理念,认为所有的人都是自主的理性存在者。理性存在者是“目的王国”的公民,分享同样的“共同法”,并遵守着他们自己所制定的普遍道德法则。他们是自主的,因为他们是完全的理性主体,“平等参与共同体道德原则的制定”。【21】但是从其设计本身来看,人工道德主体就是一些服从于程序命令的机器。它们不会为自己立法,也不会因为彼此是平等的立法者而相互尊重。此外,它们还缺乏自由意志,而自由意志对于康德式的道德主体来说必不可缺。因此,托肯斯称它们为“反康德的”。他说:“我们要求康德式的人工道德主体的行为符合道德,但事实上它们的发展违背了康德的道德,这使得它们的发展受到道德上的质疑,同时也使得我们作为它们的创造者有点虚伪。”【22】因此,不仅将康德的伦理准则应用于人工智能是个问题,事实上创造人工道德主体本身从康德的角度来看就是不道德的行为。托肯斯认为:“通过创造康德式道德机器,我们仅仅是把它们当作手段,而不是当作目的本身。按照康德哲学,道德主体自身是目的,因此之故,他们应当被尊为目的。违背这一法则就是将主体仅仅当作客体,被用作达到其他目的的手段。”【23】换句话说,即使我们能够创造出遵守DR2的机器人,即便我们不把机器人算作人类之成员,这一创造活动本身就已经违背了康德的道德原则,因为这一活动制造出纯为手段,而不以目的存在的人工道德主体。

 

(三)人工道德主体的功利主义伦理学准则

 

另一个常见的方案是将功利主义伦理学准则应用于人工道德主体。简单地讲,功利主义原则以行为可能的后果来判断行为的对错:能够促进幸福或快乐的行为是对的,而产生痛苦的行为则是错的。密尔(John Stuart Mill)认为,唯有快乐本身具有内在价值。它的价值在于人们的欲望。换句话说,“好的”等同于“可欲的”。密尔说:“要证明任何东西是可欲的,唯一可能的证据是人们实际上欲求它。”【24】所谓“好”的结果不过是人们欲求的事情,而“坏”的结果则是人们厌恶的事情。这种理论的基础是古代的快乐论。不过根据德赖弗(Julia Driver)的看法:“自二十世纪初期开始,功利主义经历了多次修正。二十世纪中叶以后,它更多地被视为一种‘后果论’,因为几乎没有哲学家完全认同古典功利主义的观点,尤其是它的快乐主义的价值理论。”【25】功利主义最大的特征是仅考虑会有多少人受到这个行为影响,而不考虑行动者本人的个人利益。功利主义原则的标准表述如下:【26】

 

[U]一个行为正确的充足必要条件就是这个行为,比起行动者可能采取的其他行为来说,能够对所有会受到影响的人产生更大的利益,或是更小的伤害。

 

对于人工智能,我们可以将U改写成UR:

 

[UR]在权衡了所有可能采用行为的后果之后,机器人必须选择的行动是对于所有会受到影响的众人来说,或者能实现最大的利益,或者能阻止更大的损害。

 

以上的两种准则都是从后果论的角度来衡量行为选择的正确性。现在我们来看一下关于机器伦理学的后果论模式的一些研究。

 

图卢兹大学(the University of Toulouse)的本尼冯(JeanFranois Bennefon)、俄勒冈大学(the University of Oregon)的谢里夫(Azim Shariff)与麻省理工学院(MIT)的雷迈(Iyad Rahwan)共同开展了一项研究,要求参与者对以功利主义伦理原则来设计的自动驾驶汽车做出评价:在功利主义的伦理准则设计下,这种车子为了避免冲向一群行人而造成更大伤害,会宁愿牺牲自己和开车的主人(司机)。这些学者的研究发现,尽管参与者普遍肯定这种车辆所带来的结果更好,但他们自己并不想购买这样一种自动驾驶汽车。研究的结论是,参与者“在道德偏好上压倒性地认同功利主义的自动驾驶汽车,因为它能将伤亡人数降到最低”。【27】但是,当被问及他们是否会购买这种功利主义的自动驾驶汽车,参与者就没有多少积极性了。研究者指出,“尽管参与者依然认为功利主义的自动驾驶汽车是最道德的,但他们更愿意为自己购置具有自我保护模式的汽车”。【28】这种双重标准产生了一种社会困境:“一般人倾向于认为功利主义式的自动驾驶汽车是对社会整体来说最好的设计,因为这种模式的车子可以减低伤害率,使得社会中每个人都受益更多。但是人们又同时出于个人动机,只想乘坐会不计一切代价而保护他们自己的自动驾驶汽车。因此,如果具有自我保护模式的自动驾驶汽车和功利主义模式的自动驾驶汽车同时进入市场,几乎没有人会愿意选择功利主义模式的自动驾驶汽车,尽管他们却希望别人这样选择。”【29】没有政府的强力推动和管制,这种功利主义模式的自动驾驶汽车将不会出现在市场上。但是,如果政府采取强力推动,则可能出现对采用这一模式的更大阻力。换句话说:“政府管制汽车安全并采取功利主义的模式所引发的阻力,反而会使得汽车工业延迟通过推广更安全技术的使用,结果造成的却是更高的伤亡率。”【30】社会效益和个人利益之间的矛盾显示了人工智能的功利主义模式的潜在问题。如果这些研究中的参与者会不情愿去购买功利主义模式的汽车,那么普通大众也很有可能会因为自利心理而抵制把功利主义伦理学应用于为我们服务的道德机器人。

 

除了以上所述功利主义人工智能令人不满意的地方,另外一个问题是,如果在我们的社会中存在这样的人工道德主体将会带来巨大的危险。一般人在电车困境标准版和天桥版中的不同反应表现出人们倾向于避免那些会明显给他人带来伤害的行为。一般人并不总是喜欢功利主义的思考方式,尤其是当这种思考模式指引他们牺牲少数人的利益,而这些少数人包括他们自己、亲人和熟人。除了一些个别的英雄举动,很少有人会为了大多数人更大的利益或是更好的结果而去牺牲自己或是自己所爱的人。但另一方面,人工智能则没有这样的心理障碍。在UR的指导下,只要局部的摧毁可以带来社会更高的利益,功利主义人工智能的机器人就可能会选择摧毁。这个模式将面临与阿西莫夫第零定律同样的困境。

 

从人类与人工智能的差异,我们也看出功利主义永远也不会成为人类主要的道德原则。即使我们的道德思维诉诸功利主义原则,我们的情感、个人利益和其他考虑都会让功利主义的思维变得“不纯粹”。如果我们像人工道德主体那样进行纯粹的功利主义道德考量,那么其结果对人类社会来说将是巨大的威胁。正如M.安德森和S.安德森所指出,功利主义会“侵犯人权,因为它可以牺牲个人以获得善的更大净值。功利主义也违背我们对于正义,即对‘什么是人们所应得的’的看法,因为人们所应得的是反映其过去行为的价值,但是功利主义对行为对错的判断却完全取决于行为的未来结果”。【31】功利主义在规范伦理学中仍有吸引力,也许正是因为人们从来不会完全地、绝对地遵从功利主义的规范。

 

三、儒家机器人伦理

 

当今儒家学者具有的共识是,儒家伦理并不是一种规则引导的规范伦理,而是一种德性伦理,注重培养道德主体的道德品质和善良性格。在设计机器人的道德抉择过程中,我们必须要把儒家伦理转化为一种可运用、可践行的道德规则。因此,我们必须对儒家道德规则进行一番新的解读,从《论语》中提炼出可以加在人工智能设计中的道德律令。【32】

 

《论语》中有很多被高度重视的美德,它们可以被转化为儒家机器人伦理学的道德规则。本文挑选了三种主要的美德:忠(loyalty)、恕(reciprocity【33】)、仁(humanity)。之所以选择前两种美德,是因为孔子重要的弟子之一曾子说,忠恕是夫子的一以贯之之道(《论语·里仁》【34】)。之所以选择第三种美德,是因为在整个儒家传统中“仁”是最重要的美德,孔孟均重视它,后来的宋明儒家还对此作了进一步阐发。

 

孔子对于“忠”言之甚详。它是孔子的“四教”之一(《述而》),并且和“恕”一起构成了孔子的一以贯之之道(《里仁》)。在个人道德培养方面,孔子说君子把“忠”和“信”作为第一原则(《学而》、《子罕》)。弟子问,如何崇德辨惑,孔子建议说:坚持忠信,“徙义,崇德也”((《颜渊》)。“忠”对于国家治理也很重要。孔子告诉鲁国的国君,要想百姓忠,君自身就必须“孝慈”(《为政》)。孔子告诉宋定公,“君使臣以礼,臣事君以忠”(《八佾》)。但“忠”不是盲目顺从,而是要向君“提建议”(诲)(《宪问》)。弟子问:“令尹子文三仕为令尹,无喜色,三已之,无愠色。旧令尹之政必以告新令尹,何如?”孔子回答说:“忠矣。”(《公冶长》)弟子问政,孔子说:“居之无倦,行之以忠。”(《颜渊》)上述例子表明,在孔子看来,“忠”既是私德又是公德:无论是修身,还是参与公共事务,“忠”都是至关重要的。

 

笔者曾指出:“忠并不是一种直接针对他人的关系;相反,它指向一个人所承担的角色。在这个意义上,忠可界定为‘做应做的’或‘忠于角色’。换句话说,社会角色不只是社会任务;它还是道德任务。‘忠于某人的角色’意味着,能够做出与道德义务相应的行动,而道德义务则伴随着社会角色。因此,‘忠’是忠于一个人的道德义务,履行一个人的角色所规定的社会责任。”【35】这一解释可以得到进一步的支持:孔子建议弟子“与人忠”(《子路》)。这里的“人”不限于君,还包括朋友和陌生人。《左传·昭公二十年》记载孔子言:“守道不如守官。”“道”当然是士人知识分子的最高目标,但是并不是每个人都可以事事以道为主。如果每个人都能善尽职守,尽心尽力,那么道行天下也就不是遥不可及的目标了。《论语》里孔子也强调:“不在其位,不谋其政。”(《泰伯》)儒家强调名正言顺,角色之名定位角色之职。越俎代庖常常造成职责混乱,是非不明。这个固守职分,不干预他事的道德准则对于人类有用,对于机器人来说尤其重要。

 

根据对“忠”这一美德的上述解释,我们就有了儒家机器人伦理的第一条道德原则:

 

[CR1]机器人的首要职责就是履行指派给它的角色责任。

 

表面上看来,这一道德准则似乎微不足道:我们设计机器本来就是要它完成任务的。但是,这个律令其实具有第一要位:我们所讨论的是有可能成为全知全能的“机器神”,在无法由程序员事先预测所有情境中机器人所可能做出之判断的情况下,我们需要对这些可能的情形有所防备。我们不能给予人工智能如神一样的超人能力,拥有对任何人与事的所有决定权。我们需要先界定它们的职权范围。CR1建立了明确的分工体制:提供健康服务的机器人应专门忠于提供健康服务的角色,而不是去判断病人的生命值不值得救,或者判断是否要帮助病人实现安乐死的愿望。无人自动驾驶汽车应履行保护乘客安全的职责,而不应该选择自动撞树、牺牲乘客,以避免冲向一辆校车而发生灾难性的悲剧。这样的决定超出各个人工智能被设计的角色。因此角色定义是建立人工道德主体的第一步。

 

《论语》中另一个重要的德行是“恕”。关于“恕”,孔子称其“可以终身行之”,并对其作了进一步规定:“己所不欲,勿施于人。”(《卫灵公》)另一处,弟子子贡说:“我不欲人之加诸我也,吾亦欲无加诸人。”孔子告诉他:“非尔所及也。”(《公冶长》)从这两处看,恕的内涵被具体定义为一种人际交往中所体现的风度和心理状态。相对于基督教的金律“你们愿意人怎样待你们,你们也要怎样待人”,儒家的“恕”观念经常被称作“负面形式的金律”,因其禁止人们做什么,而不是具体命令人们做什么。笔者曾指出,“恕”的这种形式优于基督教的金律,因为人们所不欲的比人们所欲的更具有普遍的基础。“一般而言,我们不希望别人羞辱我们,嘲笑我们,偷我们的东西,伤害我们,或者以任何方式虐待我们。因此,我们理应不要以这些方式虐待别人。即便我们愿意别人以某种方式对待我们,儒家金律也没有建议我们以同样的方式对待别人。因此,它避免了基督教的金律所碰到的将主观偏好强加于别人的问题。”【36】

 

然而,就机器人伦理而言,我们会遇到机器人缺乏意愿的问题。若机器人对于自身没有任何意愿,那么它们如何评估自己行为的后果是否是他人(其他人类)不想施诸于己的呢?我认为这个问题可以通过在设计时加入一个普遍人类偏好的计算程序来解决。美国哲人普特南(Hilary Putnam)曾经建议运用功能主义所使用的方法,将一定的偏好作为机器的“偏好功能”植入机器中。能够做这样判断的机器首先应该具备对人类偏好的局部排列和一套归纳逻辑(也就是说,机器必须能够从经验中学习),以及某些“痛觉传感器”(比如,监测机器身体的伤害、危险温度或危险压力的常态化工作的传感器等),而且“某些特定范围内的输入信号可以在机器的偏好功能或行动指令排列为具有高的负价值”。【37】按照这种方式,人工智能主体可以对伤害其他人类的行为指派负值,同时也对伤害自身的行为指派负值。机器人儒家伦理学的第二条规则便可表述如下:

 

[CR2]在有其他选项存在的情况下,机器人不能选择会给他人带来最高的负值结果或最低的正值结果(根据人类偏好的局部排列)的行动。

 

跟“恕”作为负面的禁令一样,如此表述的CR2也是对于“不可做什么”的禁令。在CR2的普遍律令下,除非在特殊情况下有其他更高的道德原则压过“不可做什么”的禁令,机器人永远不能选择伤害人类,永远不能在没有正当理由的情况下给人类造成痛苦,永远不能剥夺某人珍视的财产或是享受,如此等等。这一道德规则与阿西莫夫第一定律相类似:“机器人不能伤害人类,或看到人类受到伤害而袖手旁观。”然而,这条道德指令比阿西莫夫第一定律灵活得多,因为有可能存在某些特定的负值偏好会超过一般人对于伤害的负值偏好。比如说,人们也许对极度不公平的厌恶会远远超过他们对身体伤害的避免。因此我们不难想象在某些情况下,被设计成带有相应的角色任务和偏好指令的机器人可能会参与反抗不公与滥权的革命起义。

 

最后,儒家机器人伦理学选择的重要德性是“仁”。倪培民认为:“‘仁’是儒家哲学的核心。它在《论语》中出现了109次。《论语》全书499章,共有58章讨论‘仁’这一主题。”【38】在孔子看来,仁德最难培养。他最得意的弟子颜回也只能“其心三月不违仁”,而其他弟子则“日月至焉而已矣”(《雍也》)。当被问到某人是否有这一品质时,孔子即使承认他有其他一些可取的品质,也很少许之为仁(《公冶长》第五、八、十九章)。同时,孔子认为,一个人能否获得仁德,纯粹取决于意志力。他说:“仁远乎哉?我欲仁,斯仁至矣。”(《述而》)孔子极力表彰“仁”,认为“唯仁者能好人,能恶人”,并且“苟志於仁矣,无恶也”(《里仁》)。若说康德的理想是“目的王国”,那么孔子的理想便是“仁的王国”。孔子谈到“里仁为美”,还谈到“君子无终食之间违仁,造次必于是,颠沛必于是”(《里仁》)。“仁”确实是儒家道德教化的核心美德。

 

然而,孔子大多数关于“仁”的言论都是在说仁人可以做什么或不可以做什么,而没有说到“仁”的内容。弟子问仁,孔子说“仁者,其言也讱”(《颜渊》)。孔子在别处也谈到“巧言令色,鲜矣仁”(《学而》)。孔子只在少数几处具体描述了何为“仁”。弟子问仁,孔子回答道:“爱人。”(《颜渊》)孔子还谈到,“君子笃于亲,则民兴于仁”(《泰伯》)。颜回问仁,孔子告诉他:“克己复礼为仁”,且要“非礼勿视,非礼勿听,非礼勿言,非礼勿动”(《颜回》)。其他弟子问仁,孔子提了三个要求:“居处恭,执事敬,与人忠。”(《子路》)此外,孔子还用五德解释“仁”:“恭、宽、信、敏、惠。”(《阳货》)然而,对仁德最明确的说明莫过于下面这段话:“己欲立而立人,己欲达而达人。”(《雍也》)换句话说,仁德要求道德主体帮助他人以及其他生物成就自身。不过,孔子对于仁人所要成就的目标有进一步的限制。他说:“君子成人之美,不成人之恶。”(《颜渊》)易言之,孔子“仁”的理想是为了使他人成为他更好的自己,或者可以这么讲,帮助他人达到“仁”的境界。这一品质将是我们想要在机器人身上建立的最重要的特性。

 

将仁德转换为给予人工道德主体的道德准则,我们就得到CR3:

 

[CR3]在不违背CR1或CR2的前提下,机器人必须帮助其他人类追求道德进步。如果有人的计划会促进其品德的败坏或道德的堕落,那么机器人就必须拒绝帮助他们。

 

这里强调的提供帮助,意味着机器人的行为是根据人类所给出的要求或指令来协助进行的。换句话说,机器人并不自行决定什么对人类主体来说是好的,或者什么是人类主体应当成就的。同时,运用这个道德规则编程,当人类的命令是为了作恶时,机器人会拒绝提供帮助。这样,我们不但有了不会伤害人类的人工道德主体,而且也可以防范其他人利用人工智能去干坏事。

 

有了以上三条规则,我们就有了儒家机器人伦理学的基本形式。现在所列举的儒家机器人伦理学准则绝对没有穷尽一切儒家伦理运用的可能性。可能有不止一个版本的儒家机器人伦理学;选择不同德行的集合和不同的机器伦理准则都有可能与《论语》文本相兼容。有些儒家机器人伦理学的版本可能会给我的理论模式带来巨大挑战。比如,内泽伍德(Drayson NezelWood)认为,《论语》中能解决电车难题的两个主要的价值是“孝”与“和”。【39】他认为,儒家的爱有差等,始于最亲近的家庭成员,进而扩展到国家,然后才是陌生人及其家庭;这意味着,如果轨道上的那个人居于差等序列的最高等级,那么儒家式的人工智能就会选择救这一个人而不是其他五个人。内泽伍德所想到的情景包括,救所爱的人(如人工智能的主人)而牺牲皇室成员,救君王而非救另外五个人(即使这五人都达到了君子的道德水平),救一个君子而非救五个庶民,如此等等。但是我并不认为儒家是像他所说的那样对人的生命价值进行了分级,也不认为儒家人工智能会做出如上的伦理判断。我认为儒家“亲亲”与“孝”的观念并不意味着所亲之人的生命重于其他人的生命。但是,内泽伍德有一点讲得很对:儒家人工智能主体不会自动使用功利主义原则去不涉及情感地以人数多少来作选择标准。那么,儒家人工智能主体在标准版和天桥版电车难题中究竟会如何行事?

 

在天桥版本中,执行儒家伦理准则的机器人永远不会采取将人推下桥的行动,因为这么做显然把三条道德原则都违背了。在标准版本中,判断则要复杂得多。如果机器人是电车司机或铁道管理员,它的职责会命令它拉动操作杆,使得这个电车在所有可选项中尽可能造成最小的伤害。即使某人与机器人的设计者有特殊的关系,机器人也不会对这个人抱有偏爱,因为在机器人的设计编程中并没有加上偏爱或是特别情感。如果机器人只是一个路人,那么根据CR1,它没有任何义务采取行动,而且根据CR2的禁令,机器人更倾向于袖手旁观而非采取行动。因此,一个路人机器人不应采取任何行动来使疾驰的电车转向,即使这么做能够减少伤亡人数。

 

在标准版电车难题中,依照儒家伦理律令行事的机器人,除非是电车司机或铁道管理员这类特殊角色,是不会拉动操作杆的。在天桥版本中,依照儒家伦理行事的机器人,不论是什么职分角色,都不会将那名男子推下桥以使电车停止。如此看来,机器人的决定会不同于大部分人类的直觉选择,因为机器人不会像人类在天桥情景中那样受到无意识的情感挣扎的影响。【40】儒家机器人不会因自身的“行动”而对任何人造成伤害,或强迫任何人接受他们不愿接受的结果,即使它可能因为自身的“不行动”而没有防止对别人造成的伤害或发生别人不情愿接受的后果。在不久的将来,当我们的社会中存在可自我管制、自主行动的人工道德主体时,当不论它是否采取行动都会导致对人的伤害和带来我们不愿看到的后果时,我们宁可它选择袖手旁观,而不是采取行动。

 

结语

 

M.安德森和S.安德森在他们关于机器伦理学的著作中提到:“机器伦理学的终极目标……是要创造出一种‘自律’的机器人,它们会自己遵守一些理想的道德原则;也就是说,它们可以在这些道德原则的指引下自行决定应该采取何种行动。”【41】他们也认为,研究机器伦理学的另一个好处在于这“可能会带来道德理论上的突破,因为机器十分适合于我们检测坚持遵循一个特定的道德理论将会导致何种结果”【42】。本文考察了四类机器伦理的道德模式,即阿西莫夫定律,两条康德式的“绝对命令”,功利主义的“效用原则”,以及儒家的忠、恕、仁道德原则。在比较了这些道德模式对于电车难题的标准版和天桥版的解决方案之后,本文认为儒家的道德模型要优于其他三种道德理论。

 

当然,我们设计人工道德主体的初衷不是仅仅为了处理电车难题以及类似的问题。在许多其他实用方面,儒家的人工道德主体可以成为人类社会很好的补助。首先,我们可以按照分配给儒家道德机器人的角色来为其设计具体的工作,比如,为老年人提供帮助,为病人提供保健服务,为游客提供向导服务,为汽车提供安全导航,等等。它的首要职责是忠于角色;因此,它在特定情境中所做的其他任何决定都不能违反其职责。第二,儒家机器人具有精确计算出的偏好指令,不会采取将给其他人类带来极大的负面价值(包括伤害)或极不可欲后果的任何行动。这一原则要优于阿西莫夫第一定律,因为它既允许了更多对负面价值的考虑,又让机器人在权衡可允许的行动范围时更加灵活。而且,它也要优于康德原则或功利主义原则,因为这一道德原则基于儒家的“负面形式的金律”,它的作用是禁止做出错误行动,而不是靠主观意志原则去采取自以为是的行动。在可预见的未来,在我们可能会将主动权交给人工智能的情境中,这一原则可以保护我们避免受因人工智能故意牺牲人类而带来的伤害,尽管人工智能或许会考虑它们的行动将带来多大的利益。最后,儒家道德机器人将是有仁德的机器人:在CR3的引导之下,它会协助而不会阻碍人类去努力行善,去成为更好的人,去建设更加美好的世界。也许,最终的人工智能发展会促成人类和人工智能共同生活在孔子理想中的“仁的王国”之中。

 

参考文献

 

1. Michael Anderson & Susan Leigh Anderson, “Machine Ethics,” IEEE Intelligent Systems, 2006, 21 (4):11.

 

2. Ryan Tonkens, “A Challenge for Machine Ethics,” Mind &Machines, 2009,19(3): 422.

 

3. 当然也有将这两种进路结合起来的方法。

 

4. Wendell Wallach & Collin Allen, Moral Machines: Teaching Robots Right from Wrong, New York: Oxford University Press, 2009, p.80.

 

5. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” AI Magazine, 2007,28(4):15-25.

 

6. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.17.

 

7. Deng Beor, “Machine Ethics: The Robots Dilemma,” Nature, 2015,523(7558):2426, DOI: 10.1038/523024a.

 

8. Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment,” Science, 2001,293(5537):2106.

 

9. 这类例子在自动驾驶或无人驾驶汽车中不胜枚举。可参见JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6239):15731576, DOI: 10.1126/science,aaf2654;Deng Beor, “Machine Ethics: The Robots Dilemma,” Nature, 2015,523(7558):2426, DOI: 10.1038/523024a;Larry Greenemeier, “Driverless Cars will Face Moral Dilemmas,” Scientific American, June 23,2016 (https://www.scientificamerican.com/article/driverlesscarswillfacemoraldilemmas);William Herkewitz, “The Selfdriving Dilemma: Should Your Car Kill You to Save Others?”, Popular Mechanics, June 23,2016 (http://www.popularmechanics.com/cars/a21492/theselfdrivingdilemma)。

 

10. 阿西莫夫1942年的科幻小说《转圈圈》(Run around)中首次引入三大定律。瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)认为:“任何讨论‘自上而下’式的机器人道德设计不能不谈阿西莫夫三大定律。”见Wendell Wallach & Colin Allen, Moral Machines: Teaching Robots Right from Wrong, p.91。

 

11. Wendell Wallach & Colin Allen, Moral Machines: Teaching Robots Right from Wrong, p.91.

 

12. Deng Beor, “Machine Ethics: The Robots Delimma,” pp.24-26.

 

13. Alan F. T. Winfield, et al., “Towards an Ethical Robot: Internal Models, Consequences, and Ethical Action Selection,” Advances in Autonomous Robotics Systems, 15th Annual Conference, TAROS 2014, Birmingham, UK, September 13,2014, Proceedings, Springer, 2014, pp.85-96.

 

14. Ryan Tonkens, “A Challenge for Machine Ethics,” p.422.

 

15. Robert Johnson & Adam Cureton, “Kants Moral Philosophy,” The Stanford Encyclopedia of Philosophy, Edward N. Zalta (ed.), Fall, 2017 (https://plato.stanford.edu/archives/fall2017/entries/kantmoral) .

 

16. Immanuel Kant, Grounding for the Metaphysics of Morals(1785), 3rd Edition, trans. James W. Ellington, Indianapolis: Hackett Publishing Company, 1993, p.11.(中译参考了康德:《道德形而上学的奠基》,《康德著作全集》第4卷,李秋零译,北京:中国人民大学出版社,2005年,第405页。——译者注)

 

17. 康德《实践理性批判》的表述如下:“要这样行动,使得你的意志的准则在任何时候都能同时被视为一种普遍的立法原则。”参见康德:《实践理性批判》,李秋零译,北京:中国人民大学出版社,2007年,第29页。——译者注

 

18. Joshua D. Greene, “The Secret Joke of Kants Soul,” Moral Psychology, Vol.3: The Neuroscience of Morality: Emotion, Disease, and Development, W. SinnottArmstrong (ed.), Cambridge, MA: MIT Press, 2007, p.42.

 

19. Joshua D. Greene, “The Secret Joke of Kants Soul,” p.43.

 

20. Joshua D. Greene, “The Secret Joke of Kants Soul,” p.62.

 

21. Robert Johnson & Adam Cureton, “Kants Moral Philosophy”.

 

22. Ryan Tonkens, “A Challenge for Machine Ethics,” p.429.

 

23. Ryan Tonkens, “A Challenge for Machine Ethics,” pp.432-433.

 

24. John Stuart Mill, Utilitarianism, 2nd Edition, George Sher (ed.), Indianapolis: Hackett Publishing Company, 2001, p.81. (中译参考了约翰·穆勒:《功利主义》,徐大建译,上海:上海人民出版社,2008年,第35页。——译者注)

 

25. Julia Driver, Consequentialism, London and New York: Routledge, 2012, p.24.

 

26. 功利主义可以是这里所表述的“行为功利主义”,也可以是“规则功利主义”。一个行为是否正确,是由它所遵循的规则的后果来决定:如果这个规则比起其他规则更能够产生更大的利益或是更小的伤害,那么这个规则就是可遵循的,而遵循这个规则的行为也就是对的。在人类规范性伦理学的讨论中,许多功利主义者认为功利主义必须被理解为规则功利主义。但是因为人工智能需要更精确的规则和程序来帮助它选择当下的行动,所以我们在此只讨论行为功利主义。

 

27. “大致说来,参与者都同意如果牺牲自己的乘客能够挽救更多的生命,那么自动驾驶汽车牺牲自己的乘客就是更为道德的抉择。”见JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6293):1574, DOI: 10.1126/science.aaf2654。

 

28. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1574.

 

29. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1575.

 

30. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1573.

 

31. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.18.

 

32. 如无特殊说明,《论语》引文由笔者自己英译,同时参考了 Raymond Dawson (trans.), Confucius: The Analects, New York: Oxford University Press, 1993,以及Peimin Ni, Understanding the Analects of Confucius: A New Translation of Lunyu with Annotation, Albany, NY: SUNY Press, 2017。

 

33. 这是倪培民的翻译。“恕”也经常翻译为“empathy”,笔者亦曾如是翻译。

 

34. 为简明计,下文引述《论语》,只注篇名。——译者注

 

35. JeeLoo Liu, An Introduction to Chinese Philosophy: From Ancient Philosophy to Chinese Buddhism, Malden, MA: Blackwell, 2006, p.50.

 

36. JeeLoo Liu, An Introduction to Chinese Philosophy: From Ancient Philosophy to Chinese Buddhism, p.55.

 

37. Hilary Putnam, “The Nature of Mental States,” reprinted in Hilary Putnam, Mind, Language, and Reality, Cambridge: Cambridge University Press, 1975, p.435.

 

38. Pemin Ni, Understanding the Analects of Confucius: A New Translation of Lunyu with Annotation, p.32.

 

39. 2017年夏天,我作为“复旦学者”在复旦大学访学。我邀请了几位研究生讨论用儒家机器人伦理解决电车难题。一位加拿大学生内泽伍德(Drayson NezelWood)接受我的挑战,发给我他的儒家解决方案,并附了一张详细的图表。他的观点很有意思,关于电车难题的图表也很有帮助,在此谨致谢忱。

 

40. 参阅Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment”。

 

41. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.15-25.

 

42. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.15-25.

 

责任编辑:近复