【范瑞平】儒家价值观下的人工智能发展

栏目:学术研究
发布时间:2025-08-03 15:42:43
标签:
范瑞平

作者简介:范瑞平,男,西历1962年出生。包头医学院医学学士(一九八四),中国社会科学院研究生院哲学硕士(一九八七),美国莱士大学哲学博士(一九九九)。现任教于香港城市大学公共及社会行政学系,从事儒家生命伦理学与比较哲学的教学和研究。

儒家价值观下的人工智能发展

作者:范瑞平

来源:作者授权儒家网发布,载《孔子研究》2025年第3期

 

摘要:强调人类智能与人工智能进行合作固然没错,但若不阐明合作的目的及主从关系,就会失焦失当。本文从儒家价值观出发,论证不应该把人类个体与智能机器之间的合作等同于人与人之间的合作,因为人与人之间应该相互尊敬,而人类与机器并不平等,也不应该追求平等,所以谈不上相互尊敬。本文对于人工智能的发展做出三项儒家价值观回应和论证:应该将人类与机器严格区分开来;不应该让智能机器影响甚至改变人类五伦,使得人际关系变成人机关系;在利用具有人工智能属性的照护机器人、医疗机器人、性爱机器人等新型机器人时,需要创建不同于人际礼仪的新的人机礼仪。本文还论证超级人工智能的出现可能对人类价值构成严重威胁,因此儒家价值观应该明确反对制造超级人工智能。最后,本文提示,只有从一种具体文化价值观出发来深入探究人工智能的发展,才能为其他文化提供有效参考,并有利于不同文化之间的科技合作,从而造福于人类。

 

关键词:人工智能,人类智能,儒家价值观,五伦,人机关系,礼仪,超级智能

 

作者:范瑞平,哲学博士,香港城市大学公共及国际事务学系哲学讲席教授,主要研究儒家生命伦理学,比较哲学。香港,九龙。电邮:safan@cityu.edu.hk

 

· 本文初稿曾在大连理工大学人文学院主办的“人工智能时代的人类智能何为”学术研讨会(2024.10.25-27)进行报告,感谢李伦、王前、张卫、丁春艳、赵明杰以及其他与会者的评论,也感谢孙春晨和贾谋的建议。

 

引言

 

从儒家价值观出发来探讨人类应该如何发展人工智能、以及如何塑造人工智能与人类智能之间的关系,具有重大而又独特的意义。重大,是因为按照儒家价值观,人类之所以发展人工智能,是要为人类目的服务、提供有利于人类的机器,而不是为了创造高于人类的存在者、甚至让它们来取代人类;独特,是因为虽然探讨人工智能发展和应用的人文社科文献已经海量涌现,但从一种具有悠久影响的文化价值观(例如儒家)出发来进行深入分析的尝试,仍属凤毛麟角。本文从儒家价值观出发,提供一些批判性反思。

 

人们一般认为,人类智能与人工智能之间应该保持相互补充和合作的关系。人类智能具有深邃的情感、独特的创造力、以及敏锐的道德判断力,而人工智能则擅长处理大数据、进行复杂计算和繁重的重复性工作。通过人类智能与人工智能的结合,可以实现更高效、更精准的决策和更快速的改变。乐观的看法是,人类可以引导和监督人工智能的发展,确保其符合人类的伦理和社会价值。因此,人们似乎都同意,重要的问题是如何在人类智能与人工智能之间建立一种互相支持的关系,利用两者的优势,共同推动科技创新和社会进步,为人类提供更好的生活。

 

对于如何建立这种关系,人们一般担心四个方面的问题。一是隐私保护和数据安全:人工智能系统需要大量数据来进行训练和学习,但数据的使用涉及人的隐私和安全,如何平衡数据共享与人的隐私保护,乃是一个道德挑战。二是与此相关的其他道德问题:人工智能的决策可能受到数据偏见、算法不透明性等因素的影响,如何确保人工智能系统的决策符合这些方面的人类伦理标准,乃是另一个重要挑战。三是人工智能机器能够取代人类工作、造成大量失业,引发一系列严重的社会问题。最后,是出现超级人工智能的可能:它们具有统治人类甚至消灭人类的危险。

 

这些问题当然都很重要。本文从儒家价值观出发,认为我们首先需要确立发展人工智能的目的以及坚守人类智能与人工智能之间的主从关系,然后才能对这些问题进行深入细致的探讨。本文强调,肯定人类智能与人工智能之间的合作固然没错,但我们需要阐明,开发人工智能的目的是以人为本,人与机器之间的关系是主从关系,以免造成失焦失当的后果。也就是说,在儒家价值观看来,人类智能与人工智能之间的合作不应该等同于人与人之间的合作,因为后者应该相互尊敬,而人工智能与人类智能本不平等,也不应该追求平等,所以人机合作谈不上相互尊敬。相反,我们面对的是一个特殊的问题:人类应该如何开发和对待有智能的机器?

 

下述第一节首先概述人工智能与人类智能之间的不同,然后指出,如何评价这些不同以及它们各自的高低优劣,将取决于具体的文化价值观,但世界上存在着不同的文化价值观。在第二节中,我将概述儒家文化价值观的核心价值,以此对于人工智能发展做出三项回应和论证:应该将人类个体与智能机器严格区分开来;不应该让智能机器影响甚至改变五伦实质,使得人际关系变成人机关系;在应用具有人工智能属性的照护机器人、医疗机器人、性爱机器人等新型机器人时,需要创建和体现不同于人际礼仪的新的儒家人机礼仪,从而有助于我们决定如何设计、开发、利用和管理这些智能机器人。第三节论证,超级人工智能的出现可能对人类价值构成严重威胁、将人类置于万劫不复的境地,面对这种极度危险的不确定性,儒家价值观应该坚定反对制造超级人工智能。最后,在结语中,本文提示所谓普世价值是有限的、单薄的、不足以提供资源来对人工智能的发展做出深入的思考和充分的论证。因此,只有从一种具体的文化价值观(例如儒家文化价值观)出发来进行细致探究,才有可能为其他文化提供参考,并有利于不同文化之间的科技合作,从而造福于人类。

 

一、人工智能与人类智能的不同

 

人类智能涵盖多方面的能力和特性。首先,人类具有复杂的认知能力,包括学习、记忆、理解、推理和创造等能力。第二,人类具有意识和情感,能够感知、表达和理解感情和情绪,这种能力对于社交互动和情感连接至关重要。第三,人类具有创造力,能够探索新思想、创造艺术作品、提出解决问题的方案等,展现出强大的想象和创新能力。第四,人类智能具有灵活性和适应性,使得人类能够适应各种环境和情境,在面对新的挑战时能够迅速做出调整和进行学习。最后,人类智能使人具备人际交往能力,在社交互动中展现出复杂的情感和行为,能够体察他人情绪、同他人建立深厚的关系、进行复杂的交流和合作。[1]

 

相比之下,人工智能有其独特之处。就目前的人工智能水平而言,下述特点十分明显。首先,人工智能具有强大的计算能力,可以迅速处理大量数据和进行复杂的计算,远远超过人类的计算速度和存储容量。第二,人工智能系统通常是为特定任务而设计出来和进行训练的,可以在特定领域展现出超强的专业知识和技能,而人类则具有更广泛的认知能力和适应性。第三,人工智能系统可以持续工作,不需要休息,保持一致的高效率,而人类则在长时间工作中出现疲劳和变化。第四,人工智能缺乏意识、情感和创造性,无法像人类那样理解情感、展现同理心和创造力,也无法像人类那样拥有主观体验和自我意识。第五,人工智能系统缺乏人类的社交能力和情感连接,不能像人类一样进行复杂的社交互动。最后,虽然人工智能系统可以在特定任务上表现出色,但在面对新情境和新问题时,往往缺乏人类的灵活性和适应性。[2]

 

这就是说,迄今为止的人工智能系统尽管在某些方面超过人类智能,但在其他方面仍然缺乏人类智能所具有的广泛性、复杂性和多维性,无法模拟人类进行行动。特别是,人工智能系统不存在人类所具有的意识和情感,无法像人类那样拥有主观体验和自我感知。这一区别,在儒家文化价值观看来,具有极其重要的意义。

 

当然,这些不同都是事实上的不同,反映了人们对于人工智能与人类智能的一些事实判断。如何评价这些不同、它们是重要的还是不重要的,则是另外的问题。显然,做出这种评价取决于人们的价值判断、依赖于人们的价值观。价值判断不是事实判断,而是对事实的评估或赋值。价值判断反映人们对于事物的重视程度或优劣评估,体现人们对于什么是重要的、有意义的或有利的所持的信念。价值判断可以是道德的、美学的、经济的或其他方面的。从哲学观点看,虽然价值也可能是客观存在的实体,但它们不同于事实实体,体现不同的认知。事实认知告诉我们世界是什么样的,价值认知告诉我们世界应该是什么样的。相比较而言,一般认为,价值判断具有更大的主观性,依赖于个人或群体的信仰、态度和文化承诺。但关键的一点是,价值观无比重要,因为价值判断影响人们对于事实的看法并决定他们的选择和行为,从而重塑事实世界。

 

世界上存在着不同的文化,不同的文化确立了不同的价值观,这些价值观塑造了具体文化中的人们对待生活以及技术的信念和态度。例如,一些文化可能更尊重传统、家庭和社群,而另一些文化则可能更重视个人独立以及生物平等。价值观决定一个社会中被认可和推崇的行为规范,也影响着社会的组织结构和制度,还塑造了人们的沟通习惯和交流方式。例如,一些文化更注重直接对话和坦率表达,而另一些文化则更倾向于含蓄沟通和避免冲突。因此,各个文化的价值观对于其社会行为、技术发展、公共决策产生不同而又深远的影响。它们对于人工智能与人类智能的评价、对于人工智能的发展策略、以及对于人机关系的塑造和问题应对,都会有所不同。[3]

 

究其根本,人类在两千多年前就已做出了不同的文明突破,影响至今。众所周知,雅斯贝尔斯(Karl Jaspers)提出了得到广泛接受的所谓“轴心时代” (Axial Age) 理论,意指在公元前8世纪到3世纪之间,世界几大文明同时做出了伟大的伦理创新。例如,印度文化的伦理突破体现在佛教和耆那教的兴起,强调超越世俗欲望、轮回转世、解脱苦难等思想。伊朗文化的伦理突破表现在祆教(波斯教)的兴起,强调善恶对立、正邪斗争等观念。希腊文化的伦理突破在于哲学的兴起,强调理性思维、辩证法和道德追求。以色列文化的伦理突破体现在犹太教的兴起,强调唯一上帝、严格戒律和约束人性的道德规范。就中国文化而言,雅斯贝尔斯认为孔子代表了中国文化中的伦理革新。儒家伦理突破主要体现在儒家思想中对人伦关系、仁爱美德、中庸之道、礼乐制度等方面的强调,提倡和谐共处、仁爱亲和的伦理观念。[4]

 

这些道德转向具有相同之处,例如它们都提倡内在的精神成长和道德修养。但雅斯贝尔斯可能过分强调了这些文化突破的同质性,他的观点甚至带有现代西方的理性主义、个人主义和普遍主义特征,并未充分认识到每个地区的独特历史背景、宗教信仰和哲学体系。事实上,这些文化之间在具体内容上存在着显著不同。它们各自具有独特的基本信念、道德准则和哲学思想,确立了不同的价值观,在世界上的不同地方发展和进化,产生了至今存在的关键影响和重大作用,并在很大程度上塑造着不同地区的人们的不同思维方式、道德选择和社会行为。这当然不是说当今世界上的所有文化都是轴心时代的产物,但它们的影响且深且巨,则无可否认。就儒家文化而言,其伦理价值观影响了中国几千年的历史和发展,并渗透到东亚的许多国家和地区,在其社会秩序、家庭伦理、教育体系乃至治理理念上,都发挥着很大的作用。

 

人们难免主动选择和坚守自己所信奉的价值观,并相信其对于全人类所具有的共同重大意义。同时,人们还往往认为自己的价值观是唯一的真理,因而在讲述自己的学说时,总是以提供“普遍”价值观的姿态出现,掩盖自己观点的特殊来源。在本文看来,这并不是一个十分诚实的方法,因为并不存在没有来源的价值观。面对当代重要问题——诸如人工智能问题,人们首先需要把自己的价值观的来源、前提、推理和结论摆到桌面上来,让别人了解,同别人对话,而不是暗自认定自己是从“普遍”价值观出发、假设自己的价值观代表了所有文化的价值观。那样做其实是妄自尊大,因为每个人所提供的其实都是自己所熟悉所认可的那种文化价值观;那样做也是缺乏建设性的,因为没有和别人进入一个清晰的、切实的交流过程。在这些方法论考虑之下,本文专门提供儒家价值观对于人工智能发展的回应,作为一家之言,以供大家参考。

 

二、儒家价值观的回应

 

有关儒家伦理学和价值观的文献汗牛充栋,不同时期不同派别当然也有一些不同的论述。本文根据经典儒家的主要学说和自己的理解来做如下概述。[5]儒家价值观是基于仁德的价值观,将仁视为整个宇宙中最基本和最重要的价值。仁体现着上天的“生生之德”,在天地间发挥着至关重要的作用。儒家价值观认为,人性本善,因为人有天生之德(《论语·述而》),上天已在人的内心深处植入了仁德的种子,即所谓恻隐之心(“人皆有不忍人之心”)(《孟子·公孙丑上》),它是人类特有的道德情感。[6]正因为上天赋予了人这种道德情感,所以儒家认为“天地之性人为贵”(《孝经·圣治章》)。而且,儒家认识到仁德势必要在适当的人际关系中得到培养和体现,而儒家最重视的人际关系就是五伦,要求“父子有亲、君臣有义、夫妇有别、长幼有序,朋友有信”(《孟子·滕文公上》)。[7]

 

的确,五伦(关系)是儒家价值观中不可或缺的一部分,蕴含着人与人之间的相互尊敬、责任和义务。这些关系的有效维持被视为社会秩序与和谐的基础,体现了仁德实践的必不可少的载体。在这些伦理关系中,仁者以慈爱之心对待他人,尊重他人的尊严并照顾他人的利益,倡导互相敬重、理解和包容。五伦(关系)为其他关系(诸如师生关系、医患关系)奠定了基石,树立了模板,不但追求普遍的仁者之爱,而且实施具体的差等之爱,“亲情而仁民,仁民而爱物”(《孟子·尽心上》),通过推己及人、关怀他人,促成人们在各类关系中进行和谐互动和适当反应,从而实现人间的深厚亲情、爱情和友情。特别是,儒家认识到这些关系及其正当的人际互动,势必通过礼仪的引导和修炼才能有效进行,才能真正实践“亲亲、仁民、爱物”的普遍而差等之爱,而不是只靠干巴巴的抽象原则的指导。[8]这是儒家伦理学的一个极富见地的贡献,值得特别重视。

 

基于这种儒家价值观,我们将如何评价人工智能与人类智能的不同、以及如何回应当代人工智能的发展呢?本文提出下述三项主张和论证。

 

2.1 必须区别人类与机器

 

按照儒家的观点,人类不但具有发达的自我意识,而且在内心深处存储着仁德种子,即恻隐之心的道德情感,这是上天赋予人类的特质。与之相比,人工智能缺乏这种特质,这一差异构成了人类与(智能)机器之间的绝对重要的区别,划清了二者之间的界限。儒家思想必然会对这一区别给予特别重视,支持把人类当作目的、把机器当作手段,让机器为人的目的和利益服务,永远不能也不应该抹杀它们之间的区别。

 

在儒家看来,恻隐之心使人类具备了发展良好的道德意识、道德判断和道德行为的潜能,可以创建和实践礼仪来形成复杂的社会互动、道德规范,从而使人类展现仁爱之情,关心和理解他人以及其他事物,在行为中体现出同情和善意。然而,人工智能缺乏这种道德情感和自我意识,其决策仅仅基于程序和算法;尽管在处理复杂任务和数据分析方面表现出色,但它们无法体会人类情感、无法真正理解道德或伦理内涵。因此,儒家思想势必强调人类独有的这种仁德情感和道德责任,充分认识到人工智能缺乏这种特质,从而将人类与人工智能机器严格区分开来,引领人们维护人类与技术之间的主从关系,在科技发展中保持人类的人文关怀和道德意识。

 

有人肯定会把这种观点看作无法得到辩护的“物种主义”(speciesism)。批评者会说,虽然人类所具有的自我意识、道德情感、恻隐之心都是重要的生命价值,但它们不应该被看作是人类最应该重视和维护的客观价值,从而像儒家那样把人类凸显出来,作为世界上唯一的最终目的。相反,功利主义哲学家认为,人类应当采取理想观察者(Ideal Observer)的视角,看到减少痛苦、增加快乐才是最重要的价值,从而认识到只有平等地、不偏不倚地对待所有物种的痛苦和快乐,让痛苦最小化、快乐最大化,才是真正客观正确的价值观(Singer 2011)。[9]因此,批评者可能会总结说,如同人类物种主义已经造成了歧视和压迫动物一样,它也会造成歧视和压迫人工智能“主体”的不良后果。

 

在儒家价值观看来,这一批评可能会对未来的人工智能发展影响巨大(详见下一节),但现今的人工智能机器尚未有意识、还不是生命,把它们完全当作工具,以为人的目的服务,根本谈不上歧视或压迫它们,那怕人类确实歧视和压迫了其他动物。然而,即使退一步说,把现有的人工智能机器看作某种类型的道德“主体”[10],因而具有某种类型的“利益”,功利主义也只是要么不可能实施、要么导致不相容结论的观点。儒家的这一回应,可以在《孟子·滕文公上》所记载的儒家与墨家的争论中看出端倪。儒家坚持爱有差等,墨家支持爱无差等,当今的功利主义类似于墨家的观点。尽管当时的争论限于人类之内,逻辑上也可扩展到物种之间。儒家认为,人的时间、精力和资源有限,要想实施仁爱,势必做出区别对待,无法同时同样地把爱施予所有人。这就是说,墨家所支持的爱无差等是无法实施的。墨家的回答是:“爱无差等,施由亲始”(即我们只是从自己的父母亲开始实施仁爱,并不是支持不平等的仁爱)。儒家的回应是,墨家在这里提出了两条原则:一条原则说,爱不应该具有与关系有关的差别或等级(“爱无差等”);另一条原则则说,爱应该先从爱父母开始(“施由亲始”)。这两个原则是互不相容的,因为从爱父母开始来实践爱,就是对爱做了与关系有关的差别化或等级化处理,就是“差等之爱”。

 

当今功利主义要求以所有利益相关者的最大利益为目标来进行平等的决策和行动,表面上似乎有理,实际上否认了人的有限性。儒家可以同意,我们应该不只考虑人类的利益,也应该考虑其他事物的“利益”,诸如动物、植物、山川、大河、以至于人造智能机器,假设人们能够做出一个协调一致的“利益”理解的话。但如果要求人类平等地追求所有这些利益,从而能够将整体利益最大化,那就完全超出人类的认知和计算能力了。这是因为,人类根本不知道如何汇总这千千万万个不同的利益、更不知道如何“平等地”平衡它们从而得出整体的最大利益。实际情况是,不同的价值观给予不同的相关者以更大的关注、更多的爱护,从而做出不同的取舍:动物保护主义者更重视动物利益,生态主义者更重视生态系统的状况,另一些人则更重视人工智能机器。只有做了这种“不平等”的区别和对待,人们才能得出明确的结论,尽管结论各有不同。这样一来,儒家价值观更看重人类,支持所谓人类物种主义,赞同人类与机器之间的主从关系,也就可以得到合理的间接辩护:鉴于人类智能相较于人工智能所具有的前述那些优点和成就,支持这一价值观的道理可能会比支持其他价值观的道理更强一些,至少不会比它们更弱。

 

2.2 应该维护五伦价值

 

儒家价值观强调五伦的重要性,因为这些人际关系构成了人类社会的基本组成部分,也构成了其他人际关系的基础和模板。儒家认为,这些关系中蕴含着亲情、义理、忠诚、友爱等重要的道德情感和准则,是人类正常互动的不可或缺的元素,是维系社会秩序和和谐的纽带,是文明社会的基石。因此,儒家思想认为,人工智能机器不应该影响甚至改变五伦的实质,使得人际关系变成人机关系。虽然机器具有强大的计算和执行能力,但它们缺乏情感、仁爱和道德判断力,无法体会人类的情感经验,无法展现同情、善意和关怀。因此,尽管机器在某些方面表现出色,它们也不应该取代人类在人际关系中所扮演的角色。

 

有人可能会反对说,使用人工智能势必取代人类的角色。例如,当使用照护机器人把一位老人推到户外去参加活动时,那不正是取代人类护工来做这项工作吗?当使用医疗人工智能系统来阅读病理图像提出病理诊断时,那不正是取代病理学家来做这项工作吗?按照这种看法,如果人工智能参与了这些工作并影响了人际关系,那就使得人机关系在相关的方面代替了人际关系,这是必然的事,也是好事,因为这样做减轻了人的负担,而且机器可能比人做得更好,正是反映了人自己愿意被机器取代来做这些事的结果。因此,反对意见会认为,儒家价值观强调维护五伦价值,不要让智能机器取代人际关系中人的角色,乃是似是而非的观点。

 

这种反对意见忽视了人际关系中重要的部分与不重要的部分,即哲学一般所区分的内在价值与外在价值。按照儒家价值观推理,五伦的价值核心,乃是人际双方的亲情、关爱、义气、忠诚和诚信,它们蕴涵着这一重要主张:有些事情一定要人类个体亲力亲为,不能由他人代劳,更不能由动物或机器来代替;而另一些事情则可以由他人代劳、或由动物或机器来代替;还有一些事情则是人绝对不可以对他人做的。就最后一点而言,例如,亲子之间不可以发生性关系,因为那是乱伦悖德。由机器人把老人推到室外去参加社交活动是可以的,这样做并没有真的取代人的角色,因为把老人推到室外只是工具目的、外在价值,而让老人参加社交活动才是最终目的、内在价值。然而,如果这项活动不是为了让老人同其他人类进行社交,而是同其他机器人进行“社交”,那就是真的取代人了。因为相互陪伴、交流、关爱,乃是人际关系的最终目的和内在价值。[11]

 

毋庸讳言,随着人形智能机器人的突飞猛进,五伦价值势必面对严峻挑战[12]。即使智能机器人并没有自我意识和道德情感,但它们将在语音、视觉等方面获得长足进步:它们能够“看见”你的身影、“听懂”你的语气、“理解”你的表情、同你进行“知心”交流。这将足以引起人的认知异化和情感异化:你会以为它真的具有自我意识,你还会以为它真的对你关心爱护;因而你对它产生了深深的情感依恋,建立了亲密无间的关系,从而当真取代了人际关系,败坏了五伦价值。这就是说,即使智能机器并没有知觉、意识或情感,它们也能与人类建立虚假的亲密关系,导致人类生活的异化[13]。要想避免这种危险的出现,我们需要发展新型的礼仪来对待智能机器人,这些礼仪必须不同于人际关系的礼仪。

 

2.3 需要发展新型礼仪

 

儒家价值观特别重视礼仪实践,认识到“礼”对于个人修身、家庭和睦、社会稳定以及国家治理都具有重要作用。根据《礼记》记载,孔子认为,礼不仅适用于人与人之间的关系,还应扩展到人与动物之间的关系,包括在动物去世后进行适当的埋葬,但这类对待动物的礼仪应该不同于对待人类的礼仪[14]。这一观点,对于我们应该如何对待智能机器人,提供了有益的启发。在这个新兴领域中,儒家思想将不得不扩大传统的礼仪范围,创建与机器人相处的适当礼仪。

 

首先,人类对于智能机器人以礼相待,就是要对它们讲礼貌,避免使用粗暴的语言,但没必要“尊敬”它们。这是因为,儒家价值观推崇“亲亲仁民爱物”的差等之爱,即使对于家畜动物,也应当惜爱,不应当野蛮对待,因为那不是对待动物的适当方式,而且会损害自己的美德培养;但儒家价值观并不要求人类尊敬动物,因为动物虽有知觉和情感,但它们只达到了应受人惜爱、但没有达到应受人尊敬的程度。[15]相应地说,要求人类尊敬人工智能更是无稽之谈,因为智能机器毫无知觉、毫无道德情感,甚至连普通的情绪也没有,它们的伦理地位是低于动物的。

 

例如,对于照护机器人,特别是照护老人的机器人,如何建立人机之间的适当语言和礼仪呢?这需要人们在设计和使用照护机器人的两个方面都做出适当的决定和行动。在设计方面,不能让机器人“要求”人类使用者尊敬它们,同时要注意避免让它们在照护人类(特别是老人时)时取代子女或其他亲人的角色。例如,有必要通过程序设计强制要求它们在与人交流互动时,明确披露自己是人工智能机器,不是人类个体,避免使用者产生共情甚至移情效应。[16] 在使用方面,如何建立和维持一般礼貌礼仪来对待它们、但不同于对待人类照护者的礼仪和语言,也是非常重要的考量。例如,如果老人愿意的话,也许可以对它说“谢谢”,但不必、也不应该表达饱含情感的谢意。

 

对于医疗机器人,应当如何设计、监管和使用它们呢?重要的是,是让它们只作为人类医生的助手、还是让它们成为逐渐取代人类医生的“全能”自动系统?在使用这类机器人时,至少对于重大医疗问题(无论是诊断还是治疗),是必须征询人类医生的意见、由人类医生来做最终决定、负最后责任、还是径直听取医疗机器人的意见就做决断?[17]我认为,基于儒家价值观的判断,应该只把它们作为医生的助手来使用,而不应该让它们取代人类医生。[18]

 

同样,对于性爱机器人,在设计和使用方面也需要深入的价值考察。这里,我们面对一系列重要的问题。首先,儒家价值观会支持创建这类机器人吗?制造它们的目的是什么?是为了哪些人、哪些情况来使用?所有人都可以自由使用、还是仅限于没有配偶的人来使用?把它们用于治疗恋童癖的尝试是否适当?应该把它们完全交给市场来让人们选择、还是应该让政府为没有性伴侣的人提供使用这类机器人的经济补贴?在使用它们的时候应该如何进行言语交谈呢?配偶想定制一个长得像自己已逝配偶的机器人是否适当?这是忠诚还是无耻?应该首先在配偶逝世前得到其允许吗?定制这种机器人应该受到社会资助吗?所有这些礼仪问题都涉及儒家价值观如何维护人类的尊严和起码的道德标准,值得慎重研究。[19]

 

总之,从儒家价值观出发,若要建议完全停止人工智能机器人的发展和应用,可能既不应该、也不现实。相反,人们可以根据儒家价值观来创建适应人工智能机器人的新型礼仪系统,以指导人类与机器人之间的互动。这样的礼仪体系可能会包括对机器人的适当礼貌语言以及对机器人合理使用的规范,同时维护基本的人际关系以及人类尊严,使得儒家仁德观念可以进一步适应当代社会的发展,并在人类与机器人的互动中引导出更加和谐有效的道德关系,既能体现出对待这类机器的适当行为,又不会损害人际礼仪的高尚性。

 

三、超级人工智能的危险性

 

超级人工智能是具有远超人类智能水平的智能,它们在现代科幻作品中经常出现。这种人工智能系统在认知能力、学习能力、问题解决能力等方面都远远超越人类,并且具有自我意识、情感和道德判断能力,可以表现出高度的自主性、创造性和智慧性。当然,超级人工智能只是一种理论上可能的未来技术,当前的人工智能技术还远未达到那种水平。当前的人工智能系统主要集中在特定领域的任务上,如语音识别、图像识别、自然语言处理等,而要实现超级人工智能,需要克服诸多技术、伦理和安全方面的挑战。[20]

 

虽然超级人工智能只是一种概念上的设想,但已引起许多思考、讨论以及巨大争议,涉及到人类与技术的未来关系、道德状况、社会稳定以及关于权力、控制和伦理的深刻议题 。[21]有人倾向认为,超级人工智能将来必会出现,只是一个缓慢出现还是急速出现的问题,所以人类势必要做两手准备。[22]但我认为,从伦理学观点出发,一个极其重要的问题是,人类是否应该创造这种总体能力远超人类、并且具有意识和情感的人工智能?伦理学肯定人的自由选择和主动行为,强调人要为结果负责。即使人们没有完全确定的知识和精确的预计,伦理学也没有道理相信绝对的历史决定论或绝对的技术决定论,因为它们否定了人的自由和作为,同伦理学的性格格格不入。从儒家价值观出发,人类绝不应该主动制造、而是应该努力避免超级人工智能的产生。

 

不少人可能看到超级人工智能系统可能为人类带来巨大的“利”。例如,它们可能帮助我们解决当今世界面临的许多复杂问题,如疾病治疗、环境保护等;它们也可能极大提高生产力和工作效率,为人类社会带来更多福祉;而且,创造具有意识和情感的人工智能可能有助于人类更深入了解意识和情感的本质,探索这一最大的“未知”。相反,另一些人则看到可怕的“弊”:超级人类智能可能失控,导致严重后果,对人类造成极大危害;可能导致大规模失业,威胁社会稳定;具有意识和情感的人工智能还会带来极其复杂的伦理问题,如权利、责任、自主性等。可怕的是,我们不知道它们将会如何对待人类。

 

有的哲学家富有见地地论证,超级人工智能如何对待人类,将取决于它们持有何种伦理价值观,而不同的伦理价值观将在塑造人工智能的道德取向和行为方式上发挥不同作用。康德伦理学强调普遍道德原则和所有理性存在者的尊严,如果超级人工智采纳康德主义观点,它们可能会根据普遍适用的道德法则来对待人类,从而尊重人类的尊严和自由。相比之下,霍布斯伦理学强调权力和自利,如果超级人工智能受到霍布斯主义的影响,它们就可能会以实现自身目标和效用最大化为导向,确立绝对权威(利维坦),要求人类服从;如果人类不服从,它们就会将人类视为障碍,从而镇压甚至消灭人类。最后,休谟伦理学注重经验和情感,如果超级人工智能采用休谟主义道德,它们就会根据感官经验和情感来对待人类,可能会更注重与人类的情感联系和共情状况,但也可能受限于对于人类情感的有限性而忽视甚至损害人类。[23]

 

如果随着技术的发展出现一个超级人工智能系统,在能力上碾压所有其他系统,成为主导者,具有强大的资源和影响力,从而控制或整合所有其他系统,那么,我们实在难以推知这位人工智能“霸主”将会采纳何种价值观、如何对待其他系统、特别是将如何对待人类?另一方面,如果不同的系统在不同的公司、机构或国家之间发展,导致具有不同特色和能力的多个超级人工智能系统同时存在,它们在技术上互相竞争,形成一个多元化的人工生态系统,那么,它们将如何对待人类?我们或许可以参考人类对待动物的历史来做些推测:由于这些超级智能在认知、理性和情感方面都远超人类,它们当然会将人类视作智力上和能力上的弱势或劣势群体,正如人类看待动物群体那样。然而,很难设想它们都将持有完全相同的一种“人类伦理学”。相反,它们很可能持有不同类型的“人类伦理学”,正如不同的人类群体就如何对待动物持有不同类型的“动物伦理学”一样。因而,有的超级人工智能系统可能倾向于将自己视为人类的主宰者和保护者,类似于人类对待宠物的方式,寻求人类的陪伴并给予人类以保护。另一个超级人工智能系统则可能倾向于将人类视为与它们一样的“理性”存在者,采取相互平等和尊重的态度,类似于动物权利运动倡导者对待动物的方式。还可能会有超级人工智能系统将人类视为可供它们欣赏和娱乐的对象,如同人类将动物养在动物园中用来观赏一样。最后,也可能会有超级人工智能系统认为人类总体上有害无益,应该把人类彻底消灭(不论是使用逐渐的方式还是即时的方式),从而有利于整个宇宙的进化或改善。[24]这些不同的可能性,将人类置于无可比拟的不确定性之中。

 

如上所述,儒家价值观强调人类内在的仁德,相信人类具有与天地合一的特殊性质,能够建立珍贵的五伦,体现人际关系的深邃情爱。在这种观念下,“天地之性人为贵”乃为人类坚定的信念。签于超级人工智能的出现可能对这些价值构成严重威胁、将人类置于万劫不复的不确定性之中时,儒家价值观势必坚定反对制造超级人工智能。这里,可能性已经构成了足够的反对理由,因为事关人类总体的尊严和生存。[25]这一立场意味着需要人类在多个领域进行谨慎的审查和控制,以防出现超级人工智能。首先,在技术发展方面需要加强监督,步步紧盯。其次,伦理审查变得尤为重要,需要确保人工智能系统的开发和运作符合道德规范和人性原则。同时,法律限制必不可少,需要通过法律手段规范人工智能的发展和应用,保障人类权益和社会稳定。最后,国际合作至关重要,因为超级人工智能的影响跨越国界,需要国际社会的共同努力来制定标准、规范和实施监管。只有在技术、伦理、法律和国际社会的共同努力下,才能确保人工智能技术的发展不会损害人类的尊严和价值。

 

四、结语

 

本文尝试提供基于儒家文化价值观的思考,回应当代人工智能急速发展所引起的问题。

 

不少人看到了伦理价值观的作用,但他们可能会质疑具体文化价值观——诸如儒家价值观——的合理地位。他们会假定一种全方位的全球伦理价值观的正当性,怀疑从儒家价值观出发来思考和论证这些问题的偏狭性和局限性。的确,当代西方的个人主义自由主义价值观经常自封为唯一合适的全球伦理价值观,与具体文化或群体观点无关。然而,人们需要认识到,事实上,这种价值观也是一种具体的文化价值观,即现代西方的一种文化价值观,有它自己的渊源、历史和前提,不为许多其他文化所共享。

 

本文不否认世界上一些共同价值的存在,但认识到各文化所共享的价值观是一种有限的、单薄的、甚至抽象的价值观,不足以对“人工智能与人类智能的合理关系模式”进行深入充分的思考。要想做出切实的回应和进行富有启发的论证,必须诉诸具体文化价值观,因为只有在具体文化资源中才会有有血有肉的价值承诺和相应的伦理宝藏,提供有力的思想信念和坚实的推理基础。在这方面,尽管不同的文化价值观有所分歧,但它们都是平等的、有意义的,没有哪一种具体文化能够证明自己属于唯一得到辩护的正确文化,高于其他文化,处于一种其他文化都应该仰视和接受的地位。因此,只有从一种文化价值观(例如儒家价值观)出发来进行深入细致的探究,才有可能为其他文化提供参考,也有利于文化之间进行科技对话和良性合作。

 

[1]有关人类智能的特点及发展的论著众多,有代表性的如:Raymond Cattell, Intelligence: Its Structure, Growth and Action. New York: North-Holland, 1987; R. A. Hinde, A biologist looks at anthropology, Man 26 (1991): 583-608; Earl Hunt, Human Intelligence. Cambridge: Cambridge University Press, 2011; R. J. Sternberg and S. B. Kaufman (eds.), The Cambridge Handbook of Intelligence. Cambridge: Cambridge University Press, 2011; and R. N. Bellah, Religion in Human Evolution: From the Paleolithic to the Axial Age, Harvard University Press, 2011. 
 
[2]论述人工智能的能力及在重要领域的应用方面的文献已经层出不穷,一些重要论文和观点报道例如:K. Seo, J. Tang., I. Roll, S. Fels & D. Yoon, The impact of artificial intelligence on learner–instructor interaction in online learning, International Journal of Educational Technology in Higher Education 18.1 (2021): 18–54; F. Kitsios, M. Kamariotou, A. Syngelakis & M. Talias, Recent Advances of Artificial Intelligence in Healthcare: A Systematic Literature Review, Applied Sciences 13.13 (2023): 7479; I. Depounti, P. Saukko, & S. Natale, Ideal technologies, ideal women: AI and gender imaginaries in Redditors’ discussions on the Replika bot girlfriend, Media, Culture & Society 45.4 (2023): 720-736; N., Le, T. Döring, L. Vowels, M. Vowels & T. Marcantonio, The Impact of Artificial Intelligence on Human Sexuality: A Five-Year Literature Review 2020–2024, Current Sexual Health Reports 17.1 (2025): 1–39; and B. Perrigo, Yann Lecun Is Optimistic That AI Will Lead to a Better World, Time (February 11, 2024), available at  https://time.com/collection/time100-impact-awards/6692039/yann-lecun-meta-artificial-intelligence-time-award/. 
 
[3]参阅C. Ding and R. Fan, Chinese Ethical and Legal Perspectives on Automated Vehicles, Palgrave, 2025.
 
[4] K. Jaspers, The Origin and Goal of History, Routledge, Oxford, 1949/2021. 
 
[5]特别参阅陈来,《古代宗教与伦理: 儒家思想的根源》,三联书店,北京,1996;蒋庆,“《论语》之‘天’全为‘人格之天’考”,儒家网,https://www.rujiazg.com/article/22910;C.  Li, Reshaping Confucianism: A Progressive Inquiry, Oxford University Press, New York, 2024.
 
[6]正如王前指出,“这种情感不同于喜怒哀乐等情绪表达,也不同于亲疏爱憎等感情表达,而是具有道德属性的特定情感状态,包括恻隐之心、羞耻之心、辞让之心、是非之心的相应情感,也包括责任心、事业心、公益心的相应情感,以及“正气”或者说“浩然之气”的相应心态。”王前,《谈“心”:从传统到现代》,科学出版社,北京,2024,第106页。
 
[7]五伦中所讲的“父子”关系当然包括“母女”关系,所讲的“君臣”关系可以理解为现代社会中的上下级关系。在儒家价值观看来,这些关系的双方在人格尊严上是平等的,但在家庭及社会的群体生活中不能处处扯齐拉平,而是需要各方遵守适当礼仪和顺应良好礼仪的调节,以实现和谐的美德生活。
 
[8] R. Fan, Reconstructionist Confucianism: Rethinking Morality after the West. Springer, Dordrecht, 2010, pp. 165-188, 
 
[9] P. Singer, Practical Ethics. Cambridge University Press, Cambridge, 2011.
 
[10]已有哲学家区分了四种不同的道德主体:道德影响主体(Ethical-impact Agents):例如电子计算机,通过它们的无意的“行为”影响到人类主体;隐性道德主体(Implicit Ethical Agents):其设计中考虑到安全性和可靠性的人工智能系统,例如自动取款机、网上银行、飞机的自动驾驶仪以及可检查并报告药物作用的药房软件;显性道德主体(Explicit Ethical Agents):能够基于道德原则来做出道德决策的人工智能系统,例如自动驾驶车辆和军事及民用机器人;完全道德主体(Full Ethical Agents):具有意识、目的和自由意志的人工智能系统,类似于人类的道德主体。现有的人工智能机器已经成为前三种道德主体。参阅J. H. Moor, The Nature, Importance, and Difficulty of Machine Ethics, IEEE Intelligent Systems,21. 4 (2006): 18–21. https://doi.org/10.1109/MIS.2006.80。
 
[11]参阅王珏,机器人养老是解决老龄化问题的出路吗?——基于儒家角色伦理学的视域,《孔子研究》2024.6(总106期)。
 
[12]事实上,中国的老年人已在担心这方面的问题。已有研究发现,仅是观看机器人的图像,老年人就对那些外观感知“宽容、热情、善良和真诚”的机器人保持警惕,因为受儒家文化影响,他们更在意与家庭成员之间的密切关系,而使用这类机器人将会增加他们被家人忽略的风险。因此,这类机器人的出现使他们产生了不被家人关注的担心,从而降低了他们使用这类机器人的意愿。参阅申琦、邵一鸣,《机器人走进生活: 老年人对社交机器人的外观刻板印象与风险感知》,《现代传播》2021年第10 期 (总第303 期):156-162.。
 
[13]许多人都记得,2022年6月谷歌工程师Blake Lemoine公开声称谷歌的人工智能系统 LaMDA(Language Model for Dialogue Applications)表现出类似于人类的意识和情感,并认为 LaMDA 应该被视为“一个人”。这件事的最奇特之处并不在于他的看法是错误的,而是在于这位高智商的人类工程师竟然坚信他的看法并愿意为坚持这一看法而被公司开除,这明显提示了异化的真实可能性。
 
[14]例如,《礼记·檀弓下》记载:“仲尼之畜狗死,使子贡埋之,曰:‘吾闻之也,敝帷不弃,为埋马也。敝盖不弃,为埋狗也。丘也贫,无盖,于其封也,亦予之席,毋使其首陷焉’”。这就是说,自己的狗死了不能一扔了之,而是要有葬礼,但其葬礼应该区别于人的葬礼、对其待遇不能好过对人的待遇。
 
[15]范瑞平,《当代儒家生命伦理学》,北京大学出版社,北京,2011,第340-357页。
 
[16]在北京博古睿中心最近召开的一次有关人工智能发展的跨学科研讨会上,科幻作家宝树提出,为避免人机之间产生虚假的亲密关系,智能机器人最好避免做成逼真的人形,而应当采用其他形状,至少不要做成真人的面部特征。本人很赞同这一提议。也就是说,现在方兴未艾的人形机器人发展,可能误入歧途,不是儒家价值观下的新型礼仪发展的题中应有之义。
 
[17]这方面的争议很多、很大。Verdicchio and Perin(2022)概括了反对利用医疗机器人来做最终决策的四个方面的反对意见:人工智能的不可靠性、不透明性(黑箱性)、缺乏艺术性和创造性、及其资料的易损性,值得我们认真考虑。在儒家价值观看来,即使未来医疗机器人在这些方面得到很大改善,也不应该让它们代替医生来做最终决策,因为那将不属于适当的人机礼仪范畴。参阅M. Verdicchio and A. Perin, When Doctors and AI Interact: On Human Responsibility for Artificial Risks. Philosophy of Technology 35.11 (2022).http://doi.lorg/10.1007/s13347-022-00506-6.
 
[18] R. Fan and Morris Ho, Exploring AI Impact on the Physician-Patient Relationship: From Confucian Daoist Views, Artificial Intelligence and the Future of Human Relations: Eastern and Western Perspectives, edited by Y. Chadron and R, Fan, Springer (forthcoming).
 
[19]在Ruiping Fan and Mark J. Cherry 最近主编的著作中,包含对于这些问题的较为详尽的儒家价值观探索。参阅R. Fan and M. Cherry, Sex Robots: Social Impact and the Future of Human Relations, Springer, 2021.
 
[20]参阅D. Townsend, R. Hunt, J. Rady, P. Manocha & J. Jin, Are the futures computable? Knightian Uncertainty and Artificial Intelligence, Academy of Management Review 50.2 (2024), Doi: https://doi.org/10.5465/amr.2022.0237; S. Ramoglou, R. Schaefer, Y. Chandra & J. McMullen, Artificial intelligence forces us to rethink Knightian uncertainty: A commentary on Townsend et al.’s “Are the Futures Computable?” Academy of Management Review 50.2 (2024), Doi: https://doi.org/10.5465/amr.2024.0127; T. Hyland, Artificial Intelligence (AI) Developments and Their Implications for Humankind: A Critical Analysis of Contemporary Trends and Perspectives, Current Journal of Applied Science and Technology 42.21 (2023): 12–26. 
 
[21]参阅D. Milmo, “Godfather of AI” shortens odds of the technology wiping out humanity over next 30 years.”The Guardian, 27 Dec 2024,available at https://www.theguardian.com/technology/2024/dec/27/godfather-of-ai-raises-odds-of-the-technology-wiping-out-humanity-over-next-30-years; B. Perrigo, Yann Lecun Is Optimistic That AI Will Lead to a Better World, Time (February 11, 2024), available at  https://time.com/collection/time100-impact-awards/6692039/yann-lecun-meta-artificial-intelligence-time-award/.
 
[22] M. Risse, Political Theory of the Digital Age: Where Artificial Intelligence Might Take Us? Cambridge University Press, 2023.  
 
[23] Risse, Political Theory of the Digital Age,同上,第246-250页。
 
[24]想象超级人工智能可能对待人类的这些方式以及其他可能的方式,参阅M. Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence, Penguin Books, 2018, pp. 250-251.
 
[25]有人可能认为,这种立场属于“儒家物种主义”,应该进行改善和升华,达到追求“大爱无疆”、乐于自我牺牲的境地。在他们看来,如果真有远比人类理性、公正和发达的外星人认识到只有彻底消灭人类才能让整个宇宙变得更加理性和公正,那么人类就应该配合他们的行动,欣然接受自我灭亡的命运。这类观点参阅J. Schaler (ed.), Peter Singer under fire : the moral iconoclast faces his critics, Open Court, Chicago, 2009.  然而,我们认为这类观点是错误的。现在,我们并不知道是否存在这样的外星人,但人工智能的发展却提供了这种可能:这种观点认为如果可能造出超级人工智能,实现一个更加美好的世界,那么人类就应该乐于牺牲自己。对此,儒家价值观的回应是,儒家真诚相信天命信仰中的人类珍贵性:人命至贵,人类绝不应该牺牲自己,自取灭亡。当代哲学家伯纳德·威廉姆斯(Bernard Williams)可能用现代的词汇卓越地表达了这种儒家价值观的精髓:无论何种形式的道德考虑,无论其针对何种主体、何种事物,只有在我们将最大的道德考虑留给人类自己和人类关切的背景下才是可以理解的,哪怕这种考虑和关切都必然是一种“偏见”(prejudice)。因此,关于超级智能的伦理争论,断言应该优先考虑纯客观的和非人类的总体福祉来进行评估,实际上根本无法契合塑造人们现实生活中的真正道德判断的特定人类价值和动机。参阅B. Williams, The Human Prejudice, Philosophy as a Humanistic Discipline, Princeton University Press, Princeton, 2008, pp. 135-152.