【白彤东】从中国哲学角度反思人工智能发展

栏目:学术研究
发布时间:2019-11-09 23:18:25
标签:人工智能、儒家、创造性教育、强人工智能、经济不平等
白彤东

作者简介:白彤东,男,西历一九七〇年生于北京。北京大学核物理专业学士(1989-1994),北京大学科学哲学专业硕士(1994-1996),波士顿大学哲学博士(1996-2004),现任职复旦大学哲学学院教授。主要研究与教学兴趣为中国传统政治哲学、政治哲学,著有《旧邦新命——古今中西参照下的古典儒家政治哲学》《实在的张力——EPR论争中的爱因斯坦、玻尔和泡利》等。

从中国哲学角度反思人工智能发展[1]

作者:白彤东

来源:作者授权 儒家网 发布

             原载于 《中州学刊》2019年第9期

时间:孔子二五七零年岁次己亥十月十三日庚戌

             耶稣2019年11月9日

 

摘要

 

虽然阿尔法狗等代表的人工智能的进展远远超出了自动化时代我们对机器所能完成的任务的想象,但是当今的人工智能还没有任何智能,对强人工智能的担忧是杞人忧天。不过,对强人工智能的反思,仍然可以促进我们对一些人类根本问题——比如何为智能、何为人——的探讨。从中国哲学的角度看,现在对强人工智能是否会替代和毁灭人类的担心,可能带有西方文化的偏见。但是以孟子对人之为人的理解来养育类人之存在,也有其问题。在应对现有的人工智能的挑战上,我们应该加强的,恰恰不是创造性教育,而是以死记硬背、以习题和考试为训练方式的基础和高等教育。人工智能的发展可能会强化经济不平等,对此的解决,可能也要通过加强精英的责任和贤能在政治中的决策角色来解决,而这恰恰是儒家政治哲学的一个可能贡献。

 

关键词

 

人工智能      强人工智能            儒家      创造性教育            经济不平等

 

1.人工智能还没有智能

 

在最近大数据和人工智能(Artificial Intelligence)技术的令人目眩的发展下,尤其是阿尔法狗(AlphaGo)让人难以置信的成功,让人类是否会被人工智能控制、替代、甚至杀掉这样的话题成为了热门话题。虽然有这样惊人的技术发展,但是,我想说的第一点是人工智能还不很智能,甚至是一点智能都没有。虽然阿尔法狗击败了世界上最好的围棋选手,但是随便一个人都可以赢了它——只要我们选择和它玩儿中国象棋就可以。当然,如果它开始学中国象棋,它可以很快击败我们,但是我们可以再一次击败它——只要我们选择跟它比踢毽子。一般来讲,人类智能的一个核心特点是它可以做那些不是事先设计好的任务,而阿尔法狗和其他现有的人工智能产品还只能做它们被事先设计好的工作(虽然它们可以做得很好,甚至超过人类)。因此,我们可以说,现有的人工智能还一点智能都没有。

 

在美国加州伯克利分校执教的哲学家Alva Noë对此有很好的说法(2014)。钟表并不真的知道时间,而是我们人类用它来辨别时间。与此类似,迄今为止的人工智能只是被我们人类用来干那些(要用到)智能的事情。Noë指出:“即使最简单的生命形式,比如阿米巴虫,也展示了某种智能、自主性(autonomy)、创造性,这甚至超越了最强大的电脑。”根据Noë的说法,阿米巴虫之所以更智能,是它可以为自己改变和创造它的生存环境。也许有人会说,当今的人工智能也可以做到这一点。我想,更准确的说法是,阿米巴虫的独特之处,在于它并没有一个人格意义上的设计者,或者即使它有,这个设计者也没有给它一个具体的任务,而仅仅是“寻求生存”这样一个模糊的指令。人类沿着这种独特性走得更远。可以说,如果我们是被设计出来的,我们是被设计成要超越任何(固定或特定的)设计。

 

我这里无意否认阿尔法狗和其他人工智能进步之神奇。很多人本来以为机器(包括人工智能)只是擅长机械性的事情,即那些有着清楚规则和特定的程序的工作,也就是所谓的自动化。而比如围棋这样只能通过经验、天分、不可言说的知识(tacit knowledge)等才能掌握的任务,机器是无法去做的。阿尔法狗证明,我们这个信念是错的。但是,围棋毕竟还是一个特定的任务,有清晰的规则和一些基本的策略,并且最重要的是,它的输赢是明确定义了的,不需要人类的外来判断和干预(这样机器可以快速和高效地自我学习)。因此,阿尔法狗的成功让我们不得不承认,机器(包括人工智能)可能可以做任何特定的、结果明确的工作,哪怕是没有机械性的步骤可以遵循来完成这项工作。但是,阿尔法狗还没有人类意义上的智能:它没有选择掌握围棋,是我们人类替它选定的。

 

当然,有人会说,我们还是应该为人工智能真的获得智能——即人工智能(AI)变成了所谓强人工智能(Artificial General Intelligence/AGI)——的那天做好准备。诚然,人类在预测未来上表现很糟糕。在二十世纪五十年代,人工智能就已经开始发展,但突破性的进展最近才发生。十年前,多数人认为纳米和生物科技才是将来科技发展的方向,很少有人意识到人工智能的巨大进展。但不幸的是,我们人类只能利用我们(经常具有误导性的)过往经验和非常有限的智能去帮助我们为未来做准备。现在看起来,对人类更清晰和紧迫的挑战来自基因编辑、气候暖化这样的问题,而不是强人工智能。与前者明显的迫切性相比,反思强人工智能对人类挑战简直就是杞人忧天。

 

但是,这不等于说,反思强人工智能的问题,没有任何意义。在英美哲学界两个(曾经?)很热门的话题是关于僵尸和时间旅行的。如果我们知道,僵尸电影和比《回归未来》(Back to the Future)系列电影在八十年代很流行的话,我们可以嘲笑说,这些哲学家似乎是从流行电影中找到他们的研究话题。精神正常的人不会觉得真的会遇到僵尸,而时间旅行只存在于科幻电影之中,只是一个数学上的可能性,几乎没有物理学家认为在较近的甚至是很远的未来里面,时间旅行有任何成为现实的可能性。但是,同情地讲,反思这些看起来是闲极无聊、甚至是荒诞的话题,可能还是有哲学意义的,因为它可以展现一些本来是隐藏起来的问题。类似地,即使真正有智能的强人工智能还远在天外,我们还是可以问问,对它的思考是否可以让我们发现一些重要和有趣的话题。实际上,我们前面“当今的人工智能还没有任何智能”的说法,就可能是这样一种反思的结果,即对(其实还很遥远的)强人工智能的憧憬或者恐惧,让我们不得不回应人类的智能为何的问题。

 

2.强人工智能与中国哲学:制造超级人类?

 

对强人工智能与人工智能的各种挑战的哲学反思,已经有很多。在这篇文章中,我会集中于从中国哲学与思想相关的角度出发,来反思其挑战。首先,在对强人工智能的态度上,在美国,公众对强人工智能和其他科技进步常常是充满恐惧,但在东亚,公众对科技发展似乎更是一种欢迎态度。如果我的观察确实是事实,那么一个可能的解释是现代科学首先在西方得以发展,而在追赶过程中,东亚就很可能产生对科学的(非科学、非理性的)崇拜。在东亚,“科学”和“好的”成为同义语。另一个可能的原因,是基督教有创生的神话(creation myth),根据这一神话,只有上帝才能造人。但在东亚传统里面,并没有这样的创生神话,不同的神、甚至是人都可以参与到创造和成就人类的过程中。人类会创造类人的存在,东亚人比对西方人更好接受这种可能性,因为哪怕是世俗的西方人总还是在成长中可能受到基督教的潜移默化的影响。同时,伴随着这种创生神话,还有世界大毁灭的神话,[2]为西方人对科技进步带来世界毁灭提供了思想上的“蓝图。”这又与东亚的文化传统不同,也因此对东(亚)西对人工智能的心理反应做出了贡献。

 

这里的另一个问题是,在什么意义上我们就造就了一种类似甚至超越人的存在?前面的关注,集中的人的智能上。但是,按照孟子对人之为人的理解,我们会说,在这个问题上,只关注于智能,是错误的。这是因为,对孟子来讲,人之为人,或者人与禽兽的根本区别,不是智能,而是恻隐之心及建立于其上的仁。作为德性之一的智(能)是为仁服务的,即帮助我们实践我们的恻隐之心,帮助他人。对恻隐之心(compassion)这种情感(passion)的首要性的强调在西方哲学里面,是非常罕见的。正如哲学界休谟(David Hume)指出的:

 

谈论情感(passion)和理性(reason)之争、给与理性以优先地位、并断言人有多少道德只与在多大程度上遵从理性之命令(dictates)相关,在【西方】哲学乃至日常生活里面,没有比这些说法再通常的了。(Hume 1888,413页(Section III,Part III,Book II))[3]

 

与之相对,休谟几乎是独树一帜地论述说,就产生行动或者促使我们行动而言,“理性是并且应该只是情感的奴隶”(同上,415页)。当代神经科学家Antonio Damasio引用了休谟的后一种说法,并且也为情感在人类行动中的首要性做出论证(Gardels 2018)。但是,如上所述,休谟关心的是人类行动的驱动因素,Damasio更是主要在经验层面关心这个问题,并诉诸于进化论。用进化论的语言来讲,我们可以说,休谟和Damasio实际是在论述,由于其更长的演化历史,人类中动物性的因素比我们的理性要强大得多。如Damasio指出的:

 

神经系统只是在5亿年前进入了生命的舞台。比起演化的时间尺度,比起地球上生命的40亿年的历史来讲,这实在微不足道。(同上)

 

他这里说的是神经系统,而人类乃至人类智能这种依赖于极其复杂的神经系统的演变,当然就更短了。

 

因此,虽然在西方传统里面,休谟和Damasio已经是少有的例外了,但是他们的立场还是与孟子有着根本不同。孟子所关注的是恻隐之心,而非任一情感,并且他对恻隐之心这种情感的强调不是出于它是与动物相通并且有着长久的演化积累,而是因为它以及建于它之上的仁是人兽之别的根本。在《孟子·离娄下》(4B19)中,孟子指出,“人之所以异于禽兽者几希。”[4]他这里虽然没有明确指出区分人类与禽兽的这一点点东西(“几”)是什么,但是从其他地方看,这种区分应该是从恻隐之心之上发展出来的仁。在《孟子·公孙丑上》(2A6)中,孟子指出“不忍人之心”(恻隐之心或者同情心)是人类所共同的(“皆有”)。人类需要培养人皆有之的恻隐之心,这样才能配得上人的名声。因此,孟子并不认可情感是人类行动之主宰这一立场(休谟和Damasio的立场),而是要求人类的理智和其他自然情感都要被恻隐之心所规管。也就是说,孟子以及追随孟子的儒家的立场与休谟和Damasio西方思想家中这样强调情感重要的少数派仍然有着根本不同,其对恻隐之心的强调有其独特性。

 

当然,西方道德学说的主流学说之一的功利主义的核心,在于根据是否提高最大多数人的最大幸福的理性计算,而另一主流学说的义务论,也强调对理性的道德原则的服从。与此相对,休谟一支的思想家更是强调情感的指导。孟子式的儒家强调对恻隐之心这种道德情感的培养,让其成为我们行动的推动者。在情感的指导功能上,孟子式的儒家与休谟式的思想家有相通之处,可以互相借鉴。

 

从孟子的立场出发去回答我们是否在创造类人的存在,我们要关注的是否我们创造了“人工道德情感,”而不是“人工智能。”对强人工智能的担心,从孟子的角度看,不是对类人、但强于人的存在的担心,而是对(具有超人智能的)禽兽的担心。著名的图灵测试,在对机器与人的区别上,关注的是语言和理性。但按照孟子对人的理解,我们应该关注的是被试是否展示出恻隐之心。并且,即使我们创造了具有内在的善的存在,即使这个存在通过了孟子式的图灵机测试,这并不意味着我们制造类人存在的使命就完成了。虽然根据孟子,恻隐之心是人兽之别的关键,但是成人是一个过程,不是一个固定的点。生物意义上的人仍然需要学习成为孟子的道德与规范意义上的人。正如恻隐之心可以变得越来越强,我们也可以成长得越来越是人,或者越来越大的人(道德意义上的大小)。如果一个生物意义上的人不好好抚育人的天生的善性,他/她可能会退化得近于禽兽。这对孟子来言,这没什么好奇怪的。比如,他指出:“饱食、暖衣、逸居而无教,则近于禽兽”(《孟子·滕文公上》3A4)。既然生物意义上的人可以退化成禽兽,那么,一个被制造出来的存在可以通过培养其道德情感而变成人,也没有什么好奇怪的了。

 

孟子对道德培养对我们成人之关键性的观点也可能会帮助回应另一个对强人工智能的担忧。强人工智能可以在智能和体格上强于人,如果它们被设计成或者自己选择(强人工智能的重要特征就是可以自主决定)去消灭人类,谁也拦不住它们。因此,让它们的行为得以规管就变得很重要了。但是如果我们希望通过编码或者律令来规管其行动,比如阿西莫夫的机器人三定律(Issac Asimov’s Three Laws of Robotics),它们很可能最终无法处理复杂的生活所带来的挑战。其实我们只要看看揭示伦理两难的电车问题可以膨胀成一个研究领域,甚至有了所谓“电车学”(trolleyology)这样的事实,我们就不难想象任何一套原则都会导致各种难题——当然,这会是那些需要发文章的哲学教授和博士生所喜闻乐见的。Peter Eckersley(2019)论证,将效用函数(utility functions)或者与其等价的函数应用到任一的机器学习里面,都不可能在不违背人类的很强的伦理直觉的情况下,保证其结果对一个人群是好的。[5]中国的人工智能专家曾毅则断言:“把人类社会的一些规则灌输给人工智能系统,但这绝对不是一个好的解决的方法”(2019)。

 

与此相对,儒家的道德养成不是简单的一套原则、一本行动手册,我们不是通过摩西十诫或者理性的绝对命令来爱我们的家人,而是强调在不同处境下的具体应对。在前面引用的对曾毅博士的采访中,他进一步指出:

 

只有人工智能系统,与人类交互的过程当中自主地去获取人类价值观、做事的规则和准则,以一种基于自我模型的自主学习的方式,它才真正地实现可理解,才真正能达到人工智能模型和人类社会价值观校准(alignment)的这样一个过程。(曾毅2019)

 

在阮凯的一篇文章里面,他指出,“通过以满意和道德捷思法为关键词的有限理性观对功利主义的改良,一种以功利主义为内核的机器伦理模型可以被构想和实现”(阮凯2018,80)。这里的有限理性,如果是可行的,应该也是上面曾毅指出的自主学习的过程。

 

但是,从儒家的角度,这种情境中的学习,仍然不够。在具体情境中,我们不但是要获取应对各种伦理困境的方法,更是通过与家人、外人在一起、理解他们的特点和需要、在交往中发育我们相互的关切来学会爱我们的家人,然后推己及人的。在这一过程中,我们会遇到不同道德责任之间的矛盾(比如忠与孝),而我们通过生活本身来学会面对它们。我们要做到的,是仁爱与理智——这里理智应该理解为亚里士多德意义上的实践智慧(phronesis)——的结合。前面提到的曾毅和阮凯的说法,依然是过多地强调理智方面的解决。与功利主义或者康德式的义务论相比,这种人工智能中的亚里士多德主义可能更优越。但是,从儒家的观点看,它缺乏对情感培养的强调。博古睿研究所(Berggruen Institute)的主席博古睿(Nicolas Berggruen)在最近的一篇文章中指出,[6]我们应该把人工智能——“这个文明的最终之子”——当成我们的孩子,并如儒家所言,我们在家庭的环境中,对它进行道德培养,特别是培养它对其他人的关爱(Berggruen 2018)。这一说法确实很好地展示了儒家对道德培养的理解。

 

但是,儒家的道德养成是否就能保证强人工智能的关爱与审慎权衡吗?糟糕的家庭环境,会对孩子有坏的影响。甚至是好的家庭,也不能保证培养出来的孩子有多好。韩非子很早就批评过儒家的道德培养。他认为,通过家庭中道德培养来规范人类行为不如建立在赏罚之上的法律制度有效。比如,他很直观地指出,“夫严家无悍虏,而慈母有败子”(《韩非子·显学》。[7]并且,我们也要问,为什么我们需要人造人呢?与其制造“文明之子,”我们直接生孩子就好。博古睿指出,这里的问题不应该是人工智能还是人类才是主宰,而是我们如何制造人与人工智能的混合。但就这些混合体而言,我们其实并不需要真正有智能或者真正有恻隐之心的人工体。现在人工智能的成就已经可以为这种混合体奠定基础了。因此,我们又被带回了现有的(弱)人工智能对人类构成何种挑战这个问题。这是一个更迫切的问题。

 

3.回应(弱)人工智能的挑战:“东亚式”教育与儒家混合政体

 

(弱)人工智能对人类带来了很多挑战。但是,有时候我们对人工智能的担忧,可能有偏激的危险。比如,一个常见的抱怨是科技(包括人工智能)的发展让我们的孩子远离同伴、远离自然。但是离开自然是人类一直致力的事情。我们甚至可以说,离开自然的过程是人类成为人类的过程。难道我们应该重回丛林,捡草木之实,徒手杀死禽兽并生吃其肉吗(不要忘了,用火也是人类技术进步的结果)?并且,电视、网络、以及其他技术发展也把我们很难接触到的自然带到了我们和我们的孩子们的眼前;也就是说,技术对人类与自然接触的影响并不仅仅是负面的。因此,我们需要问的问题是与自然的哪一方面保持接触对人类的幸福生活是有益的?抱怨科技发展让我们远离自然的人需要回答这个问题;否则,他们的抱怨可能只不过是把他们与自然的那些接触或者他们想象的与自然的那些接触当成不同群体、不同时代、不同地点都必须要有的,也就是说,他们的抱怨无非是出自个人偏见、把个人的偶然经历当成人类的普遍必然而已。就与其他同伴的接触来说,儿童和青少年也通过电脑游戏的群体接触到了并不是他们日常生活圈子里的人。也就是说,他们接触的圈子还扩大了,虽然可能在这个过程中,他们会失去那些上一代人会接触的周边的一些同龄人。这就又引到了什么样的人际交流才是根本的这个问题,在回答这个问题时,我们也要注意避免对将我们自己成长经历构成的偏见当成普世真理。当然,我不是对进步充满乐观的人,也并不相信进步带来的恶果都会被平衡掉。我这里只是想说,我们很多对新变化的担心可能是出自我们旧有之偏见的、单方面的、被夸大的。

 

那么,让我们来以一种全面与平和的态度,从广义的中国传统与中国哲学的视角,来处理人工智能已经构成的挑战中的两种。第一是对教育的挑战。自动化已经抢走了很多蓝领工人的工作,而类似阿尔法狗的人工智能的发展意味着,比如医生、股票交易人、律师等白领工作也有被机器替代的危险。如我在第一节里论述的,当今的人工智能还不具有人类的智能,因为人类智能的关键特点在于它的创造性。由此我们得出的结论似乎是:为了回应(并不真的有人类智能的)人工智能的挑战,我们应该重视人类智能独有的创造性。在教育上,这意味着我们要重视创造性教育,而不是死记硬背和应试教育。前者常被归于西式或美式教育,而后者常被归于儒家、中式、或者东亚式的教育,虽然至少后面这一说法是有很大问题的。[8]但是,就我看来,人工智能的发展可能恰恰支持了死记硬背乃至广义上非创造性教育的重要。死记硬背的对象是基本技能的培训,比如写作与算术。并且,哪怕是基础科学,如科学哲学家库恩(Thomas Kuhn)指出的,在常规科学(normal science)时代,对科学的学习是通过以共通的教科书(textbook)为基础的严格训练实现的。其目的,是让学生掌握一套共用的科学范式(paradigm),其所训练的,是这种汇聚的(convergent)思维模式,而非发散的(divergent)或是强调创造性的思维模式(Kuhn 1959)。在这种训练中,不断通过习题和考试来让学生掌握既有范式是至关重要的。人工智能的发展让我们看到,可能任何一种具有确定性的工作(有清晰的规则和一些基本的策略,任务成功与否有相对明确的判断,并且最好不依赖人类的外来判断和干预),人工智能可能都可以最终掌握,并比人类做得更好,或者至少可以替代人类。这意味着我们需要不断重新创造自我以适应不断变化的就业市场。我们掌握的那些“先进的”的技能可能最终都被证明是可替代的和没有用的,而我们必须回到我们拥有的基本技能(比如在中小学学的识字和算术、在大学里学的现代物理科学)来再造自我。既然这些基本技能变得至关重要,那么我们就应该保证这种教育的成功,而如前面提到的库恩的论点所指出的,后者恰恰是依赖于死记硬背和应试教育等非创造性的教育模式。现实的挑战将承担创造性教育的任务:我们要相信人类(中的一些)在现实挑战下自发的创造力。

 

不幸的是,不是每一个人都可以再造自我。自动化对发达国家工资上涨的停滞和不断上涨的经济不平等做出了重大贡献,而人工智能的发展很可能将这种情形恶化。越来越多的人会被落在后面。对此,一个国家可以为其所有国民提供基本工资(universal basic salaries),但是,即使少数发达国家可以做到这一点,有工资但没有工作不能给人以生命的目的和价值,这就意味着这些被抛在后面的国民仍然会生活在无聊、抑郁、甚至悲苦之中。美国的类鸦片药物危机(the opioid crisis)佐证了这一点。[9]马克思主义者可能会说,既然这些人没有工作、但有基本生活保障,他们就可以真正的拥有闲暇,做自己愿意做的事情。但是,很不巧的是,这些被落下的人恰恰是那些缺乏自觉和自主的人。而那些善于利用自主机会的人恰恰是那些不太可能被社会抛下的人。在西方,这些被技术进步丢下的人已经成为了民粹主义崛起的重要动力来源,而多数政治学者任务,民粹主义并不能真正地解决其支持者所面对的问题。因此,寄希望于那些被落在后面的人可以自觉地享受其自由,或者在不满现状的情况下通过选票来寻求政治改变,都是不现实的。我们应该做的,是创造政治与社会机制,让那些能够不断创新自我引领潮流的精英负有责任,为那些落在潮流后面的人谋福利。近几年来,依据先秦儒家(特别是孟子)的思想,笔者提出了结合了民众的声音和贤能之士的决策权的混合政体(白彤东2013)。在这种混合政体中,一方面我们承认民主政治中的民有与民享的原则——这与儒家的民本观念是一致的,并且我们接受通过一人一票让民众表达是否自己享有自己所期望的意见。但另一方面,先秦儒家对大众的政治决策能力是有保留的,因此他们部分拒绝民主政治中的民治的观点,希望将一定的选贤举能的办法引入各种政治与社会机制,培养精英的责任意识,并把有道德与理性能力的精英选拔出来,让他们为大众谋福利。这样一种混合政体,比最终只依赖于一人一票的民主政体,可能可以更好地回应人工智能的发展所加剧的经济不平等之问题。

 

参考文献

 

白彤东(2011),“Against Democratic Education”, Journal of Curriculum Studies, 43:5, 615-622.

 

--- (2012),“反对民主式教育”,苏晓冰译,《思想与文化》第12辑,327-335。

 

--- (2013),“主权在民,治权在贤:儒家之混合政体及其优越性”,《文史哲》2013年第三期,12-23。

 

Berggruen, Nicolas (2018), “How Do You Plan to Raise Your Super-Intelligent Child?” The Washington Post, Feb. 28, 2018

https://www.washingtonpost.com/news/theworldpost/wp/2018/02/27/ai/

 

陈奇猷(2000),《韩非子新校注》。上海:上海古籍出版社。

 

Eberstadt, Nicholas (2017), “Our Miserable 21st Century,” The Commentary.  February 15, 2017.  

https://www.commentarymagazine.com/articles/saving-conservative-judaism/

 

Eckersley, Peter (2019), “Impossibility and Uncertainty Theorems in AI Value Alignment (or why your AGI should not have a utility function),”

https://arxiv.org/pdf/1901.00064.pdf

 

Gardels, Nathan (2018), “The Biological Origins of Culture,” The Washington Post, Feb. 28, 2018

https://www.washingtonpost.com/news/theworldpost/wp/2018/02/28/culture/

 

Hume, David (1888), A Treatise of Human Nature.  Edited by L. A. Selby-Bigge.  Oxford: Oxford University Press.

 

Kuhn, Thomas (1959), “The Essential Tension”, from The Third (1959) University of Utah Research Conference on the Identification of Scientific Talent, ed. C. W.

 

Taylor (Salt Lake City: University of Utah Press, 1959), 162-174.Noë, Alva (2014), “Artificial Intelligence, Really, Is Pseudo-Intelligence,”

http://www.npr.org/sections/13.7/2014/11/21/365753466/artificial-intelligence-really-is-pseudo-intelligence

 

阮凯(2018),“机器伦理何以可能: 现有方案及其改良”,《自然辩证法研究》第34卷第11期(201911月),78-83

 

杨伯峻(1960),《孟子译注》。北京:中华书局。

 

曾毅(2019),“规则灌输绝对不是使人工智能获得人类价值观与社会规则的正确途径”,https://mp.weixin.qq.com/s/3Qq2jNtvGy6jKd8dhrl1BQ

 

注释:

 

[1]本文的研究得到了上海高校特聘教授(东方学者)岗位计划(跟踪计划)的支持,特此感谢。

 

[2]感谢贝淡宁(Daniel Bell)向笔者指出这一点的相关性。

 

[3]本文所有翻译均为作者本人的翻译。

 

[4]本文分段和文本所根据的是杨伯峻1960。

 

[5]笔者感谢Brian Green让我注意到了这篇文章。

 

[6]博古睿研究所是一个支持对大问题的跨文化研究的一个机构,其关心的一个大问题就是人工智能。

 

[7]本文引用的《韩非子》根据的是陈奇猷2000。不过,这里需要指出的是,韩非子的办法好像也不管用。韩非子认为只有赏罚二柄是最有效的控制工具,任何原则、法律、机构都要建筑在其上。但是,这样的一个架构会遇到我们前面提到用原则来规管机器人所面对的问题。一般来讲,强人工智能的强就在于它可以超越任何给定的规则。也就是说,强人工智能注定会让建立在规则上的规管失败。

 

[8]当然,所谓西式的“创造性”教育,确实与民主思想发展有关系。下面我们会看到,儒家对民主政治有所保留。因此,在批评创造性教育上,儒家也是有潜在的角色的。对此的详细讨论,见白彤东2011(中文翻译版见白彤东2012)。

 

[9]Eberstadt 2017对这一危机有深入细致的讨论。

 

 

责任编辑:近复