复旦大学第24届Sophia人文节,白彤东讲座“从中国哲学角度反思人工智能发展”回顾

栏目:演讲访谈
发布时间:2023-04-27 22:07:02
标签:人工智能
白彤东

作者简介:白彤东,男,西历一九七〇年生于北京。北京大学核物理专业学士(1989-1994),北京大学科学哲学专业硕士(1994-1996),波士顿大学哲学博士(1996-2004),现任职复旦大学哲学学院教授。主要研究与教学兴趣为中国传统政治哲学、政治哲学,著有《旧邦新命——古今中西参照下的古典儒家政治哲学》《实在的张力——EPR论争中的爱因斯坦、玻尔和泡利》等。

原标题:白彤东讲座“从中国哲学角度反思人工智能发展”回顾

来源:复旦哲学青年

时间:西元2023年4月18日


202347日,复旦大学哲学学院第24Sophia人文节第二场讲座顺利举行,本次讲座是由白彤东教授带来的“从中国哲学角度反思人工智能发展”。下面就让我们共同回顾讲座:

 


 

讲座简介

 

虽然阿尔法狗和ChatGPT等代表的人工智能的进展远远超出了自动化时代我们对机器所能完成的任务的想象,但是当今的人工智能还没有任何智能,对强人工智能的担忧是杞人忧天。不过,对强人工智能的反思,仍然可以促进我们对一些人类根本问题——比如何为智能、何为语言、何为人——的探讨。

 

从中国哲学的角度看,现在对强人工智能是否会替代和毁灭人类的担心,可能带有西方文化的偏见。但是以孟子对人之为人的理解来养育类人之存在,也有其问题。在应对现有的人工智能的挑战上,我们应该加强的,恰恰不是创造性教育,而是死记硬背和应试教育。人工智能的发展可能会强化经济不平等,对此,可能也要通过加强精英的责任和贤能在政治中的决策角色来解决,而这恰恰是儒家政治哲学的一个可能贡献。


 

讲座前半部分,白彤东教授基于他的《从中国哲学角度反思人工智能发展》论文分享自己对人工智能的观点。白彤东教授指出,这篇论文是19年针对AlphaGo引发的讨论和担忧所撰写,是中国哲学视角下对人工智能的观点看法。他认为,对于AlphaGo的一般性反思多数同样适用于Chat GPT。

 

01 人工智能还没有智能

 

无论是AlphaGo还是Chat GPT的面世,都掀起了对人工智能担忧的浪潮,人们会担心人工智能是否会替代人类。然而,白彤东教授指出,人工智能迄今为止都没有真正的智能,它们还只能做被人类预先设计好的任务,AlphaGo和Chat GPT同样如此。

 

以AlphaGo为例,AlphaGo可以在围棋中击败世界上最好的围棋选手,但是如果我们选择和它玩中国象棋就可以赢过它,在它学习中国象棋后,我们可以选择跟它比跳棋、跳绳而击败它。

 

那么人类的智能是什么呢?人类智能中一个很重要的关键是可以根据环境、外在变化不断调整自己的目标,接着根据这一目标设计出理性的、智能的达成路线。“By nature ,human beings are not natural!”人类的本性就是可以违背任何被规定的本性,人的自然恰恰是不自然。

 

人的智能的表现在于永远可以做出一个新的选择,而智能并非正确,人的自我选择可能导致一个愚蠢错误的后果,这是人工智能无法做到的。

 

美国加州伯克利分校执教的哲学家阿瓦·诺伊(Alva Noë)对此有很好的说法:钟表并不真的知道时间,而是我们人类用它来辨别时间。与此类似,AlphaGo不知道自己在下围棋,它只是在完成预设的任务,只是我们把它的操作称为“下围棋”,人工智能本身没有智能。阿瓦·诺伊指出:“即使最简单的生命形式,比如阿米巴虫,也展示了某种智能、自主性(autonomy)、创造性,这甚至超越了最强大的电脑。”根据他的说法,阿米巴虫之所以更智能,是因为它可以为自己改变和创造自己的生存环境。

 

当然,也可以说阿米巴虫有确定的目标——求生,但“求生”是一个很模糊的目标,而AlphaGo的目标“下围棋”更为明确:具有清晰的规则、基本的策略,不需要人为参与判断的输赢标准使AlphaGo可以进行自主大量演算,在积累的过程中自我学习。我们肯定人工智能超越了以前机器只能做自动化(机械性工作)或者计算的局限,然而也要清楚认识到AlphaGo、Chat GPT等看似创造性的成果实际也是由已设计好的工作组成。

 

现在的人工智能都还属于弱人工智能,强人工智能还没有踪影。对人类更清晰和紧迫的挑战来自基因编辑、气候暖化这样的问题,而不是无迹可寻的强人工智能。在此背景下,我们现在所担忧的人工智能获得智能后替代人类的观点实属杞人忧天。

 

02 强人工智能与中国哲学:制造超级人类?


但是,哲学这一学科的特点之一就是探讨一些看似无意义的问题,如英美哲学界的两个热门话题——僵尸和时间旅行。对这看似无意义的种问题的反思可能激发我们对人类基础的哲学问题的思考。从这一思考角度来看,杞人忧天也是有其意义的。

 

白彤东教授根据个人经验观察,东西方在这种“忧”的方面具有很明显的差别。好莱坞电影中几乎所有关于未来的描述都是人类因科技进步毁灭了自己,只有一小部分人幸存或人类与自己发明的机器进行殊死搏斗;而中国的科幻电影小说中这一主题并没有那么明显,科技不是黑暗的、毁灭世界的。

 

由此可以看出,东方对科技进步的看法至少不太坏,公众对科技发展似乎更持一种欢迎态度,为何东西方对科技、未来世界的态度不同?白彤东教授猜测,这可能与历史上近现代科学的发展有关,近现代科学首先在西方得以发展,而在接受、追赶过程中,东亚就很可能产生对科学的非理性的崇拜。“科学”在东亚被认为是“进步的”“好的”。

 

另一点,在四大古代文明中,中国古代文化是唯一没有世界毁灭元素存在的,这是由于中国古代文化中没有纯善或纯恶的神,也没有创世的传说——能被神所创造的世界就能被神毁灭。而西方基督教有创生的神话,伴随着这种创生神话,还有世界大毁灭的神话“诺亚方舟”,为西方人对科技进步带来世界毁灭提供了思想上的“蓝图”。

 

那是究竟什么造就了人,或者说人的根本性特征是什么?

 

近现代西方哲学奠基人笛卡尔在其《方法论》第五部分中提出人与禽兽的区别在于人有语言和理性,语言指可以通过不同的词语排列去回应不同场景的不同情况,这一点正是Chat GPT使很多人关注担忧所在;理性则是一种在不同情况下帮助我们适应、产生目标的工具,AlphaGo似乎做到了只有人类理性才能做到的事情。

 

但是并不是所有思想家都认为人的本质在于语言和理性。回到白彤东教授研究的中国哲学领域,先秦儒学思想家孟子对“人之为人”有不同的理解——对孟子来讲,人之为人、人与禽兽的根本区别,不是智能,而是恻隐之心及建立于其上的仁。

 

“所以谓人皆有不忍人之心者,今人乍见孺子将入于井,皆有怵惕恻隐之心。非所以内交于孺子之父母也,非所以要誉于乡党朋友也,非恶其声而然也。由是观之,无恻隐之心,非人也;无羞恶之心,非人也;无辞让之心,非人也;无是非之心,非人也。恻隐之心,仁之端也;羞恶之心,义之端也;辞让之心,礼之端也;是非之心,智之端也。”(《公孙丑上》)

 

以孟子为首的中国古代儒家思想与西方哲学中的主流思想对人的根本特征的观点截然不同,但西方哲学不是只有一种观点。例如西方思想家休谟(David Hume)在其《人性论》中指出的:“谈论情感(passion)和理性(reason)之争、给予理性以优先地位,并断言人有多少道德只与在多大程度上遵从理性之命令(dictates)相关,在(西方)哲学乃至日常生活里面,没有比这些说法再通常的了。” 西方道德学说的主流学说之一的功利主义的核心,在于根据是否提高最大多数人的最大幸福的理性计算,另一主流学说即康德的义务论,也强调对理性的道德原则的服从。但与之相对,休谟几乎是独树一帜地论述:“理性是并且应该只是情感的奴隶”。当代神经科学家安东尼奥·达马西奥(Antonio Damasio)引用了休谟的后一种说法,并且也为情感在人类行动中的首要性做出论证:“神经系统只是在5亿年前进入了生命的舞台。比起演化的时间尺度,比起地球上生命的40亿年的历史来讲,这实在微不足道。”——越被认为是人类智能精华的东西越能被人工智能复刻,反而是走路下台阶、以合适力度拿东西这些行为是人工智能特别难做到的。

 

虽然二人的思想研究是西方思想中少有的例外,但他们的立场还是与孟子有着根本不同。孟子所关注的是恻隐之心,而非任意一种情感,并且他对恻隐之心这种情感的强调,不是出于它是与动物相通并且有着长久的演化积累,而是因为它以及建于它之上的仁是人兽之别的根本。孟子并不认可情感是人类行动之主宰这一休谟和达马西奥的立场,而是要求人类的理智和其他自然情感都要被恻隐之心所规管。孟子以及追随孟子的儒家对恻隐之心的强调有其独特性。

 

从孟子的立场出发去回答我们是否在创造类人的存在,我们要关注的是我们是否创造了“人工道德情感”,而不是“人工智能”。著名的图灵测试,在对机器与人的区别上,关注的是语言和理性。但如果按照孟子对人的理解,我们应该关注的是被试者是否展示出恻隐之心。

 

而孟子认为,虽然恻隐之心是人兽之别的关键,但是成人是一个过程。生物意义上的人仍然需要学习成为孟子的道德与规范意义上的人。恻隐之心可以变得越来越强,我们可以成长为道德意义越来越大的人。如果一个生物意义上的人不好好抚育人的天生的善性,他可能会退化得近于禽兽。这对孟子而言没什么好奇怪的。既然生物意义上的人可以退化成禽兽,那么,一个被制造出来的存在可以通过培养道德情感而变成人,也没有什么好奇怪的了。

 

孟子的道德培养是我们成人之关键性的观点也可能会帮助回应另一个对强人工智能的担忧。强人工智能在智能和体格上强于人,规管它们的行为式十分重要的,但是如果我们希望通过编码或者律令来规管其行动,比如阿西莫夫的机器人三定律(Issac Asimov’s Three Laws of Robotics),它们很可能最终无法处理复杂的生活所带来的挑战,规则永远无法达到人类道德的要求。例如“电车难题”甚至衍化出所谓“电车学”(trolleyology),任何一套原则都会导致各种难题。

 

而儒家的道德养成不是简单的一套原则、一本行动手册,我们不是通过摩西十诫或者理性的绝对命令来爱我们的家人,而是强调在不同处境下的具体应对。中国的人工智能专家曾毅则断言:“把人类社会的一些规则灌输给人工智能系统,但这绝对不是一个好的解决的方法。只有人工智能系统,与人类交互的过程当中自主地去获取人类价值观、做事的规则和准则,以一种基于自我模型的自主学习的方式,它才真正地实现可理解,才真正能达到人工智能模型和人类社会价值观校准的这样一个过程。”

 

但是,从儒家的角度,这种情境中的学习,仍然不够。在具体情境中,我们不但要获取应对各种伦理困境的方法,更要通过与家人、外人在一起,理解他们的特点和需要,在交往中发育我们相互的关切来学会爱我们的家人,然后推己及人。在这一过程中,我们会遇到不同道德责任之间的矛盾(比如忠与孝),而我们通过生活本身来学会面对它们。我们要做到的,是仁爱与理智(亚里士多德意义上的实践智慧)的结合。博古睿研究所的主席博古睿(Nicolas Berggruen)在最近的一篇文章中指出,我们应该把人工智能 “这个文明的最终之子”当成我们的孩子,并如儒家所言,我们在家庭的环境中,对它进行道德培养,特别是培养它对其他人的关爱。这一说法确实很好地展示了儒家对道德培养的理解。

 

儒家的道德养成是否就能保证强人工智能对关爱与审慎权衡?韩非子很早就批评过儒家的道德培养。他认为,通过家庭中的道德培养来规范人类行为,不如通过建立在赏罚之上的法律制度来得有效。如《韩非子》中很直观地指出:“夫严家无悍虏,而慈母有败子”。

 

并且,我们也应思考,是应该制造“文明之子”人工智能还是繁衍人类自己的孩子。博古睿指出,这里的问题不应该是人工智能还是人类才是主宰,而是我们如何制造人与人工智能的混合体。就这些混合体而言,并不需要真正有智能或者真正有恻隐之心的人工智能,现在人工智能已经可以为这种混合体奠定基础。

 

因此,我们又被带回到现有的弱人工智能对人类构成何种挑战这个问题,这是一个更迫切的问题。

 

03 回应()人工智能的挑战:“东亚式”教育与儒家混合政体

 

弱人工智能给人类带来了很多挑战。但是,有时候我们对人工智能的担忧,可能有偏激的风险。

 

白彤东教授以罗大佑《未来的主人公》中的歌词为例,提到一种常见的抱怨是科技的发展让我们的孩子远离同伴、远离自然。但是离开自然是人类一直致力的事情。我们甚至可以说,离开自然的过程是人类成为人类的过程。并且,电视、网络以及其他技术发展也把我们很难接触到的自然带到了我们和我们的孩子们眼前。技术对人类与自然接触的影响并不仅仅是负面的。我们需要问的问题是,与自然的哪一方面保持接触对人类的幸福生活是有益的?接近自然和接近他人何以对人重要?这类抱怨常常是出于抱怨者是出自个人偏见,把个人的偶然经历当成人类的普遍必然。

 

当然,弱人工智能对人类确实存在真正的挑战,白彤东教授在这里提到了两个挑战,一是对教育的挑战,二是对工资停滞、贫富差距扩大的挑战。

 

自动化已经抢走了很多蓝领工人的工作,而类似AlphaGo、Chat GPT的人工智能的发展则意味着,如医生、律师等白领工作也有被机器替代的危险。由于人类智能的关键特点在于创造性,由此得出的结论似乎是:为了回应弱人工智能的挑战,我们应该重视人类智能独有的创造性,在教育上要重视创造性教育,而不是死记硬背和应试教育。前者常被归于西式或美式教育,而后者常被归于儒家、中式或者东亚式的教育。但是,白彤东教授认为,人工智能的发展可能恰恰支持了死记硬背乃至广义上非创造性教育的重要。人工智能的发展让我们看到,可能任何一种具有确定性——有清晰的规则和一些基本的策略,任务成功与否有相对明确的判断,并且最好不依赖人类的外来判断和干预——的工作,人工智能可能都可以最终掌握,并比人类做得更好,或者至少可以替代人类。这意味着我们需要不断重新创造自我以适应不断变化的就业市场。我们掌握的那些“先进的”的技能可能最终都被证明是可替代的和没有用的,而我们必须回到我们通过“死记硬背”而拥有的基本技能(语文和数理化)来再造自我。

 

自动化对发达国家工资上涨的停滞和不断上涨的经济不平等起到了重大作用,而人工智能的发展很可能将这种情形恶化,多数劳动人民将面临缺乏工作或工资水平停滞的困境。即使少数发达国家可以为其所有国民提供基本工资,但有工资但没有工作不能给人以生命的目的和价值,例如美国的类鸦片药物危机。而白彤东教授提出了另一种解决之道——先秦儒家(特别是孟子)结合民众声音和贤能之士决策权的混合政体。在这种混合政体中,一方面,承认民主政治中的民有与民享的原则——这与儒家的民本观念一致,并且接受通过一人一票让民众表达是否自己享有自己所期望的意见;但另一方面,儒家对大众的政治决策能力有所保留,他们部分拒绝民主政治中的民治的观点,将一定的选贤举能的办法引入各种政治与社会机制,培养精英的责任意识,并把有道德有理性能力的精英选拔出来,让他们为大众谋福利。这样一种混合政体,比最终只依赖于一人一票的民主政体,可能可以更好地回应人工智能的发展所加剧的经济不平等问题。

 

04 Chat GPT一些初步的哲学思考

 

从理性到语言——Chat GPT挑战了笛卡尔认为的人类两大特征,是对人类更深的挑战。中国科学技术大学教授陈小平认为,Chat GPT不仅是大数据,更是大计算。Chat GPT并不是真正在说话,而是通过对海量数据的概率计算,显得它像是在自主选择。

 

由此可知,虽然Chat GPT在“说话”,但它并不理解它所“说”的话的意思,它只是在相应情景下计算出概率较大的词与词之间的连结而回答,不是真的在像人一样说话。

 

但是上述的说法也存在很多问题——我们认为自己在说话,那我们真的在说话吗、在表达自己的想法吗?我们的想法又是什么呢?人类真的理解语言是什么吗?我们解释一段语言需要用到另一段语言,那么我们的解释是否还是有效的呢?

 

白彤东教授认为, Chat GPT和心理学认知哲学中的行为主义是一样的,二者的共同特点是不关注内在的想法而只关注外在行为是否符合。从内在看,人类语言背后有精神支撑,有个人私密的精神活动,这是人类语言与Chat GPT语言的不同,但是在讲述时很难讲清楚它们的不同之处。


 

05 问答环节

 

1.人工智能是不是应该换一个说法,它们的“智能”和人的智能不同,但也是一种另外的智能(跳出人的智能的形式去思考)?

 

答:可以这样理解,目前的人工智能和人类的智能不一样,与其去担心人工智能对人类的威胁,不如担心某些居心叵测的人。

 

2.Chat GPT会输出一些不太符合人类主流价值观的答案?(e.g. 种族歧视、杀人、毁灭世界)

 

答:Chat GPT没有自己的思想,依靠大数据计算得出回答,而且它自身也没有智能决定能力,即Chat GPT所说的话到具体行动需要人的参与。Chat GPT的这种回答其实是人类自身的问题。

 

图片

 

3. AI和人的关系是否像人和自然界之间的关系?(自然界创造、决定了人)人真的有自由意志吗?

 

答:对于日常生活来说,我们可以明确感受到我们可以拥有情感性的决定,即可以选择与衍化倾向相违背的决定,我做的决定并不是别人的强迫。这个世界上多数人可能也没有比机器活得好到哪里去,但是总有可能性。

 

自由意志问题其实是有亚伯拉罕宗教的背景,从全知全能的上帝创造人类到自然界创造人类,存在人类被创造的预设。

 

当然,这个问题也是学界一直以来探讨的问题,目前无法得出确切的答案。

 

4.Chat GPT语言和人类语言的区别?

 

答:即使我们能够感受到两者的不同,也很难说明人类语言的特征,甚至但很难说明Chat GPT有没有语言,这个问题更大的意义在于促进我们去思考,这也是哲学继续发展的原因。

 

5.人工智能的发展导致人类的优越性受到威胁,如何看待就业问题?

 

答:提高自身本领水平,做只有人能做的事情。

 

最后,哲学学院分团委学生会为白彤东老师送上了哲学学院文创礼品,白老师与参加讲座的全体同学合影留念。