中国高校人文社会科学信息网

您所在的位置:

首页观点哲学

人工智能话语体系的建构

2019-04-01 10:29:50作者:夏莹来源: 《光明日报》( 2019年04月01日 15版)浏览次数:0 网友评论 0

  编者按: 

  人工智能技术的飞速发展在延伸和扩展了人类能力的同时,也让人类生存面临一系列挑战。究竟应该如何看待人工智能技术的积极效应及其给人类带来的威胁?本期组织的三篇文章分别从人工智能话语体系的建构、人工智能的“人工非智能”效应、人工智能的伦理挑战视角对此进行了研讨,以期引发进一步讨论。

  今天,与其说我们正在被人工智能所威胁,不如说我们正在被人工智能所构筑的话语体系所威胁。后者可能让我们变成现代版的堂吉诃德,在惶恐中与假想的风车进行战斗。麻省理工学院物理系教授迈克斯·泰格马克在《生命3.0》中将人类当下的存在方式视为生命2.0版本,它意味着人类主要依靠进化获得硬件,即身体的基本机能,却可以通过学习和思考来构筑软件,诸如人类的思维与创造力。而生命3.0,即今天被我们津津乐道的人工智能,则是能够“自己设计硬件和软件”的未来生命体。换言之,对于泰格马克这样的人工智能专家而言,其讨论范式早已不是机器如何模拟人的存在并构筑了对人类的威胁,而是相反,人的存在方式需要模拟机器(硬件、软件)来获得表达自身的套话语体系,正是这样一种话语体系统治了今天关于人工智能的讨论,并由此产生了一种无谓的恐惧:有血有肉的人类正在被可能拥有无限计算能力,同时又不知疲倦的机器所质疑与威胁。当然,目前更多的人对人工智能持乐观态度,他们勾勒出了一条实现美好智能化生活方式的基本途径。但不管是悲观主义视角还是乐观主义视角,其共有的是对人工智能的理解方式:即基于机器的运行方式来理解人的存在方式,并在此基础上言说人与机器的比较性关系。

  严格来说,这是一种还原论式样的思考模式,即,将人的行为进行人为的拆解:将行为背后的原因归结为人的机体的某个器官的作用。例如科学家弗朗西斯·克里克与克里斯托弗·科赫于1990年共同完成的有关“意识相关神经区”的开创性论文,详细描述了视觉、听觉、触觉可能对应的大脑不同部位;或者将人的行为还原为某种概率式的计算,比如泰格马克将意识的产生归结为信息的收集。由此形成的有关意识的理论将人的意识的构成还原成为科学可以“完全”把握的事实,具有物理学和数学的厚实基础。而所有可被科学完整把握的事实,就有可能被还原为一种0与1式的表述方式,最终为人工智能的加速发展添砖加瓦。

  同样囿于这一还原论的语境,泰格马克这样界定有关人工智能讨论的核心概念:所谓智能,“即完成复杂目标的能力”;所谓意识,即主观体验;所谓目的论,即用目标或者意志而不是原因来解释事务。正是基于这一名词列表所构筑的话语体系,我们似乎面临着或可与人类对峙的挑战,因为在这套话语体系当中,原本属人的诸多特性——智能、意识、意志等问题都被还原为以“目标”为导向的行为动机。这种目标导向,原本只能算是复杂的人类行为最为外在的一种显现方式,但现在却构成了谈论人工智能的话语体系的基本要素。如果智能本身被还原为一种完成复杂目标的能力,那么人类智能将永远无法赶超被加速主义原则所支配的技术进步。因为它排除了属人的人类智能当中原本包含着丰富内涵的智慧,在后者当中,人类的情感与意志都呈现出诸多无法还原为基本算法的非确定性。

  承认并正视这一非确定性是建构人工智能话语体系的一种可能性。它需要重新复苏一种特定的哲学人类学,让哲学的话语退回到康德时代有关“人是什么”的最终追问。而对人之本质最为晚近的思考终结于20世纪60年代的法国,后现代主义的勃兴一方面摒弃了当代法国存在主义对人之生存方式的痴迷,同时更以宣告人之死、主体之死的方式来终结了曾经盛极一时的哲学人类学。后现代主义思潮,如同古希腊怀疑论与诡辩论的一次复兴,它对于确定性的强烈拒斥在表面上似乎构成了对以确定性为旨归的科学技术发展的一种反叛,但实质上却以其对“本质”的否定,特别是对于人之本质的彻底否弃为科学技术毫无限制的蔓延提供了合法性。面对阿尔法狗(AlphaGo)战胜人类围棋高手与阿尔法元(AlphaZero)完胜阿尔法狗的事实,后现代主义者们以“怎么都行”的理论态度对之无可奈何。但正如诡辩论激发了柏拉图建构理念论,经验主义者休谟对于因果关系之先验确定性的怀疑激发了康德建构知识学,今天的人工智能不仅意味着一种技术的进步,更为根本的是它所建构的还原论话语体系,将再一次激发哲学人类学的重建。这一次哲学人类学的重建与柏拉图的理念论以及康德的知识学一样,都试图以对本质主义的重新探求树立人之尊严。因此,面对基于人工智能的技术支持而出现的物联网时代,当美国学者杰里米·里夫金惊呼“第三次工业革命”已经到来的时候,我们或许应当呼唤随之而来的又一次哲学人类学的复苏。

  哲学人类学的复苏,其根本任务在于构筑一整套完全不同于人工智能的还原论话语体系,重新回答“人是什么”的哲学追问。阿尔法元给人类带来的恐慌,其根源在于它呈现了一种机器学习的能力,并在大数据的聚集与高速运算的技术支持之下实现了一种所谓的“深度学习”。但对于哲学人类学家而言,这样的一种学习能力在何种意义上挑战了人之为人的独特属性?对这一问题的追问,必将会逼迫我们更为深入地分析“人工的智能化”与“人的智能化”之间的根本区别。

  人工的智能化建基于大数据与不断升级的各类算法。因为在还原论的话语体系当中,不仅“智能”成为完成复杂目标的能力,而且学习能力也被理解为一种叠加式的信息处理模式,它需要诸如记忆和分析等相关能力的辅助。但问题在于记忆究竟是什么,分析又是如何可能的?在深入探讨这些问题的时候,人工智能的专家再一次运用还原论的方式告诉我们,所谓记忆就是相关性信息的收集,换言之,人工智能总会将与其目标导向相关的信息加以累计。与之相似,分析能力也建基于对相关信息的归类。由此,对“相关性”的强化运用成为人工智能学习能力得以成立的基本原理。而这一原理在哲学上与18世纪英国哲学家休谟对于因果关系的分析颇为类似。休谟在分析因果关系这一左右人类知识形成的根本基石的时候,提出了一种彻底的经验主义方案,即以两个现象前后相继所构筑的相关性来建构一种因果性,从而形成人类知识。例如当我们分别以描述的口吻叙述“太阳晒”和“石头热”,其所提供的只是经验的杂多,也即人工智能话语体系中的数据信息,而当我们这样表述这一现象:“因为太阳晒,所以石头热”,其间所加入的“因为”“所以”使描述性的经验杂多成为一种知识,它们为两个独立的现象之间构筑了一种相关性。经验主义者正是在这种相关性之上建立起有关知识的确定性保障。从这一意义上说,人工智能所推进的机器学习能力的确定性建基于哲学的经验主义传统,它同时表现出的是将人的主观意识进行纯粹物质化的还原,这样做的结果,最终只会窄化对人的本质理解。

  哲学人类学需要正视这种经验主义的挑战,以丰富人的本质的规定。正如我们今天需要恢复哲学人类学以对抗人工智能的挑战。在哲学发展史上,对经验主义的反抗有多种方式。例如康德式的对抗,其方式是将人的理性进行分类,将建基于相关性的知识学归入到知性之中,纳入理论理性的范围之内,将与人的自由意志相关的原则性保障归入到实践理性的范围之内,并在这两种理性之间划出一道鸿沟,以限定性的思维方式避免两种理性之间的相互僭越。再如黑格尔式的对抗,以绝对精神的自我运动的方式,将经验主义对知识学的建构纳入人类精神自我认知之整全性思考的过程当中,成为其必要环节。面对今天人工智能的挑战,黑格尔式的对抗方式,在某种意义上只会为人工智能增添其必要的合理性。人工智能在技术的加速发展当中呈现出一种不以人的意志为转移的客观性,它正以其还原论式的话语体系吞并着“人本身”,在算法的可无限拓展的意义上将自身变成为统治世界的“绝对精神”。因此在笔者看来,我们或许应当借鉴康德的有限性的视角为人类理性划界,将人工智能严格局限在一种知性的规范之内,限定其还原论式的话语表述方式对人的全部特质的僭越,即用器官性的、数据化的算法来解读人的行为以及行为背后的意志自由。我们必须坚持马克思以人为轴心的技术观,将机器视为人延长的手臂,而不是将人视为机器功能实现的中介,任何一种试图颠倒这一关系的讨论方式都将人推入有待批判的异化的境遇。面对人工智能的挑战,我们需要做的是重新凸显“人的智能”的独特性,凸显其中所包含着不可被还原为数据信息及其相应算法的情感性、意志性的人之属性,而非将理论的重心放入到所谓人机界限模糊了的“后人类主义”当中,将诸如机械替换部分大脑机能之类的赛博格讨论推上理论的舞台,因为这样一种讨论方式不过是让“人的智能”屈从于“人工智能”的话语体系。它的本质其实是人工智能另一套不战而屈人之兵的方略。

  (作者:夏莹,系清华大学哲学系教授)

人工智能的伦理挑战
作者:蓝江

  控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。

  维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品——根据未来学家库兹威尔在《奇点临近》中的说法——一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?

  实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。

  首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰·麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里·谢伊诺斯基和杰弗里·辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。

  然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。

  所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。

  不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。

  这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象——土傀儡——来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。

  (作者:蓝江,系南京大学哲学系教授)

人工智能的“人工非智能”效应
作者:吴冠军

  就近年来媒体的公共讨论而言,“人工智能”显然已经成了定义这个时代的关键词之一。在各种公共讨论中,美国太空探索技术公司(SpaceX)的创始人埃隆·马斯克的“人工智能威胁论”,无疑是极具影响力的一个声音。

  马斯克把人工智能称之为“人类面对的最大威胁”,并将开发人工智能的努力比作“召唤恶魔”之举。早在2015年,马斯克就联合去年离世的斯蒂芬·霍金一起发出公开信,宣称危险的人工智能军备竞赛已经开打。在2017年8月,马斯克则带领一百多位人工智能领域专家发出公开信,呼吁限制人工智能的开发。马斯克甚至以耸人听闻的语调在推特上声称:人类的第三次世界大战,将会由人工智能开启。

  尽管得到霍金、比尔·盖茨以及许多专家声援,马斯克的“人工智能威胁论”仍遭到了强烈的反对。信息、技术和创新基金会在2015就把马斯克称作“危言耸听者”,指责他不负责任地激起了对即将到来的人工智能革命的担忧。该基金会每年评选“乐戴奖”,专门颁发给那些试图阻碍技术创新的人。“乐戴”一词原指19世纪英国纺织工人发起的一个秘密社团,他们摧毁棉纺机器,声称新技术将毁灭世界。2015年马斯克与霍金因人工智能威胁论而获得“乐戴奖”(比尔·盖茨亦被提名该奖项)。2017年脸书(Facebook)创始人扎克伯格甚至直接在推特上指名道姓批评马斯克关于人工智能的言论“消极而且不负责任”。而马斯克则回呛扎克伯格,声称后者对人工智能的理解“太有限”。

  值得追问的是:马斯克的人工智能威胁论是否只是故作惊人之语?其言论是否值得认真对待?在笔者看来,即便马斯克把人工智能比作“恶魔”引来一片嘘声,即便第三次世界大战之“祸首”听上去像极了哗众之音,从政治哲学角度来看,该论仍值得被认真对待。因为人工智能对人类的挑战,并不是在整体文明的层面上,而恰恰是在人类文明内部,在人类既有政治—经济—意识形态建制的层面上。

  去年辞世的法国哲学家保罗·维利里奥提出“竞速学”,提议要把速度作为核心研究对象。在维利里奥看来,人类文明的变化,根本上是速度的变化:技术的演进,所带来的实质上就是速度的提升(人和物移动速度、信息传递速度等);政治组织的变化(譬如从奴隶制到官僚制),归根结底也是协作速度的变化。而人类文明所遭遇的各种危机,亦是速度提升所带来的挑战。从这个角度来看,人工智能所带来的挑战,恰恰缘于速度提升:人工智能在“深度学习”上的速度、对大数据的处理速度,完败人的生物“算法”。这轮速度变化的结果,我们已经开始见证:人们正在把越来越多的决断权交给人工智能算法(从购物、获取资讯到择偶、招聘人才等)。

  从竞速学出发,我们可以重新审视马斯克“第三次世界大战”论题:人工智能带来的威胁,并不是它如“恶魔”那样“有意”发动世界战争、毁灭人类文明,而是在当下主权性的民族国家格局下,人工智能所带来的速度变化,正在使它实质性地拿到越来越多的决断权。

  另一位当代法国哲学家贝尔纳·斯蒂格勒最近提出“人工非智能”这个概念。在斯氏看来,“人工智能时代”人类文明自身恰恰会进入“人工非智能”——一种人为导致的“系统性愚蠢”。在这个人工智能声称比你更了解你的时代,你不再耗费精力去了解恋爱对象而是通过约会APP算法帮你定位到“最适合的TA”,国家领导人不再耗费精力去深入了解国际上的伙伴与对手而依赖人工智能的大数据进行分析判断……这才是人工智能对人类文明的真正挑战。马斯克把人工智能比作“恶魔”也许不甚恰当,但“人工非智能”确实是人工智能深度社会化带来的一个无法回避的效应。

  马斯克希望用公开呼吁的方式,甚至不惜满口“危言”以达“耸听”的效果,来阻止人工智能军备竞赛:“国家间对人工智能优势的争夺,很可能引发第三次世界大战。”马氏的努力,除了使他成功荣获“乐戴奖”,显然没能有其他实质性效果。马斯克本人去年投入巨资成立了研发“脑机接口”的新公司Neuralink:“既然我之前对人工智能的警告收效甚微,那么好的,我们自己来塑造人工智能的发展,让它走向好的一面。”马斯克已放弃了继续公开呼吁,但值得我们反思的是:为什么马斯克的努力会无果?在笔者看来有两个结构性因素——

  第一,西方世界仍然处于全球资本主义秩序下。近年来,人工智能使各个产业成本巨幅降低,利润空间大幅增加;对人类生活不断提供各种优质服务,并且服务的潜力无可穷尽。这使得人工智能具有巨大的商业化前景。在资本主义系统中,只要有赢利空间,资本就会源源不断涌入,何况是高额赢利的空间。这一点尤瓦尔·赫拉利看得很清楚:“只要让他们获得新发现、赢得巨大利润,大多数的科学家和银行家并不在乎要做的是什么事情。”

  第二,我们的世界仍然处在民族国家格局中。在由主权国家组成的政治场域中,即便有觉得马斯克言之有理的领导人,亦无法实质性地采纳其建议,使本国自外于人工智能军备竞赛之外。这种所有行动者都具有至高的自主决定权、但实际上却无法自主做出决定的状况,便是一种经典的“纳什均衡”。数学家、诺贝尔经济学奖得主约翰·纳什论证了存在着一类策略对局状况,在该局中没有人可以通过单独改变自己的策略而获利。

  资本主义逻辑(利益最大化)加上主权国家格局(至高决断权),决定了马斯克的人工智能威胁论即便用词再激烈也只是徒劳。马斯克的“危言”真正带来的思想激荡,不在于人工智能在可见的未来是否真的能引发第三次世界大战,而是在于如果他是对的,当下世界这套支配性的政治—经济—意识形态建制,却只能逼使所有人一起眼睁睁地看着它的发生……

  要摆脱这种“人工非智能”的局限,只能通过改变资本主义秩序与民族国家格局,这也是当年马克思提出的方向。在今天,马克思并没有变得更无关,相反,其“改变世界”的“第十一论纲”变得更加迫切,并且在加速意义上变得迫切。马斯克的无力之处,恰恰是马克思的力量所在。

  (作者:吴冠军,系华东师范大学政治学系教授、欧陆政治哲学研究所所长)

 

关键字:

人工智能

查看评论

已有0位网友发表了看法