网站首页 | 网站地图

大国新村
首页 > 原创精品 > 成果首发 > 正文

适应性表征是人工智能发展的关键

【摘要】人工智能的表征方式应该是适应性的,这是通过生物特别是人类适应环境到人造的机器适应环境的一个类比逻辑地推出的。如果我们承认生物是进化适应性的,那么就应当承认其认知表征能力也是适应性的,进而作为人造物的人工智能包括机器人,其认知表征也自然是适应性的,即适应性的主体会创造或产生适应性的结果。这一适应性转换的过程是通过人为设置语境实现的,语境的设置是通过建构语料库进行的,人工智能的适应性表征正是基于人为设置的语境进行的。因此,适应性表征就成为智能机器人能否像人那样行动的一个重要判据。

【关键词】人工智能  语境设置  适应性表征

【中图分类号】TP18                            【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2019.21.004

人工智能发展到今天,对现代社会产生了异乎寻常的影响,渗透到几乎所有领域,诸如工业、农业、服务业、科研、医疗、教育等,就连日常生活也不例外,如智能手机、扫地机器人的广泛使用。然而,人工智能特别是它的应用领域机器人学的发展却遇到了极大挑战,即智能机器人如何能够像人那样思维和行动。

这个棘手的问题实际上有两个层次:一个是认知层次,另一个是运动层次。关于第一个层次的认知问题,认知科学、计算机科学包括人工智能及其哲学讨论得非常多了,具体说就是计算机能否像人那样思维或认知,或者说计算机是否有思维能力。在计算主义的语境中,由于思维被定义为计算,所以计算机不仅能像人那样思维,而且事实上已经超过了人类,如大型计算机的运算速度远远超过人类;而在“具身认知科学”的语境中,思维被认为仅仅是与我们生物的身体以及基于身体的情感、自由意志相关的,计算机包括智能机由于没有身体,缺乏情感和心灵,因而被认为不可能像人那样思维。这种争论仍然在继续着。这里的重点不是要讨论认知层次的问题,而是着重探讨运动层次的问题,即智能机器人如何能够像人那样灵活地行动,也就是如何进行适应性表征的问题。

适应性通过设置语境嵌入人工智能

进化生物学已经表明,所有生物包括我们人类都是自然进化的产物,进化意味着生物在适应变化的环境。凡是不适应环境变化的生物,都会遭到淘汰。人类之所以能够生存至今且越来越发达,与其拥有超强的适应性能力密不可分。适应性能力不仅表现在生理层次上的适应,更表现在认知层次的适应,这反映在我们不断探索未知世界,也就是不断尝试认知地适应自然世界的方方面面。这意味着,我们的心智和智能是适应性的,我称之为“适应性心智”或“适应性智能”。正是有了这种适应能力,我们才能持久生存下去,才能不断创造出新东西,如计算机、各种机器人。这表明人类的所有创造物,包括知识形态和实体形态,都是适应性表征的结果。由此推知,适应性能力特别是认知和表征能力是人之为人的标志。

之所以这样说,是因为动物虽然也有适应环境的能力,也可能有一些认知能力(灵长类动物有一定智力,比如会使用简单工具),但没有使用语言特别是抽象符号进行表征的能力。这是显而易见的事实。人不仅具备这种抽象符号表征能力,而且制造出了人工智能这种符号表征的物理系统,它是人类智力高度发达的体现。数学和逻辑学之所以高度抽象、推理严密,就是运用了符号思维和符号表征能力。自然科学特别是现代物理学如量子力学也是运用符号表征(数学的、逻辑的)的科学。人工智能的表征系统基本上使用的就是数学和逻辑的表征方法,比如计算机编程就是用符号语言编写的,而不是使用纯自然语言(日常语言)。计算机能够处理符号语言(操作符号),而难以处理自然语言(不能用于编程,也难以给出其意义),这就是计算机和人工智能中的自然语言处理难题。

为什么计算机难以处理自然语言呢?在我看来,原因并不复杂,因为计算机缺乏人类灵活的适应能力和自主融入语境的能力,也就是适应性表征能力。这意味着适应性表征是计算机科学包括人工智能和机器人学发展的关键。如果让计算机系统和人工智能装置拥有了这种能力,那它们就应该能够处理自然语言了,比如智能机器人写文章、作诗、谱曲,与人类对话。目前虽然这方面已有所进展,如智能机器人给歌手评分,但它仍然不能理解它所处理的自然语言的含义,如不理解歌手所唱歌词的意义,它所作的只是机械地测量和评估,如声调高低、音域大小等。也就是说,智能机器人只“知其然”,而不知“其所以然”。这就是机器人与人类在适应性表征方面的差距。

然而,问题来了。计算机和人工智能如何才能拥有适应性表征能力呢?这是个非常重要的问题,也是个极其棘手的问题。目前,人工智能在技术实践上还没有太大突破,理论或哲学上仅限于假设和思辨。我曾经在哲学层次提出过计算机像人那样思维的“自语境化”假设,[1]即智能机要像人那样思维,就应该像人那样能够自动融入新的语境中,也就是从一个它所处的语境(情境)进入一个新的语境中仍能够应对自如,就像我们与不同的人打交道那样。当然,这只是一种理想化的设想,因为我们知道智能机是没有语感的,不像我们人类从小受过教育,有在不同环境中成长的经历等。这种潜移默化的背景因素是机器人无法习得的。但是,我们别忘了一个基本的前提:智能机器人是人设计的。人类设计者可以给智能机设置语境,比如建立知识库和语料库,智能体(agent)可以使用各种搜索方法从库里寻找所需的数据,从而完成特定的认知任务,如下棋、爬山。

从适应性表征角度看,自语境化过程实质上就是适应性过程,也就是适应新语境或环境的过程。如果说自语境化假设还停留在哲学层次,那么适应性表征则处于科学和技术层次,或者说,前者是理论的,后者是实践的。科学表征如各种科学理论,就是实实在在的适应性表征(通过假设、试错、检验、修正),人工智能的各种表征(数学的、逻辑的、概率的),也是适应性的(完成认知任务的尝试过程),只是适应的程度比人的适应性要弱许多。比如科学理论的修正,可能需要较长的时间,而人适应环境的时间则相对较短。事实上,我们遇到的新语境也不是我们刻意设计的,而是随机遇到的,比如偶遇几个只会讲英语的外国人就形成一个讲英语的语境,与之交流时最好使用英语,假如不懂英语,也可通过肢体语言如眼神、手势沟通。在这种情形下,智能机器人可通过语言切换进行交流,比不懂英语的人还有优势,因为它的语料库中可被嵌入多种语言。

这个例子告诉我们,在机器人学中,我们可以“顶层设计”,根据目标任务想到机器人可能遇到的所有可能境遇。比如扫地机器人,是在平滑的地面清扫,而不是崎岖不平的环境。这就是人为设置的“有限语境”。由于设计者可以给智能机设置语境,所以智能机适应性地表征就不仅是可能的,而且已经基本实现,比如现在的各种实用机器人,只是这种适应性是受限于被设置的语境的。总之,智能机的适应性是人类设计者通过设置语境让其尽可能适应不同境遇或环境的。正如德雷福斯对海德格尔的“技能应对”的解读所认为的那样,我们有必要设定使特定局部实践得以可能的背景(语境),即使特殊的应对活动在当下世界的显现成为可能的背景,而且这种背景应对通过让行动者(人或机器)施展使用特定器具的熟练能力,使其在特定环境中对任何通常情况下可能出现的事态作出恰当的回应。[2]设置的语境的范围、复杂程度不同,其适应性能力就不同,这与要完成的目标任务相关。事实上,人在不同环境或语境中执行特定任务的情形也是如此。

人工智能通过建构语料库设置语境

虽然人工智能缺乏语感,也不拥有语境,但是人类设计者可以给它设置并嵌入语境。比如计算机的编程语言是符号的,但其在视屏上的呈现几乎都是自然语言的,否则就难以普及应用了。具体来说,智能机没有我们拥有的语境,但人类设计者可以通过人为设置语境让智能机有作为近似人类语境的知识库或语料库,然后通过文本分类、信息检索和信息提取等方法从中获得所需的信息。这类似于我们查词典,词典就是我们的语料库。需要指出的是,这种显在的语料库与潜在的知识构成的语境因素还是有区别的,由于人和机器存在质的差异,其语境也必然有所区别,因为人是通过自然习得语言才逐渐有了语感进而形成语境,而机器是人为其嵌入语言,只是储存而不会产生语感,因而不会自发形成并拥有语境,或者说,人有发生语境,而机器没有。这就是为什么塞尔将语境看作背景(background)的原因(人有背景,机器没有)。[3]

就人为机器设置的语境来说,比如我们可将各种百科全书和各类词典作为语料库,而且这种语料库随着时间的推移会不断增大。这种不断增大的语料库,使得信息提取越来越精确。例如机器翻译,虽然它的翻译总是直译,并不准确,但它提供的信息,如我们不认识的单词,机器会给出基本意义,省去我们查找词典的许多时间。目前常见的翻译软件如金山词霸、有道词典、谷歌翻译等,均有巨大的语料库,几乎囊括了主要语种诸如英语、法语、德语、汉语等的几乎所有词汇。凡是使用过这些软件的人都知道,这比查找相关纸质词典方便多了。语料库或知识库,就是人类设计者为智能机设置的“语境”。这种人为设置的语境无论多大,也是有限的、可描述和可表征的。与人类的语境作为意向性的一个关键且无法消除的方面相比,还是有区别的。因为人的语境“类似于某种终极语境……,甚至是更广泛的情境,我们称之为人类的生活世界”。[4]显然,人工智能压根就没有这个“生活世界”,更谈不上体验这个“生活世界”了。

如果说语料库是人为智能机设置的一个背景语境,那么具体到一个问题或任务,人工智能就是问题或任务导向的,此时就需要有具体的问题语境或当下目标语境。在人工智能中,智能体被认为是最大化其性能测量的人工主体。这一过程是目标取向的并尽可能达到目标,这与生物体是相似的。在适应环境的意义上,意识主体达到目标的表征一定是适应性的。我们设想一个主体(人或智能体)在北京旅游,它享受美丽的景观,如天安门广场。主体的性能测量可能包括许多因素,诸如交通便利、阳光充足、景色迷人、夜生活,以及避免宿醉等。去哪些景点,这个决策问题也是复杂的,因为它涉及诸多权衡,要阅读旅游指南等。进一步假设这个主体购买了第二天去上海的机票,而且该机票是不能退的,在这种情形下,主体只能确定去上海的目标(没有选择余地),不能及时达到上海的行动计划会被拒绝,这样,主体的决策问题就被大大地简化了。这表明是目标约束了主体的行动,所以基于当下境遇和主体的性能测量的目标规划,就是问题-解决语境下的关键第一步。

在真实世界中,一个目标就是一组世界状态,准确说就是目标被满足的那些状态。主体的任务就是发现现在和将来如何行动,以便实现目标。在采取行动前,我们需要确定哪类行动和状态要考虑,因为在细节上存在许多不确定因素,具体行动步骤也会有许多。比如去上海前我们需要考虑以什么方式、哪一天的什么时刻等,甚至还要考虑天气因素。这就是说,在给定目标的情形下,我们需要考虑基于目标的相关行动和状态,这是问题规划的过程。对一个已知的或可观察的环境,主体可以采取一系列确定的行动来达到目标。如果环境是不可观察的或不确定的,也就是未知的,主体达到目的的行动序列就会复杂得多,这就是关于不确定性的探索问题。这两种情形都涉及问题—解决的语境设置问题。

在人工智能中,一个明确定义的问题语境一般包括五个方面。

(1)初始状态(主体开始行动的起点),比如我们在北京可表达为In(Beijing)。[5]

(2)关于主体可用的可能行动的一个描述,已知一个状态s,一个在该状态中可执行的行动就是Action(s),比如状态In(Beijing),可采取的行动{Go(Yiheyuan),Go(Changcheng),Go(Tiantan)}(去(颐和园),去(长城),去(天坛))。

(3)关于每个行动做什么的一个描述,也就是转换模型,由结果函数Result(s, a)详细说明,比如Result(In(Beijing),Go(Yiheyuan))=In(Yiheyuan)。这样一来,初始状态、行动和转换模型一起隐含地定义了问题的状态空间,也就是通过任何行动序列从初始状态达到所有状态的组合语境。这个状态空间形成一个定向网,其中的节点表示状态,状态之间的连接表示行动。

(4)目标测试,它决定一个给定的状态是否是一个目标。比如在下中国象棋的情形中,目标是达到一个“将死”的状态,在那个状态对手的“帅”不能再移动了。

(5)一个路径代价函数,它评估每个路径的数值。问题-解决的主体选择一个代价函数来反映它自己的性能测量。比如赶飞机去上海的人,时间是其实质,路径数值是公里长度,如太原到上海的距离是1200公里。我们一般能够根据地图上的比例计算出两个城市之间的直线距离。一般来说,一个问题的求解就是从初始状态到目标状态的一个行动序列。求解质量由路径代价函数来测量,而最优解是所有解中的最低值。

可以看出,这五个成分构成一个问题或任务语境,其表征严格说是一种抽象的数学描述,还不是真实发生的事情,比如我们从北京到上海的实际旅行,如果是乘高铁,还可以观看一路的风景。抽象模型抽去了表征的一些细节,留下最显著的特性。这个抽象过程也是规划问题的过程。除抽象化状态描述外,我们还必须抽象化行动本身。比如开车的行动包括许多结果,除了改变车的地点,还有时间花费、汽油消耗、尾气排放、环境污染等。我们的规划只考虑了地点的改变,忽略了许多其他行动,比如打开收音机、向窗外看、减速等,因为这些行动对于我们从一个地方到达另一个地方(完成目标)没有多少帮助。这就是说,执行从一地到另一地的行动是主体要完成的任务,其他行动与完成这个目标几乎没有关系,所以可以不予考虑。这就是语境的聚焦或过滤作用。语境的存在,使得某些与认知目标关系不大的因素被排除掉,从而起到简化、集中的作用。在这种问题语境下,智能体才能解决具体问题。

上述例子是人工智能中的“路径发现问题”。现代小车上的导航系统就是解决路径发现问题的系统,它是一个适应性系统,即必须随着路径和路况的不同及时做出调整。上述从北京到上海的航空旅行就是一个具体的路径发现例子。根据上述的五个方面或步骤,这个例子的一个旅行计划网(语境)的构成包括以下六部分。

(1)历史状态:每个状态包括一个地点,如首都国际机场,当前时间,如具体起飞时间,以及历史因素,如机场状况、机场设施,甚至还可能包括国内还是国际航班等信息。

(2)初始状态:这要根据使用者的问题来说明,如晚上8点北京到上海的航班的情况。

(3)行动:乘坐当前机场的飞机、选择任何等级的座位、留下足够转机的时间等。

(4)转换模型:产生乘机的状态将拥有航班的目的地作为当下地点,航班到达时间作为当下时间。

(5)目标测试:使用者是否详细说明了最终的目的地。

(6)路径代价:这依赖于货币值、等待时间、航行时间、座位等级、飞机类型,以及乘机频次奖励等因素。经常乘飞机的人都知道,并不是所有航行都能够按照计划进行,改变原计划的情形时不时会发生,或者是天气的原因,或者是飞机的故障,或者是出行者自己的原因,等等。

因此,一个真正好的系统应该包括临时计划,比如备份预定下一趟航班,以防原计划失效。出于这些原因,人类设计者在设置语境时要尽可能考虑到各种可能性。

人工智能基于设置的语境适应性地表征

这里我以人工智能的应用领域——机器人学的适应性表征为例来说明。在机器人学中,通过感知系统是机器人能够适应性表征的主要方法。感知是机器人将感应器的测量映射到其环境的内在表征过程。由于感应器本身存在噪音,加之环境具有部分可观察性、不可预测性和动态性,这种人工感知很困难,因为它会遇到不确定环境中状态评估的所有问题。这就需要人类设计者为其设置特定语境。

一般来说,机器人的可靠内在表征有三个属性:一是包含足够的信息让机器人做决定;二是被结构化,以便能够被有效更新;三是内在变量对应于物理世界中的自然状态变量[6]。在我看来,这三个属性就是人为给予的三个语境因素。我们可以使用动态贝叶斯网络表征部分可观察环境的转换和感应器模型。从表征视角看,我们将机器人自己的过去行动作为已观察变量,具体说,机器人感知能够被视为根据行动和环境序列的动态贝叶斯网络的时序推理。我们假设Xt是在时间t包括机器人在内的环境的状态,如足球场,At是在时间t接收到的观察信息,At是观察信息被接收后采取的行动。我们可以根据动态贝叶斯网络模型从当下信念状态的概率P(Xt)计算新信念状态的概率P(X(t+1))和新观察信息Z(t+1)。比如我们要建构一个踢足球的机器人,X(t+1)可能是与足球相关的机器人的位置,后验概率是捕捉我们从过去的感应器测量和控制所知道的所有状态的一个概率分布。

对于机器人来说,如何发现包括它自己在内的物体的位置是一个重要问题。这就是定位和映射问题,涉及物体在何处的先验知识,这种先验知识是任何与环境相互作用成功的人工主体包括逻辑主体、搜索主体、机器人操纵器的核心,它们必须“知道”它们要寻找的物体的位置。比如无人驾驶飞机必须知道去哪里发现目标。这就是说,机器人这种人工主体的行动是基于先验知识的。这种先验知识就属于语境范畴,人类设计者要预先考虑到并将其嵌入智能体的程序或算法中。

问题是,基于先验知识的机器人的内在表征是否是适应性的呢?我们以移动机器人在二维平面移动为例来说明这个问题。给定机器人一幅精确的环境地图(先验知识),机器人的姿态可由它的两个具有x和y值的笛卡尔坐标定义,它的头部转动方向可由三角函数θ值定义。这种计算在数学上不难做到,一般的人工智能和机器人学书籍或教材都有介绍,这里不做详细讨论。由于机器人的内在表征是基于知识和计算的,所接收的信息是通过感应器获得的,感知系统的表征就应该是适应性的。由此我们可推知,基于感知系统的移动机器人的内在表征是依据其语境进行的,因而其表征就是适应其环境的,否则它就不能完成任务。

这里我们特别要关注的一个哲学问题是,如果没有先验知识这种语境知识可用,比如没有机器人所需要的地图,在这种情形下,机器人如何行动呢?显然,这里存在一个“鸡和蛋的问题”——机器人对于它不知道的一幅地图,却必须确定它的位置,同时建构这幅地图而又不知道它确切的位置。这个问题对于机器人的应用非常重要,因为机器人在被使用前并不知道它将要处于的环境。比如扫地机器人,在理想的平坦环境中执行任务比较顺利,但是在凹凸不平的地面就不那么顺手了,可能被卡住了。这就是同时定位与映射问题,它已经得到广泛而深入的研究,比如使用概率方法,只需要增加状态矢量来包括环境中地标的位置。不过,这种方法仍然需要机器人感知。感知的实质就是机器人如何学习的问题,即机器学习。显然,机器学习在机器人感知中起重要作用,特别是当最优内在表征是未知的时候。一个简单的方法就是使用无监督机器学习方法将高维感应器流动映射到低维空间中。这种方法被称为低维嵌入方法。机器学习使机器人从数据学习感应器和运动模型成为可能,而同时发现一个适当的内在表征。

还有一种机器学习方法能够使机器人在感应器测量中不断地适应广泛的变化,那就是适应性感知方法,如适应性视觉。假如我们从一个阳光照射的空间进入一个黑暗无阳光的房间,显然房间的物体更黑,但光源的变化也会影响所有色彩,比如霓虹灯具有比阳光更强的绿光成分。然而,我们可能并没有注意到这种变化。我们的感知系统很快适应了新光环境,我们的大脑忽视了这种差异。人工感知系统也是如此。比如扫地机器人能根据其“可驱动表面”概念的分类器适应新地面。这种无人操纵地面装置使用激光器为机器人正前方的小区域提供分类,当整个小区域在激光扫描范围被发现是平坦的时候,它就被作为“可驱动表面”概念的一个积极训练例子使用。这表明,适应性感知方法能够让机器人适应变化的环境。

当然,不是所有机器人感知是关于定位和映射的。机器人也感知温度、气味、声信号等。这些属性都可以使用动态贝叶斯网络来评估,这些评估就是刻画状态变量时刻在演化的条件概率分布,以及描述状态变量测量关系的感应器模型。可以看出,机器人学的一个显著趋向是选择定义明确的语义学的表征。这一趋向有力地说明,缺乏表征的机器人学是难以发展的。而表征是需要语境的,因而缺乏语境的机器人学几乎不可能发展到灵活行动的水平。理论上,我们可以通过人为设置的语境让机器人不断去适应新的环境,从而达到我们意图的目标。因此如何根据特定任务目标给机器人设置语境,是机器人学发展中的一个重要问题。

进一步的讨论

智能体作为人工主体(相对于主体人),其行动是依据规则进行的。在确定的、可观察的、静态的或完全知晓的环境中,智能体所选择的行动的方法有多种,依据这些方法它们能够发现其目标。这种仅仅按照某些理性规则寻找目标的过程就是“搜索”。尽管这种搜索是无意识的过程,但它们却是适应性的,只是这种适应性不是基于生物基质的,而是基于理性规则的。所以说,人工智能是完全理性的事业,完全按照规则如逻辑规则、概率规则行事。这就排除了情感、意志等非理性因素。在这种意义上,因机器人没有情感没有意识而否认其能认知、有智能的观点就有失偏颇了。毕竟,心灵、意识、意图、意志这些传统哲学或大众心理学的概念是难以按照规则操作的。人工智能将这些非理性概念排除在其研究领域之外,不仅是可理解的,事实上也是一种研究策略。

如果将人的适应性搜索看作是“完全适应性”,那么人工主体的适应性就是介于完全与不完全之间的一种中间状态,我将这种中间适应性称为“拟适应性”或“准适应性”,以便区别于人的这种适应性。毕竟人的适应性是基于生物学的,而人工主体(智能体)的适应性是基于物理学和计算机科学的,前者是碳基构造的(碳水化合物),后者是硅基构造的(物理硬件加软件)。在认知科学中,这个问题就是“硬件要紧不要紧”的问题,即意识特征是否与构成物质相关。比如塞尔就坚持认为意识是一种生物学现象,智能机不可能有意识,不可能有思维能力,它只不过是处理符号的物理装置,根本不理解所操作符号的意义。[7]根据塞尔的看法,生物的适应性是基于有意识物体的,如我们人类,人工主体由于没有意识,当然不可能是适应性的。这个结论与智能体也能适应性地搜索和表征的事实不符。[8]

在我看来,意识和智能是两个层次的东西或概念。有意识一定会有某种程度的智能,而有智能则不一定需要意识,如机器人。这里存在一个生物学和人工智能包括机器人学之间的一个解释鸿沟。类似于查尔莫斯关于意识的难问题方面的解释鸿沟。[9]在适应性的意义上,只要一个主体,人或机器,能够在变化的环境中不断调整自己的行为,最终找到要发现的目标,或者解决了所要解决的问题,我们就应该认为它们是适应性的,在表达上也是适应性的表征。这种判断类似于“图灵测试”,即只要我们不能区分与我们对话的是人还是机器(实际上是机器与人对话),那么我们就不得不承认机器也会思维(即操作符号、解决问题的认知活动)。

从认知系统的结构和活动机制看,人的认知系统(神经系统)与智能机的认知系统(编码-解码系统)是完全不同的,前者是自然认知系统,后者是人工认知系统,人工智能目前只是模拟人的认知系统的功能,其结构与运作机制可能完全不同于人类的。这是不争的事实,也因此才有了认知科学、脑科学与计算机科学、人工智能等不同学科的存在。但是,仅就适应性特征来说,这两种认知系统(人的和机器的)都具有,只是程度上有差异,比如就灵活性、简单性来说,人的适应性要比人工主体的要好许多。正是在这个意义上,我将人工主体的适应性称为拟适应性,以区别于人的生物适应性。

提起适应性,我们自然会联想到意向性、相关性和因果性这些概念。适应性涉及意向性,因为意向性是关于或指涉某物的特性,它最早是胡塞尔用于说明意识本质属性的概念,即有意识的物体就应该有意向性,如各种有生命动物包括我们人类。但是这个概念用于说明意识太宽泛,因为一方面,简单生物如阿米虫虽然有生命但没有意识;另一方面,即使是非生命的物体,比如温度计、智能机,也具有意向性的特征,如指向某个目标,好像它们是有目的有意识的。所以,在我看来,用意向性来描述意识的特性还不够,还需要加上反身性,即知道“我们是谁”。这样一来,意识就有了向外和向内两个特征,缺一个就不能准确说明人类意识的本质了。如果说意向性是某物有意识的必要条件,那么反身性就是某物有意识的充分条件。从哲学和逻辑上看,一个问题或概念的完备、准确的说明,必须满足其必要性和充分性,这就是我们常说的“充要条件”。

人的意识无疑具有这两个特征,因而人才是真正有意识的物种。而其他动物特别是灵长类的猿、大猩猩等,如果它们不知道自己是谁的话(也许朦胧地知道),它们就不具有完整的意识,至多具有低级的意识(基于生命)。人工主体(智能机)仅仅具有指向外部目标的属性,如搜索目标,但是不知道它们是谁。也就是说,它们仅仅知道如何做,但是不知道它们知道如何做。这与“我会开车”和“我知道我会开车”之间的区别是一个道理。“我会开车”是如何做的问题,“我知道我会开车”是我意识到我会的问题。这是两个不同层次的问题,前者是意向性问题,后者是意向性加上反身性的问题。也就是说,人有命题态度,如我们知道、我们相信,其他动物和智能机没有。进一步说,人工主体是通过相关性认知的,而人不仅通过相关性,更能通过因果性认知。相关性认知是一种关联性认知,是一种影响和被影响的关系,因果性认知是一种产生性认知,是一种引起和被引起的关系。相比而言,影响关系较之产生关系要弱许多。

在人工主体开始搜索所需的结果前,它必须先识别目标,并形成一个定义明确的问题,因为有问题才能有解决的目标和结果。问题由初始状态、一组行动、一个描述行动结果的转换模型、一个目标测试函数和一个路径代价函数构成。问题的语境由一个人为设置的空间状态来表征。从初始状态到目标状态穿过状态空间的路径就是要搜索的解决方案。搜索过程采取的策略是,搜索算法将状态和行动当作原子状态(不可再分)。在人工智能中,一般的树搜索算法考虑所有可能路径去发现目标,而图表算法避免考虑多余路径。我们根据完备性、最佳性、时间和空间复杂性就可以判断它们的优劣。这些搜索方法对于不确定的、动态的和完全不知晓的情形还无能为力,这是另一个更加复杂的搜索问题,但可以通过设置新的语境来解决。由此看来,设置新的语境对于机器人的适应性表征是多么的重要。

(本文系国家社会科学基金重点项目“科学认知的适应性表征研究”阶段性成果,项目编号:16AZX006)

注释

[1]魏屹东:《自语境化:智能机似人思维的关键》,《中国社会科学报》,2013年6月10日。

[2]Wrathall, M.A., "Background practice, capacities, and Heideggeriandislclosure", In Wrathall, M.A., Jeff Malpas(eds.), Heidegger, Coping, and Cognitive Science, Cambridge, MA: MIT Press, 2000, p. 98.

[3]Searle, John R., The Rediscovery of the Mind, Cambridge: MIT Press, 1992, p. 175.

[4]Dreyfus, Hubert L., What Computers Can't Do: A Critique of Artificial Intelligence, New York: Harper & Row, 1979, p. 221.

[5]这里使用的是英语表达,而不是中文如在(北京),原因在于英语是符号文字,中文是象形文字。在目前的编程语言如算法中主要使用的是英语和数字的组合,还没有使用中文编程的,这可能是因为象形文字还不是抽象符号表征方式。计算机的编程语言是纯粹的符号表达,只有解释说明时才使用自然语言。

[6][美]罗素、诺维格:《人工智能:一种现代的方法(第3版)》,殷建平、祝恩等译,北京:清华大学出版社,2013年,第978页。

[7]Searle, John.Minds, "Brains and Programs", Behavioral and Brain Sciences, 1980, 3(3), pp. 417-457.

[8]魏屹东:《人工智能的适应性表征》,《上海师范大学学报》,2018年第1期,第28~39页。

[9]https://en.wikipedia.org/wiki/Explanatory_gap.

Adaptive Representation Is the Key to the Development of Artificial Intelligence

Wei Yidong

Abstract: The representation of artificial intelligence (AI) should be adaptive, which is logically derived from an analogy between the adaptation of living things, especially human beings, to the environment, and the adaptation of artificial machine to the environment. If we admit that organisms are evolutionarily adaptive, then we should admit that their cognitive representation ability is also adaptive. Furthermore, as for the man-made AI, including robots, their cognitive representation is also naturally adaptive, that is, the adaptive subject will create or produce adaptive results. This process of adaptive transformation is realized by setting the context, and the context is set by constructing a corpus; the adaptive representation of AI is based on the artificially set context. Therefore, adaptive representation becomes an important criterion for intelligent robots to act like humans.

Keywords: artificial intelligence, context setting, adaptive representation

魏屹东,山西大学科学技术哲学研究中心、哲学社会学学院教授、博导。研究方向为科学技术哲学、科学技术史、西方哲学。主要著作有《爱西斯与科学史》《对人类的挚爱——巴斯德的启迪》《当代科技革命与马克思主义》《广义语境中的科学》等。

责 编/马冰莹

[责任编辑:马冰莹]