段似膺
如果说把包含人工智能在内的技术研究理解为“学以御物”是对这些研究的隔膜,那么,对人工智能可能获得反叛意识和能力的恐惧则是基于自笛卡尔以来的身心二元论,甚至是更早的西方文化传统中的意识可以独立于身体存在的想象。
其实,当我们把有没有“意识”作为人类与智能机器之间的区分时,就已经接受了这一潜在的前提,即“意识”是独立于人类身体的存在,可以被“拥有”,或是暂时或永远地“缺乏”。
跳出“拥有意识”与“没有意识”这样两种答案的限制
但是现在的问题并不是终结于“机器人永远不可能拥有意识”的结论,而在于跳出“拥有意识”与“没有意识”这样两种答案的限制,继续探索人类存在基础上的意识现象,智能机器存在基础上的不同于人类意识的“意识”现象,以及这两种现象之间的相互关系。也就是说,重新思考一种既有其自身的“具身性”,也不局限于人类的新的“意识”观。
这种新的“意识”观正是海德格尔式人工智能以及被称为“人工生命”的研究的基础。对于人工生命的研究者来说,能够自主感知世界并做出相应行动的机器就已经可以被视为一种活着的存在。比如,在1994年的第四次人工智能大会上,生物学家托马斯·雷就已经提出要增进碳基和硅基生命的多样性,还有些人工生命研究者认为他们的研究属于理论生物学的范畴。
我们无需在此争辩人工生命到底是否拥有真正的生命,重要的是,人工生命的产生确实带来了对人类的生命和意识本身的反思。尽管到目前为止,“意识”问题还是个未解之谜,布鲁克斯却在《肉身与机器:机器人将会如何改变我们》一书中坚持人类从某种意义上来说就是机器,而机器能否进化出类似人类的“意识”也只是时间问题。
然而,与布鲁克斯持有不同观点的数字人文学者凯瑟琳·海勒意识到了从机器模式来看待人类的危险性,她认为正是这种看待人类的视角使得人类成为了“后人类”,并撰写了《我们何以成为后人类》一书来批判这一观念。不过另一方面,她也吸收了布鲁克斯对“智能”的广义理解。她在《认知无意识:扩大人文学科中的“精神”范畴》一文中提出了一个层级式的意识模型,认为在传统的“意识”之外有着更为基础和广泛的“认知”,并试图用“认知者”的提法来囊括生物认知和技术认知,扩大传统的人类意识研究的范围。海勒把认知定义为“从语境中阐释信息,并把信息与意义联系起来的过程”。
把生物认知与技术认知结合的认知系统纳入研究范畴
除此之外,这样一种“认知”观还可以把生物认知与技术认知结合的认知系统也纳入研究范畴,一个显而易见的例子就是当代人对电脑或智能手机的使用。这样一来,原本被传统意识研究拒之门外的各种感知现象就都能被吸收进研究视野。海勒在她的《认知集合:技术代理与人类互动》一文中进一步发展了这一观点,提出了“认知集合体”的概念来描述人类与技术结合的认知体系。我们的意识远比我们所想象的更依赖我们与这个世界的互动,它既不脱离于物质世界,也不是世界的中心,而是海勒所说的“行星认知生态”中的一环,与存在于这个世界上的各种生物乃至技术的认知系统相互交织,共同构成了复杂多样的动态认知体系。
这种观念上的转变对于人文研究在当代社会的作用至关重要。从“认知集合体”的视角来看,技术不仅参与到我们的认知、决策过程中,甚至还会对认知模式产生影响,比如长期使用手机地图就会导致我们自身判断方向的能力的退化。技术研究并非是比“成人”之学次等的“御物”之学,技术是人与人之间的沟通中介,包含着设计者对使用者的生活情境、使用方式的考量。智能产品的每一个细节都可能在自身中包含着伦理问题,比如,搜索引擎和智能推荐系统可能暗中搜集用户行为偏好卖给商业公司谋取利益,而无人汽车在设计时加入车身外部的安全气囊却可以保障行人的生命安全。如今,各式各样的软硬件智能技术在日常生活中的参与度越来越高,如何思考智能机器设计在社会应用中的道德责任,如何重新理解与智能技术结合的人类认知模式等,都成了需要人文学者进一步思考的课题。
(作者为上海大学批评理论研究中心特约研究员)