当前,我们正处于人工智能的启蒙时代。被称为人类历史上第四次革命的人工智能,以其迅猛发展带动人类社会从信息时代跨入智能时代。这无疑会更加充分地实现人的自由,并带来前所未有的发展机遇。但同时,如同硬币的两面,机遇总是伴随着风险。人工智能技术的创新与应用正在逐步改变原有的社会结构,产生新型的社会关系和法律关系,引发新型的社会冲突。这都在迫使我们去持续思考应该如何防范、转化和规制人工智能带来的风险。
人工智能发展带来的新风险
人工智能与以往其他革命性技术的不同在于,它不仅具有技术属性,而且具有社会属性。正因为如此,人工智能的风险不仅仅集中在技术层面,还渗透于社会和人类生活空间的诸多层面,具有全球性、广泛性和互联性的特征。在诸多风险当中,以下几种风险尤其引人关注:
技术不确定性带来的安全风险
人工智能技术起源于二十世纪六十年代,在几十年的发展历程当中经历了三起三落。现阶段人工智能技术的复兴,一方面得益于计算机技术快速发展所带来的算力提高,另一方面取决于深度学习技术的应用。深度学习是机器学习研究中的一个新领域,其动机在于建立、模拟人脑进行分析学习的神经网络,模仿人脑的机制来解释数据。这是机器学习中一种基于对数据进行表征学习的方法。在深度学习模型中,通常人们只需要给定、输入数据和标签,即可获得输出结果。至于网络中间层的内部学习如何进行,在当下的研究阶段,人们还不得而知。换言之,机器学习的结果不仅很难直观解释,而且很难控制。这种技术不确定性所带来的风险,使人们恐惧于AI失控所带来的严重后果。尤其是当AI用于军事、金融、医疗等高风险领域,一旦实际的计算结果与人们的期待出现较大偏差,产生AI的异化现象,将对社会造成不可预测的负面影响。
不平等的社会效益风险
一直以来,在联合国的推动下,各国都在努力弥补数字鸿沟。然而,现阶段的一个普遍现象是:人工智能技术的应用及其与互联网公司的深度融合,进一步加剧了互联网巨头公司的信息垄断和数据垄断,扩大了各阶层之间的数字鸿沟。而在数字经济形态下,数据已经超越了其固有的物理属性,成为了新的生产要素。数据优势在技术发展的助攻下,可以快速转换成商业优势和经济优势,帮助大数据持有者以更大的规模、更快的速度,实现财富集中,形成财富的垄断。
与此同时,人工智能技术也对现有的劳动力市场造成了冲击。虽然根据某些权威经济学家的预测,以未来的视角来看,人工智能技术发展带来的新增劳动就业岗位将抵消由其引发的失业现象。然而未来尚未到来,当下的失业问题却已摆在人们面前。在各大银行的分支机构中,原来的柜员已悄然削减,取而代之的是智能化柜员机器人;在许多停车场的出入口,收费人员被解雇,因为自动化付款模式不再需要他们的出现。最近,麦肯锡的一份报告透漏,2018年,人工智能驱动的自动化导致德国和美国三分之一的劳动力重新寻找工作。这与上述巨额财富向少数人手里集中的现象形成了鲜明的对比。
法律制度缺失的风险
正如德国社会学家乌尔里希•贝克在《风险社会》一书中所表述的那样:当代社会的本质是“风险社会”,科技风险是风险社会的重要内容。而科技风险的产生,一方面是由于科学技术本身的发展造成的,另一方面则是由于制度在回应科技发展过程中的缺失。换言之,科技风险与制度风险是共生的、一体的。这是导致现代社会高风险的重要原因。
人工智能风险无疑属于风险社会中科技风险的范畴。作为现代社会治理的最主要方式,法律遵循着自身固有的属性与脚步,习惯于对科学技术发展产生的社会问题作出缓慢和滞后的回应。法律的稳定性和滞后性,与人工智能技术的快速发展及其由此而产生的新的法律需求,形成了强烈的对比。2017年10月,当人们还在讨论人工智能是否具有人格时,沙特阿拉伯已经授予机器人索菲亚公民身份。而更加让人惊诧的是,这个世界上第一个机器人公民却扬言要毁灭全人类。在自动驾驶领域,技术创新和秩序安全两种价值始终在进行博弈。除了少数国家颁布了无人驾驶新立法,大多数国家的交通法律制度还停留在前互联网阶段。但无人驾驶的车轮已经越走越远,即便世界范围内已经出现了多起无人驾驶引发的交通事故,也未能阻挡新的尝试。此外,侵权的责任如何界定也尚未清晰。类似此种法律制度的缺失,包括智能系统生成的作品著作权问题、强制保险问题、隐私问题、算法的透明度问题等。这些不是个别部门法需要面临的难题,而是几乎全部法学领域均有涉及的全局性问题。
完善人工智能相关立法的几点思考
谈及人工智能的规制构建问题,法律人其实并不孤独,国际关系学者、伦理学家、政治学家等多个领域的社会学者都冲在研究和实践的第一线。虽然法律并不是现代文明社会唯一的治理和调解方式,但却是最主要和最有效的方式。在新的治理方式取代法治治理之前,人类社会应该致力于完善人工智能相关的法律规制,为人工智能发展制定规则的边界。这是一项繁杂且重要的任务,不可能一蹴而就。为此,在立法初始阶段,对一些基本范畴的思考,具有极其重要的意义。
人工智能立法要兼顾安全与发展
正如著名法学家徐显明曾经阐述的那样,自人类社会开始构建规则以来,安全始终是人们追求的第一价值目标。社会秩序安全是技术发展的重要保证。立法者不仅要考虑安全的价值,也要从产业促进的角度进行考量。在进行人工智能立法时,尤其要进行安全与发展的价值衡量。这是因为人工智能技术已经成为世界主要大国的战略性技术,对一国的发展至关重要。如果过于严格的立法阻碍了本国人工智能技术和产业的发展,势必会使国家在大国竞争的时代处于不利的地位。
2018年5月5日,欧盟《通用数据保护条例》生效。这是迄今为止世界范围内最为严格的个人数据保护法案,引起了广泛的关注。然而我们也应该看到,欧盟正在积极推进立法促进人工智能的发展。相比之下,美国一直以来都比较偏重于对人工智能技术研发和产业的促进与保护。这从美国最近的两个司法判例中可窥见一斑。在路米斯诉威斯康辛州法院的案件中,法院支持算法属于商业秘密。在搜索王诉谷歌的算法第一案中,法院认为网页排名是一种意见,支持了谷歌认为算法是言论自由的主张,将算法置于美国宪法第一修正案的保护之下。在中美博弈的大背景下,中国的立法更应该科学协调安全与发展这两对范畴,做到保护人们基本权利和促进人工智能发展相统一。
“传统法+”与分散式立法
在实现真正的超人工智能前,人工智能还要经历专门人工智能和通用人工智能阶段。专门人工智能仅具备某项认知能力,能够在封闭的环境中实现单一任务。通用人工智能具备人类的所有认知能力,可以由同一个智能系统实现不同的认知任务。而超人工智能将在所有认知能力和领域全面超过人类。目前,我们正处于专门人工智能向通用人工智能转变的时代,语音识别、图像识别、智能金融等仍旧属于专门人工智能的应用。
立法者在构建人工智能法律体系时,虽然可以具备一定的前瞻性和先进性,但必须立足于人工智能现在的发展阶段。也就是说,立法必须是现实的,作为上层建筑的法律体系,必须根据科学家对人工智能的赋能现实而制定。在专门人工智能阶段,人工智能更多程度上仍旧是实现人类自由的一种工具,虽然现有的法律体系面对人工智能引发的新型法律关系产生了一定的法律空白,但并不是所有的人工智能问题都是法律上的新问题。相反,在专门人工智能阶段,大部分的问题仍旧可以置于原有的法律框架之下。而对于新问题的规制,相较于集中式立法的模式,更适合采用分散式立法的方法来推进。这并非头痛医头、脚痛医脚的杂乱安排,而恰巧是科学立法的贯彻和实施。具体来说,一是因为人工智能在每个领域的发展与应用程度并不相同,对法律原则和规则的需求不同;二是因为集中式立法对于立法技术、人力和物力有着更高的要求,往往也需要花费更多的时间,显然与人工智能技术的快速发展不相符。
积极参与人工智能国际立法
在传统社会,风险具有地域性,风险在地缘因素的影响下传播。然而,现代社会的技术、人才、资本、文化等要素在全球范围流动,全球化的发展使风险跨越了国界,风险全球化成为风险社会的重要特征。人工智能带来的军备竞赛、核武器风险增加、人权保护等问题,只靠国内机制显然得不到有效解决,应该放在国际治理的角度下进行讨论。
与国际法在网络空间适用的问题具有相似性,国际法在人工智能领域的适用,也面临着两个基本问题:第一,原有的国际法规则是否适用于人工智能相关问题,即既有规则的继受问题;第二,如何构建新的人工智能国际规则。2013年,第三届联合国信息安全政府专家组通过报告,确认国际法特别是《联合国宪章》适用于网络空间,并且宣示:国家主权和源自国家主权的国际规范和原则适用于国家进行的信息通信技术活动,以及国家在其领土内对信息通信技术基础设施的管辖权。借鉴此结论,对于在人工智能领域原有国际规则的继受问题,答案也应该是肯定的。当然,这并不妨碍在国际法的立法真空地带,针对新的人工智能问题构建新的国际规则。然而,对于如何在人工智能领域对原有国际规则进行解释,即到底如何适用原有规则,以及如何构建新的国际规则,各个国家基于不同的法律文化和本国利益,持有不同的观点,仍旧处在激烈的讨论和博弈阶段。中国作为世界第二大经济体和联合国常任理事国,特别是人工智能技术和产业蓬勃发展的国家,应该积极参与到人工智能国际规则的解释与制定当中,体现我国的软实力。
总而言之,法律并非一成不变,法律的生命力体现在其融合时代的不断演进之中。法律规制只有不断进行调整,才能回应人工智能对法律制度带来的挑战,最终形成人工智能时代的法律体系。
【本文作者为中国电子科学研究院研究员、美国福特汉姆大学访问学者】
责编:赵博艺 / 蔡圣楠