【摘要】人工智能技术兼具战略性、通用性及军民两用性特点,因而在国家安全领域得到了广泛应用并带来极大的赋能效应,甚至对现代战争形态产生了重要影响。但是,在提升国家安全能力与效率的同时,人工智能也因其自身的技术特性,为国家安全治理带来了风险来源多样化、系统安全脆弱性、治理边界模糊及威胁认知不确定性等挑战,由此重塑了国家安全治理的范式和逻辑。当前亟需建立一套健全的监管机制与伦理规范,并积极构建风险韧性社会,以确保人工智能在促进国家安全与社会稳定的同时,实现健康、可持续的发展。
【关键词】人工智能 国家安全 技术治理 敏捷治理
【中图分类号】D631;TP18 【文献标识码】A
人工智能(AI)作为一项具有战略性、通用性和军民两用性特点的技术,其与国家安全之间的复杂关联愈发引人关注。历史经验表明,战略性技术如核武器、太空技术和互联网,往往与国家安全密不可分,它们不仅推动了技术的进步,也在军事、情报和政治领域发挥了巨大作用。乌克兰危机中,人工智能技术在认知战、情报战、无人机、无人作战车辆、巡飞弹、卫星图像识别、决策辅助和网络对抗等领域的广泛应用,凸显了其在国家安全中的重要地位。同时,人工智能的通用性特征使其成为类似电力般的革命性技术,能够在医疗、金融、制造、教育、交通等多个领域带来创新和优化。这种广泛的应用潜力使得人工智能不仅在民用领域大有作为,而且对军事应用也产生了深远影响。与此同时,人工智能的军民两用性也导致其在国家安全中出现泛安全化问题。
随着人工智能技术的不断发展,国家安全进入了数字化和智能化时代,技术安全风险也在深刻塑造和改变国家安全的性质与特点。因此,我们需要深入思考人工智能将如何塑造未来的国家安全,并探讨国家安全治理体系的变革趋向。
人工智能赋能国家安全
人工智能作为一项革命性的通用技术,正以前所未有的速度和广度渗透到国家安全的各个领域,对传统的国家安全逻辑和政策版图带来了全面而深刻的影响。人工智能不仅通过其强大的技术赋能,改变了国家安全的内容和政策实践,使得传统的安全观念与治理策略面临前所未有的挑战;同时,它还通过重塑战争形态,颠覆了人们对国家安全认知的传统框架,使国家安全的内涵和外延发生了重大变化。
随着私营部门在人工智能技术领域的崛起,越来越多的尖端科研成果出自企业之手,而非传统的国家实验室。这一变化不仅为国家安全带来了新的机遇和活力,也造成了诸多复杂而棘手的问题。因此,深入探讨人工智能对国家安全的影响,不仅有助于我们更好地理解这一技术革命带来的挑战和机遇,更有助于我们为国家安全战略和政策制定提供科学依据和有力支撑。
❖ 人工智能重塑公民国家安全认知:战争形态与信息战。
随着人工智能技术的飞速进步,未来的战争模式正酝酿着一场根本性的变革。传统的人力密集型军事任务,如前线侦察、物资运输及直接火力支援等,正逐步被高度智能化的机器人与无人机系统取代。这一转变不仅显著降低了军事行动中的人员伤亡风险,还极大地提升了作战的效率与精确打击能力,使得战争形态向更高效、更精准的方向发展。掌握先进人工智能技术的国家在信息战中占据显著的优势地位。人工智能技术凭借其强大的数据处理与分析能力,能够迅速识别敌方的战略弱点与作战意图,为决策层提供精确、及时的情报支持,从而在战争中赢得先机。此外,人工智能技术还通过模拟与预测战争进程,为军事战略与战术的制定提供科学依据。通过构建复杂的战争模型,人工智能可以模拟不同战略选择下的战争发展态势,帮助指挥员作出更为明智的决策。这种基于数据的战争规划方式,无疑将极大地提升战争的胜算。
2022年乌克兰危机作为近年来全球范围内爆发的重大冲突之一,被普遍认为是首次大规模应用人工智能技术参与作战的现代战争。在这场冲突中,双方不仅利用社交媒体平台传播虚假信息,以干扰对方的士气与决策,还借助先进的卫星图像分析软件,实时追踪敌军动向,为精确打击提供有力支持。这些实例充分展示了人工智能技术对未来战争形态的深刻影响,预示着在未来的战争中,人工智能技术将发挥越来越重要的作用,成为决定战争胜负的关键因素之一。因此,应高度重视人工智能技术在军事领域的应用与发展,加强相关研究与投入力度,以确保国家安全。
❖ 人工智能全面赋能国家安全能力:情报分析能力跃升。
在国家安全这一关键领域内,人工智能技术的应用正逐步深化,其影响力从最初的简单分类任务扩展至复杂的决策支持过程。在情报分析的前沿阵地,人工智能技术以其卓越的数据处理能力,对源自社交媒体、新闻报道、卫星图像等多维度的海量数据进行深度扫描与智能分析,能够精准捕捉异常活动迹象,及时预警潜在的安全威胁。这一能力的跃升,不仅极大提高了情报分析的精确度与时效性,更为决策层提供了全面、准确的信息。随着生成式人工智能的突破,通过高效整合文本、图像、音频等多模态信息,实现了内容信息生产方式的变革,为国家安全战略的实施提供了更为灵活多变、全面深入的支持框架。
❖ 人工智能打破国家安全资源垄断:私营部门的角色与国际合作。
在全球范围,人工智能不仅引发了军事和情报领域的革命,更打破了政府对于国家安全的垄断。长期以来,政府作为国家安全事务的主导者乃至唯一合法参与者,掌握着安全领域的先进技术、威胁情报、高端人才等资源。然而,随着人工智能技术的迅猛发展,这一传统格局正经历着前所未有的变革。科技企业在人工智能技术领域展现出强大的研发实力与创新能力,成为推动人工智能技术进步不可或缺的力量。大型国际科技企业的崛起,无疑对国家安全格局产生了深远且复杂的影响。从积极层面看,科技企业的参与为国家安全注入了新鲜血液,带来了更多的技术创新与支持,有助于提升国家安全的整体效能。然而,私营企业的利益诉求与价值取向往往与国家安全目标存在潜在的冲突与矛盾,如何在保障国家安全的同时兼顾私营企业的合理利益,已成为亟待解决的重要议题。
面对这一挑战,国际社会开始积极探索建立更为开放、包容的合作框架,以期在人工智能技术与国家安全之间找到平衡点。与此同时,各国政府也在积极寻求与私营企业的深度合作,通过政策引导、资金扶持等多种手段,鼓励私营企业积极参与国家安全领域的研发与应用。这种政府与企业携手并进的合作模式,不仅加速了人工智能技术的迭代升级,还提升了国家安全的整体水平与应对能力,为构建更加稳固的国家安全体系奠定了基础。
人工智能技术安全对国家安全的深层次影响
赋能国家安全仅为人工智能的影响之一,其更为深刻且广泛的效应在于人工智能自身所蕴含的技术安全性对国家安全本质与特性的重塑。随着人工智能与国家安全的全面深度融合,人工智能技术中潜藏的安全风险亦随之渗透至国家安全的各个维度与环节,形成了一种复杂的映射关系。若缺乏对人工智能技术安全性的深刻理解,便难以准确把握国家安全所面临的新态势与新特征。
人工智能技术安全(AI Safety),其核心在于确保人工智能系统自身的安全性与可信赖性。基于模型算法的人工智能系统,面临着诸如“黑箱操作”、算法偏见、恶意诱导、认知幻觉、系统操纵等多重风险,直接关乎人工智能是“向善”还是“向恶”,是稳定运行还是走向失控。从技术治理的视角出发,增强算法模型的可解释性、透明度及鲁棒性,是构建人工智能安全可信框架的关键路径。然而,技术治理并非“万能钥匙”,无法全然消解人工智能系统面临的所有风险,原因在于人工智能技术与风险之间存在着一种共生共存的复杂关系。
更深层次地,人工智能在全面、颠覆性、革命性地赋能国家安全的同时,也驱动了国家安全范式的深刻转型——从追求确定性因果机制的传统模式,转向应对不确定性相关性机制的新范式。在这一范式转换的过程中,国家安全正面临着风险来源多样化、系统安全脆弱性加剧、治理边界模糊化、威胁认知不确定性增加等一系列挑战。这些挑战要求我们在享受人工智能带来的安全与效率提升的同时,必须深刻洞察并妥善应对由人工智能技术发展所引发的国家安全新变局。
一是风险来源多样化。在传统国家安全领域,能够威胁到国家安全的风险来源相对明确。这使得国家只需要将有限的资源投入相对重要的领域就可以在最大程度上维护国家安全。人工智能技术广泛应用所带来的影响之一便是加速了国家安全风险来源的多样化。在传统国家安全框架中,军事威胁占据主导地位,而随着人工智能技术的渗透与融合,网络攻击、信息战、经济间谍活动等新型威胁日益凸显,构成了对国家安全的复杂挑战。
人工智能技术为网络攻击提供了更为强大的工具与手段。相较于传统的人工操作,人工智能技术能够实现自动化、智能化的网络攻击,极大地提高了攻击的效率与规模。此外,人工智能技术在信息战中的应用,使得虚假信息的制造与传播变得更加容易与逼真。深度伪造技术(deepfake)便是其中的典型代表。通过先进的机器学习算法,深度伪造技术能够生成高度逼真的虚假视频与音频,从而误导公众,破坏社会稳定。不仅如此,人工智能技术还可能被用于经济间谍活动,窃取国家重要经济数据与商业机密。攻击者可以利用人工智能算法对海量数据进行深度挖掘与分析,从中获取有价值的信息与情报,进而对国家经济利益造成损害。
二是威胁认知不确定性。人工智能系统的“黑箱”特性增加了威胁认知的难度。许多先进的人工智能模型,尤其是深度学习模型,其内部决策机制复杂且难以解释,导致国家安全机构在理解人工智能系统行为、预测其潜在风险时面临巨大挑战。这种不透明性不仅限制了国家安全机构对人工智能系统安全性的全面评估,还可能为恶意攻击者提供隐蔽的操作空间,进一步加剧威胁的不确定性。对于关键的国家安全设施如核控制系统,在与人工智能系统相结合后不透明性增加,使得核控制系统在关键时刻的决策过程难以预测和解释,这可能导致在紧急情况下引发对系统决策的质疑,进而影响整体的国家安全。
面对人工智能技术带来的威胁认知不确定性,国家安全策略的制定与实施需进行相应调整与优化。一方面,国家安全机构应加强对人工智能技术的深入研究与持续监控,建立快速响应机制,确保能够及时识别并应对新出现的威胁。这包括投资研发先进的检测工具、建立跨部门协作机制以及提升人员的技术能力等。另一方面,国家安全策略应更加注重灵活性与适应性,以应对人工智能技术带来的不确定性。这意味着需保持对人工智能技术发展趋势的敏锐洞察,不断调整策略方向与重点,确保国家安全体系能够有效应对不断变化的威胁环境。
三是系统安全脆弱性。人工智能系统的复杂性与高度互联性如同一把“双刃剑”,在赋予系统强大处理能力的同时,也无形中扩大了安全漏洞的暴露面,为潜在的安全威胁提供了可乘之机。人工智能系统的复杂性、快速迭代性、对数据的高度依赖以及决策过程的不透明性,共同构成了其安全脆弱性的核心要素。面对这一挑战,需加强人工智能系统安全标准的制定与执行,推动安全技术创新,提升系统的鲁棒性与自恢复能力,同时加强数据保护与治理,确保人工智能技术的健康发展,为维护国家安全与社会稳定奠定坚实基础。
人工智能系统的“机器幻觉”进一步增加了安全的脆弱性。人工智能系统往往由多层算法、模型及海量数据交织而成,不仅容易出现稳定性差的问题,还经常会出现“幻觉”,包括一些情况下“一本正经的胡说八道”。对此,探索“机器幻觉”出现的原因以及如何对其矫正需要耗费大量的时间,并且难以保证其不会再次出现类似情况。在系统自身易出现幻觉的情况下,如何预防人工智能应用过程中出现的风险成为了高难度的挑战。
人工智能系统对数据的高度依赖性,构成了其安全脆弱性的另一重要维度。数据作为人工智能系统的“血液”,其质量与完整性直接关系到系统决策的准确性与可靠性。然而,数据在收集、存储、处理及传输过程中,面临着被篡改、污染或窃取的风险。一旦训练数据遭到恶意操纵,人工智能系统便可能基于错误的信息作出决策,从而引发严重的安全问题。例如,在自动驾驶汽车领域,若训练数据被故意篡改,车辆可能无法正确识别道路标志、行人或其他车辆,进而在实际行驶过程中发生碰撞事故,不仅危及乘客生命安全,还可能对公共交通安全构成重大威胁。
四是治理边界模糊性。随着人工智能技术的迅猛发展,其跨领域、跨行业的广泛应用正逐步重塑着国家安全的治理框架,其中最为显著的影响之一便是治理边界的模糊性。这一模糊性不仅体现在国家安全治理的传统领域与新兴领域的交织上,还深刻影响着国际法与国内法应对人工智能相关安全挑战的适用与协调。
在传统意义上,国家安全治理主要聚焦于军事防御与情报收集,这些领域有着明确的组织架构、法律基础及操作流程。然而,人工智能技术的广泛应用打破了这一界限,使得国家安全议题不再局限于传统的硬实力范畴,而是渗透到经济、社会、科技等多个维度。例如,在金融领域,人工智能算法被用于风险评估、市场预测等,其决策过程与结果直接影响到国家经济的稳定与安全;在医疗领域,人工智能辅助诊断、药物研发等虽提高了医疗服务效率,但也带来了患者隐私泄露、医疗数据安全等新的公共卫生安全问题。这些跨领域的应用使得国家安全治理的边界变得模糊,传统建立在科层制基础之上的治理机制,由于不同部门负责专门事务, 难以有效覆盖所有潜在风险,甚至出现治理失灵。
人工智能时代的国家安全治理体系
各国政府普遍对人工智能所带来的广泛机遇与复杂挑战给予了高度重视,并据此制定了一系列相关的国家战略、政策举措,同时设立了专门的治理机构以应对这一新兴领域的独特需求。在国际安全层面,无论是联合国等多边国际组织,还是诸如北大西洋公约组织、上海合作组织等区域性组织,均建立了相应的治理机制,旨在规范和引导人工智能的健康发展。然而,现有的治理机制主要基于国际社会在核军控、大规模杀伤性武器军控等传统安全领域的知识和经验,在应对人工智能所带来的风险来源多样化、系统安全脆弱性、治理边界模糊性、威胁认知不确定性等新型挑战时,显现出较强的不适应性。这种不适应性若未及时关注和有效解决,极易导致泛安全化和过度安全化等负面现象的出现,不仅会大幅增加社会的整体成本,还可能对人工智能技术的创新与发展产生抑制作用。
因此,国际社会亟需从理念层面、机制构建、方法创新以及议程设置等多个维度出发,重新构建一套适用于人工智能技术风险的国家安全治理体系。这一体系应充分考虑到人工智能技术的独特性与复杂性,以及其对国家安全、社会稳定和全球经济发展的深远影响,从而确保在保障国家安全的同时,也能促进人工智能技术的健康、可持续发展。
首先,在治理理念层面,应构建一个基于人工智能安全风险的全面认知框架。人工智能为国家和社会带来的安全风险具有长期性、持续性特征,且不存在一劳永逸的解决方案。这些风险主要源自三个维度:技术本身的缺陷与不完善性、技术的滥用及不负责任的使用,以及社会应对机制的缺失。针对前两者,技术治理与监管机制的逐步建立已成为趋势;然而,关于社会如何有效应对人工智能时代风险的探讨仍显不足。从风险韧性社会的视角出发,尽管人类无法根除自然灾害,但可通过多种措施减轻其影响。同理,技术缺陷、技术滥用与韧性社会之间应建立一种良性互动关系。过度聚焦于前两者可能导致追求绝对安全与过度治理的困境。因此,构建人工智能风险韧性社会需从提升公众与组织的技术素养、建立风险共担的社会保障体系等方面着手,以实现技术进步与社会发展的和谐共生。
其次,在治理机制层面,应着重强调技术标准、法规政策与战略举措之间的协同与整合。人工智能作为一项前沿技术,其治理体系必须具备一定的前瞻性与适应性,以确保在技术生命周期的各个阶段都能实施有效的监管和引导。技术标准作为治理的基础,应确保其具有科学性、合理性和可操作性,为人工智能技术的研发和应用提供明确的指导和规范。同时,法规政策应与技术标准紧密衔接,通过立法手段明确人工智能技术的合法边界,保护个人隐私和数据安全,防止技术滥用和恶意攻击。
战略举措则是实现技术标准与法规政策协同的关键。政府应制定长远的人工智能发展战略,明确技术发展的方向和目标,为技术标准和政策法规的制定提供宏观指导。此外,战略举措还应包括建立跨部门、跨领域的协作机制,加强政府、企业、科研机构和社会组织之间的沟通与合作,共同推动人工智能技术的健康发展。在此过程中,敏捷治理成为一种重要的方式。面对人工智能技术的快速迭代和广泛应用,治理机制应具备灵活性和快速响应能力,能够及时调整和优化治理策略,以适应技术发展的新趋势和新挑战。通过敏捷治理,可以确保治理机制与技术发展的同步性,提高治理效能,促进人工智能技术的可持续创新与发展。
再次,在治理方法维度,应构建政府、产业界及研发机构高效协同机制。人工智能的迅猛发展已促使国家安全领域从传统安全及非传统安全范畴,逐步迈向数字安全。在此背景下,企业与技术社群在国家安全体系中的地位日益凸显,亟需建立更为高效、灵活的沟通协调机制。传统的自上而下、等级化及中心化的国家安全技术、知识与信息传递模式已难以适应当前形势,如何更有效地与大型科技企业及技术社群加强联系,促进政府与企业间人员的流动与交流,成为政府重塑人工智能安全领域权威性的关键所在。以美国为例,其人工智能安全治理主要依托人工智能安全研究所进行。与传统政府机构不同,该研究所人员精简,主要工作通过与企业合作完成,其核心职能在于搭建政府与企业、企业与企业之间的沟通桥梁。这种定位使研究所更注重成为人工智能安全治理的核心节点,虽不具备传统政府机构的命令发布权,却能占据信息与知识的中心位置,进而提升政府在该领域的权威性与影响力。
最后,在议程设置层面,需深入关注人工智能时代国家安全所蕴含的丰富内涵,这包括但不限于生存性风险、算法模型风险、应用型风险以及广义上的国家安全风险。作为人工智能时代最为严峻的挑战之一,生存性风险涉及技术失控、系统崩溃等极端情况,可能对人类社会造成不可逆转的损害。因此,议程设置应优先考虑如何建立有效的风险预警与应对机制,确保人工智能技术的健康发展。算法模型风险则源于算法设计的不完善、数据偏差以及训练过程中的不确定性,这些因素可能导致算法决策出现偏差,甚至引发歧视、不公平等问题。在议程设置中,应加强对算法模型的监管与评估,确保其公正性、透明度和可解释性。应用型风险主要关注人工智能技术在具体应用领域可能带来的安全隐患,如自动驾驶、医疗诊断等。议程设置需针对这些领域的特点,制定具有针对性的安全标准和规范,确保技术的安全应用。此外,广义上的国家安全风险也是议程设置不可忽视的一部分。人工智能技术的快速发展可能对国家主权、安全和发展利益产生深远影响。因此,议程设置应充分考虑如何平衡技术发展与国家安全的关系,确保国家在人工智能时代的战略利益。
(作者为同济大学政治与国际关系学院教授,网络空间国际治理研究基地常务副主任)
【参考文献】
①Joseph S. Nye, Jr.,“AI and National Security”,Project Syndicate, July 31,2024.
②封帅:《国家安全学视域下的人工智能安全研究:议题网络建构的初步尝试》,《国际安全研究》,2023年第1期。
③薛澜、贾开、赵静:《人工智能敏捷治理实践:分类监管思路与政策工具箱构建》,《中国行政管理》,2024年第3期。
④鲁传颖:《人工智能:一项战略性技术的应用及治理》,《人民论坛》,2024年第1期。
⑤Gregory C. Allen,and Taniel Chan,Artificial Intelligence and National Security,Center for a New American Security, July 2017.
⑥鲁传颖、张璐瑶:《人工智能的安全风险及治理模式探索》,《国家安全研究》,2022年第4期。
责编/周小梨 美编/王梦雅
声明:本文为人民论坛杂志社原创内容,任何单位或个人转载请回复本微信号获得授权,转载时务必标明来源及作者,否则追究法律责任。