【摘要】近年来,随着人工智能技术迅速发展并被广泛应用于军事领域,主要大国都高度重视人工智能在军事领域的赋能作用,加大战略投入,力求在大国竞争和智能化战争中占得先机。与此同时,人工智能军事应用可能对国际和平与安全带来巨大挑战,日益引发国际社会各界的关注和热议,围绕这一问题的全球治理和讨论逐渐深入,已形成一些初步成果。中国积极参与人工智能相关领域的全球治理,作出了积极贡献。展望未来,国际社会应继续秉持多边主义,加强对话合作,采取预防性措施,规避人工智能军事应用风险,维护国际和平与安全。
【关键词】人工智能 军事应用 全球治理
【中图分类号】TP18 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2021.10.003
近年来,以机器学习为代表的新一代人工智能技术快速发展并得到广泛应用,大力促进了各国的经济和社会发展水平。与此同时,人工智能日益被视为大国竞争的关键技术。随着美国、俄罗斯等国家纷纷出台人工智能军事应用相关战略及政策,加大无人化和智能化军事装备研发和应用步伐,智能化战争模式已初现雏形,人工智能军事应用的全球治理引发了国际社会持续和广泛的关注,成为影响国际安全的重要议题。
人工智能军事应用简述
美国、俄罗斯等国家将人工智能视为战略竞争的关键技术,高度重视人工智能军事应用领域的技术发展和应用,从战略高度不断加强战略规划和资源投入,力图在日益复杂激烈的大国竞争中占得先机,主要表现在三个方面。
重视战略规划和机制保障。2019年2月11日,时任美国总统特朗普签署《维护美国在人工智能时代的领导地位》行政令,强调维持美国在人工智能领域的领导地位对维护美国的经济和国家安全至关重要。[1]2019年2月12日,美国国防部发布《2018国防部人工智能战略概要:利用人工智能促进安全与繁荣》文件[2],阐述了其对人工智能军事应用的形势评估、应用目标、战略途径及重点领域,标志着美军人工智能战略的正式出台。美国国防部于2018年7月成立了联合人工智能中心(Joint AI Center, JAIC),负责协调落实美国防部相关人工智能战略和政策,加强与私营部门、学术界和军事盟友的合作,大力推动军事人工智能应用技术研发和使用。2020年10月,美国白宫发布《关键与新兴技术国家战略》[3],列举了人工智能、通信和网络技术、数据科学与存储等关键技术,指出美国将依靠发展国家安全创新基础能力和保护技术优势两大支柱,以维护美国在全球关键和新兴技术领域领导地位。
2017年9月,俄罗斯总统普京在一次演讲中表示,“人工智能技术不仅仅是俄罗斯的未来,也是全世界的未来。谁能成为人工智能领域的领导者,谁就将主宰世界”。[4]2019年10月,普京批准《2030年前俄罗斯国家人工智能发展战略》,提出要使“俄罗斯在全球人工智能领域占据领先地位”和“获得技术独立和竞争力”,标志着俄罗斯人工智能战略的正式出台。俄军方已出台《2025年前未来军用机器人技术装备研发专项纲要》《未来俄军用机器人应用构想》等与人工智能密切相关的发展规划。俄罗斯还成立“先期研究基金会”(the Russian Foundation for Advanced Research Projects)、国家机器人技术发展中心等人工智能相关研究机构,支持国防领域高科技创新,并重点研究图像认知、模拟人类思维、机器人等人工智能技术。[5]
英国于2021年3月发布《竞争时代的国防》政策文件[6],明确指出人工智能及其赋能的自主武器能力是国防现代化的关键因素,表示英国将发布一份雄心勃勃的人工智能战略,以推动相关领域的国防建设;将成立一个新的国防部人工智能中心,以协调推进研发和使用这些新兴技术。法国国防部于2019年9月发布《为国防服务的人工智能》报告[7],标志着法国军事人工智能战略的出台。报告确定了法国军方使用人工智能的优先领域和路线图,并将采取建立伦理道德委员会、发展可信的人工智能应用技术、出台数据管理的指导原则等措施。
确保优先投资和重点项目。2018年9月,美国国防部表示将在未来五年内通过美国国防高级研究计划局(DARPA)投入20亿美元,以开发“新一代人工智能技术”。DARPA已经出台了“快速轻量化自主”(Fast Lightweight Autonomy, FLA)、“拒止环境中的协同作战”(Collaborative Operations in Denied Environment, CODE)等人工智能相关项目,大力推进人工智能的研究和军事应用。[8]美国《2020财年国防授权法案》给联合人工智能中心划拨了2亿美元资金。
俄罗斯在《2018~2025年国家武器发展纲要》中,将研发和智能化武器装备列为重点内容,涵盖无人机、机器人、网络战等重点建设方向。俄国防部在《2025年先进军用机器人技术装备研发专项纲要》中提出,无人作战系统在2025年左右将占俄军武器装备的30%。[9]
英国在2021年3月发布的《竞争时代的国防》政策文件中指出,将在未来4年投入6千万英镑,发展可用于未来新武器、人工智能、合成数字系统、空间技术等领域的测评技术。2018年3月,法国武装部队部长弗洛伦斯·帕利在人机合作研究项目启动仪式上宣布,将每年在人工智能领域的支出增加到1亿欧元,其中约一半资金将用于研发未来武器系统,1千万欧元将用于测试和整合现有人工智能技术。[10]
2018年4月,韩国国防部表示将在2019年前投入29亿韩元(约合人民币1724万元)开发智能型信息化情报监视侦察系统,运用人工智能和大数据技术整合分析间谍卫星、侦察机、无人机搜集的影像情报,远期目标是开发基于人工智能的指挥控制系统,实时研判传递战况。[11]
推动武器装备研发和应用。美国大力推进人工智能相关武器系统的研发。美推进“高级图像识别”项目(“Maven”项目),组建“算法战跨职能小组”,以减轻美空军在无人机视频数据分析领域的人力负担,增强情报分析和军事决策能力。2020年12月15日,美国空军首次将人工智能部署在一架U-2侦察机上,开创了人工智能首次自主控制军用系统的先河。[12]2021年2月,美国国防高级研究计划局(DARPA)在“空战进化”(ACE)项目中模拟测试了人工智能控制战斗机之间的空中格斗,计划在2021年下半年将空中格斗人工智能算法从模拟过渡到规模较小的实际战斗机空战演示中。[13]
俄罗斯研发了“天王星”系列和“平台-M”、“阿尔戈”等型号的作战平台,可执行战场巡逻、侦察、排雷、近距离火力支援等任务。同时启动研发“波塞冬”核动力无人水下航行器,可搭载常规弹头或核弹头,可成为一种全新的战略威慑手段。2015年12月,俄军机器人部队支援叙利亚政府军成功攻占极端组织“伊斯兰国”控制的拉塔基亚754.5高地,这也是全球范围内成建制机器人投入实战的首个战例。[14]
以色列作为人工智能军事应用强国之一,在无人装备研发领域居于世界领先地位,其研制的“哈比”(Harby)巡飞弹被认为是当前为数不多的“完全自主武器”,能够探测、瞄准和攻击敌人的雷达设施,而无需任何人工监督。韩国自主研发的“SGR-A1”型哨兵机器人已经部署在朝韩边境的非军事区,据称,这款哨兵机器人拥有完全自主模式,理论上可以在没有人类干预的情况下自主运行,可自主开火射杀目标。[15]
人工智能军事应用的深刻影响
从积极方面看,人工智能技术的军事应用前景广泛,可以被用于情报分析、作战训练、后勤保障、决策支撑、武器设计及研发等诸多领域。例如,人工智能技术可以提高战争决策机制效率和军事行动速度;可以促进新型武器系统更加“自主化”“智能化”“精准化”,从而减少武装人员和平民伤亡;可以利用人工智能技术赋能系统(无人或机器人系统)承担复杂危险、重复单调的军事活动,节约人力资源;可以高效分析处理海量数据,提高国防后勤保障部门科学管理水平,等等。
与此同时,人工智能作为一项双用途技术,其军事应用也可能带来诸多风险和挑战,主要包括技术风险、军事应用风险、战略稳定风险、法律伦理风险等。
一是技术风险。例如,人工智能系统漏洞容易受到攻击,低质量和受污染数据可能导致系统的不稳定,系统运行和演化的不可预测性和不可解释性,人工智能军事系统的安全性和可靠性,如何制定有效的测试、评估、验证标准和程序等。
二是军事应用风险。人工智能军事应用的武器系统快速发展,以及个别国家对他国采取歧视性出口管制政策,有可能会引发各国在此领域展开军备竞赛,加剧大国之间的紧张关系。人工智能军事系统在高风险地区被部署或使用,有可能造成意外事件或冲突升级。人工智能军事技术及系统(特别是无人武器系统)向非国家实体扩散,有可能被恐怖分子用于恐怖袭击。
三是战略稳定风险。人工智能技术被应用在外空、网络等新疆域,有可能使技术领先者巩固其优势地位,加剧各国面临的安全威胁,造成大国战略安全关系的不稳定。人工智能系统如被纳入核指挥与控制系统、早期预警系统中,将对大国之间的核战略稳定构成潜在风险,如果人工智能系统失效或失误,将可能造成重大核意外事件或决策失误,甚至引发核战争。
四是法律伦理风险。人工智能武器系统研发、部署和使用应遵循何种国际法义务?人工智能武器系统(特别是致命性自主武器系统,Lethal Autonomous Weapons Systems, LAWS)如被使用,国际人道法应如何适用?是否应始终确保人类对人工智能武器系统的使用权和决策权?人工智能武器研发、部署和使用应遵循何种标准和规范?如果发生意外事件,是否应由人类承担相关责任?等等。
人工智能军事应用全球治理趋势
鉴于人工智能军事应用可能带来的上述潜在风险和挑战,近年来,各国政府、产业界、学术界、国际组织等就包括人工智能军事应用在内的人工智能治理规范和原则进行了广泛讨论并提出诸多建议,旨在保障人工智能军事发展和应用符合技术、法律、伦理等要求,减少人工智能军事应用带来的潜在安全风险。
联合国框架下的多边努力。2018年5月,联合国秘书长古特雷斯发表了裁军新议程——《确保我们共同的未来》文件[16],指出新武器系统及其技术发展将给国际安全带来法律、防扩散、安全关系、道德伦理等多方面挑战,由于人工智能(例如机器学习)赋能的致命性自主武器系统可能产生不可预测和难以解释的行为,国际社会应对此类武器系统的研发和使用采取负责任态度,各国应努力在联合国框架内探讨相关可行的措施,确保人类对此类武器的控制权。
自2014年起,联合国在《特定常规武器公约》框架下开启了“致命性自主武器系统”问题的讨论进程,是目前联合国框架内为数不多的涉及人工智能军事应用具体问题的讨论进程。自2014年至2016年,分别召开了3次非正式专家会议。自2017年至2019年,分别召开了5次政府专家组会议。上述会议讨论了致命性自主武器系统涉及的技术特征、法律适用、道德伦理、军事应用、安全风险、限制措施等广泛议题,达成了重要进展。2019年第8次政府专家组会议协商一致通过报告,并由2019年12月《特定常规武器公约》缔约国会议核准通过,报告提出了以下11条规范致命性自主武器系统的指导原则[17]:
(a)国际人道主义法继续完全适用于所有武器系统,包括致命性自主武器系统的可能开发和使用;
(b)人类仍须对武器系统的使用决定负有责任,因为不能把责任转嫁给机器,应在武器系统的整个寿命周期里考虑到这一点;
(c)可以采取各种形式、并在武器生命周期的各个阶段实施的人机交互,应确保对基于致命性自主武器系统领域的新兴技术的武器系统的潜在使用符合适用的国际法,特别是国际人道法,在确定人机交互的质量和程度时,应考虑一系列因素,包括作战环境,以及整个武器系统的特点和能力;
(d)应确保根据适用的国际法在《特定常规武器公约》的框架内对发展、部署和使用任何新武器系统问责,包括使这类系统在人类指挥和控制的责任链中运作;
(e)在研究、发展、取得或采用新的武器、作战手段或方法时,国家有义务按照国际法确定,该新武器、作战手段或方法的使用在某些或所有情况下是否为国际法所禁止;
(f)在发展或取得基于致命性自主武器系统领域新技术的新武器系统时,应考虑到实体安保、适当的非实体保障(包括针对黑客攻击或数据欺骗等网络安全问题)、落入恐怖主义团体手中的风险和扩散的风险;
(g)风险评估和减小风险的措施应成为任何武器系统新技术的设计、发展、测试和部署周期的组成部分;
(h)致命性自主武器系统领域新技术的使用应考虑到须信守国际人道法和其他适用国际法律义务;
(i)在拟定可能的政策措施时,不应使致命性自主武器系统领域的新技术人格化;
(j)在《特定常规武器公约》范围内讨论和采取任何可能的政策措施都不应阻碍智能自主技术的进步或和平利用;
(k)《特定常规武器公约》提供了适当的框架,可在《公约》的目标和宗旨范围内处理致命性自主武器系统领域新技术的问题,力求在军事必要性和人道主义考虑之间求得平衡。
当前,虽然各国未就致命性自主武器的定义特征、限制条件、法律审查、规范路径等问题达成详细共识,但上述原则已部分涵盖致命性自主武器系统涉及的技术、法律、道德伦理、和平利用等方面内容,为各国继续展开后续讨论奠定了基础。
各国对于致命性自主武器系统的军控措施主要有三种观点:有国家主张全面禁止此类武器,有国家主张部分限制此类武器使用,也有国家反对全面禁止此类武器。与此同时,奥地利等国主张达成具有法律约束力的国际文书;法国等国主张分步走,先达成政治宣言或行为准则,再达成法律文书;美国等国则反对上述主张,主张围绕现有11条指导原则进一步讨论。
主要国家和研究机构提出治理原则。作为人工智能军事应用大国,美国军方非常重视人工智能伦理准则的制定。2012年11月,美国国防部发布了一份有关武器自主性文件《国防部指令3000.09》(武器系统中的自主性)[18],确定了美军半自主和自主武器的一些通用原则。2019年10月,美国国防部国防创新委员会发布《人工智能准则:推动国防部以符合伦理的方式运用人工智能的建议》,提出了国防部运用人工智能的五项原则和十二条建议,建议成立国防部层面的人工智能指导委员会,确保人工智能伦理准则的正确推行。2020年2月,美国国防部正式发布规范人工智能军事能力发展的“负责的、公平的、可追溯的、可靠的、可治理的”五项原则。[19]
2020年2月,欧盟发布《人工智能白皮书》[20],指出欧盟的人工智能发展基于信任和追求卓越,要推动建立卓越的人工智能研发生态系统,并建立基于信任的监管体系,以保护欧盟的价值观和消费者权益。2020年6月,红十字国际委员会在《国际人道法及其在当代武装冲突中面临的挑战》报告中指出[21],自主武器系统的独特特点以及在武装冲突中对武力使用或丧失控制的相关风险表明,为确保遵守国际人道法并维护人道原则,需要就如何限制其自主性达成共识,在武装冲突中使用这些技术时,必须采取以人为本、以人道为准的方法。
2020年6月和11月,瑞典斯德哥尔摩国际和平研究所发表题为《人工智能对战略稳定和核风险的影响》和《负责任的人工智能军事应用》报告[22],探讨了人工智能军事应用对战略稳定和核风险的影响以及欧盟如何在推动负责任人工智能军事应用最佳实践方面发挥作用,提出了增强透明度、加强对话合作、设立高级别专家组、积极参与全球治理进程等建议。2021年4月,新美国安全中心(CNAS)发布了美国前国防部副部长罗伯特·沃克撰写的《具有自主功能的武器系统作战使用的原则》报告[23],提出了使用自主武器系统必须由负责任的人类指挥和控制链来进行指导和监督等七项原则,建议美国应通过获取过程、训练、教育、演习将这些原则制度化。
综合来看,各方提出的人工智能军事应用治理原则已包括许多共同点,例如,强调人类监督的重要性,确保人工智能军事系统的安全性和可靠性,加强国际对话合作的重要性,人工智能军事应用需符合国际法,等等。这些建议为未来相关全球治理和系统论证提供了有益的思路。
中国的努力和贡献
中国一直高度重视人工智能技术发展和应用,积极参与全球人工智能治理并提出重要建议,受到国际社会关注。2018年10月,中共中央政治局就人工智能发展现状和趋势进行集体学习,习近平总书记发表重要讲话并指出,“要加强人工智能发展的潜在风险研判和防范”,要“确保人工智能安全、可靠、可控”。2020年11月21日,习近平主席在二十国集团领导人第十五次峰会第一阶段会议发表题为《勠力战疫 共创未来》的重要讲话,指出“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实G20人工智能原则,引领全球人工智能的健康发展”。[24]
中国亦重视人工智能治理原则。2019年6月,国家新一代人工智能治理委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》[25],提出“和谐友好,公平公正,包容共享,尊重隐私,安全可控,共担责任,开放协作,敏捷治理”等八项重要原则,以更好地协调人工智能发展与治理的关系,确保人工智能安全可控可靠,推动经济、社会及生态可持续发展,共建人类命运共同体。
中国还积极参与人工智能军事应用相关的多边军控进程和对话。中国代表团深入参与《特定常规武器公约》框架下“致命性自主武器系统”讨论进程,参加了历次专家组会议,就技术定义等问题提出看法或文件。中国在日内瓦裁军谈判会议上多次呼吁尽早建立权威的科学发展审议机制,对新兴技术的军事应用前景和风险进行评估,谈判制定相关国际准则,实施必要的预防性限制或禁止,避免国际社会重蹈“先发展后裁军”的覆辙,防止出现新的军备竞赛。中国作为联合国秘书长新裁军议程第27项行动计划“就新兴技术开展对话”的牵头国家之一,积极推动有关对话。2021年5月17日,中国、埃及、肯尼亚、墨西哥、南非、阿联酋常驻联合国代表团在纽约共同举办“新兴科技对国际和平与安全的影响”会议,中国常驻联合国代表张军大使主持会议,包括安理会成员在内的近40个国家与会发言,各方一致认为应支持奉行多边主义,充分利用联合国平台,加强对话交流,探讨新兴科技开发利用,推进新兴科技全球治理。此次会议亦是安理会首次讨论新兴科技问题。[26]
中国专家和学者也积极参与全球治理和对话进程,提出有益的看法和建议。例如,2019年,清华大学战略与安全研究中心主任傅莹曾发表《人工智能对国际关系的影响初析》报告[27],提出福祉、安全、共享、和平、法治、合作六项治理原则。2019年起,清华大学战略与安全研究中心和美国布鲁金斯学会联合开展了“人工智能与国际安全治理”对话项目,梳理了人工智能军事应用可能带来的风险和挑战,并探讨了相关治理原则。中国军控与裁军协会亦多次举办或派专家参与人工智能军事应用相关国际研讨活动。自2019年以来,军控协会与日内瓦“人道主义对话中心”开展了相关对话,来自中、美、欧等专家学者还初步探讨了人工智能军事系统的行为准则草案,包括设计开发、测试评估、部署使用、问责机制、建立信任和国际合作等内容。
结语
当前,国际社会都高度关注人工智能军事应用对国际和平与安全构成的严峻挑战,尽管各国对如何应对这些挑战,特别是减少人工智能军事应用风险,仍然存在不同看法和优先事项,但各国理应加强这一领域的前瞻性研究和对话,推动相关全球治理进程,维护各国共同的安全利益,对此本文提出如下建议。
各国秉持多边主义,支持联合国及其相关机构在人工智能国际安全问题上的努力;支持《特定常规武器公约》关于致命性自主武器系统政府专家组会议,推动各国就处理该问题的原则、方式和法律文书达成更多共识;在日内瓦裁军谈判会议等其他多边军控平台,开展人工智能军事应用及其对全球战略稳定影响的讨论;提高各方对人工智能与国际安全问题的认识;呼吁避免采取歧视性措施,防止阻碍和平利用人工智能技术;加强建立透明和信任措施机制,鼓励更多国家分享人工智能战略、政策、法律框架等信息;鼓励各国通过双边、多边及区域组织开展多层次对话,召开高级别会议,开展国际合作和研究,提出前瞻性政策建议。
相信只要国际社会继续共同努力,就有可能达成更多共识,从而推动人工智能军事应用的全球治理进程不断深入,推动实现人工智能军事应用遵守《联合国宪章》原则及相关国际法,实现安全可靠、符合伦理道德、有效监管控制等目标,使人工智能技术更好造福人类,促进国际和平与安全。
注释
[1]"Executive Order on Maintaining American Leadership in Artificial Intelligence", February11, 2019, https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence.
[2]"Summary of the 2018 Department of Defense Artificial Intelligence Strategy Harnessing AI to Advance Our Security and Prosperity", February 12, 2019, https://media.defense.gov/2019/Feb/12/2002088963/-1/-1/1/SUMMARY-OF-DOD-AI-STRATEGY.PDF.
[3]"National Strategy for Critical and Emerging Technology", October 15, 2020, White House, https://trumpwhitehouse.archives.gov/briefings-statements/statement-press-secretary-regarding-national-strategy-critical-emerging-technologies/.
[4]"Whoever Leads in AI Will Rule the World: Putin to Russian Children on Knowledge Day", RT World News, September 1, 2017, https://www.rt.com/news/401731-ai-rule-world-putin/.
[5][8]朱启超、龙坤:《主要国家人工智能军事应用战略动向及影响》,《2020国际军备控制与裁军》,北京:世界知识出版社,2020年,第137~138、138页。
[6]"Defense in a competitive age", March 22, 2021, Ministry of Defense, UK, https://www.gov.uk/government/publications/defence-in-a-competitive-age.
[7]"Artificial Intelligence at the Service of Defense", Report of the AI Task Force, French Ministry of the Armed Force(MAF), September, 2019. AI, Strategic Stability and Nuclear Risk, June 2020, SIPRI, p. 61.
[9]李大鹏:《俄罗斯坚定推进智能化军队转型》,《中国青年报》,2018年11月22日。
[10]"France to Increase Investment in AI for Future Weapon Systems", Defense News, March 16, 2018, Https://www.defensenews.com/intel-geoint/2018/03/16/france-to-increase-investment-in-ai-for-future-weapon-systems/.
[11]《韩军将投入29亿韩元开发智能情报监视侦察系统》,新华网,2018年4月4日,http://www.xinhuanet.com/mil/2018-04/04/c_129843619.htm。
[12]《美媒:美军U-2侦察机首次迎来AI副驾驶》,参考消息网,2020年12月18日,http://www.cankaoxiaoxi.com/mil/20201218/2427477.shtml。
[13]《DARPA用人工智能控制战斗机进行编队格斗模拟试验》,搜狐网,2021年3月25日,https://www.sohu.com/a/457299174_630614。
[14]李玮、兰顺正:《俄积极抢占无人作战制高点》,《解放军报》,2020年1月5日,http://www.81.cn/jmywyl/2020-01/05/content_9709934.htm。
[15][美]保罗·沙瑞尔:《无人军队:自主武器与未来战争》,朱启超、王姝、龙坤译,北京:世界知识出版社,2019年,第114~115页。
[16]Antonio Guterres, "Securing Our Common Future: An Agenda for Disarmament", May 24, 2018, https://www.un.org/disarmament/sg-agenda/en/.
[17]《禁止或限制使用某些可被认为具有过分伤害力或滥杀滥伤作用的常规武器公约》缔约方会议报告,2019年11月,11条指导原则载于该报告附件3中,Https://undocs.org/zh/CCW/MSP/2019/9。
[18]"DoD Directive 3000. 09 (Autonomy in Weapon Systems)", November 21, 2012, https://www.law.upenn.edu/live/files/3404-dod-autonomy-in-weapon-systems-2012.
[19]"DoD adopts five principles of artificial intelligence ethics", February 25, 2020, https://www.defense.gov/Explore/News/Article/Article/2094085/dod-adopts-5-principles-of-artificial-intelligence-ethics/.
[20]"White Paper On Artificial Intelligence - A European Approach to Excellence and Trust", February 19, 2020, European Commission, COM(2020) 65 final, https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf.
[21]《国际人道法及其在当代武装冲突中面临的挑战》,2020年6月,红十字国际委员会,https://www.icrc.org/zh/publication/4427-international-humanitarian-law-and-challenges-contemporary-armed-conflicts。
[22]"Artificial Intelligence, Strategic Stability and Nuclear Risk", June, 2020, SIPRI, https://www.sipri.org/publications/2020/other-publications/artificial-intelligence-strategic-stability-and-nuclear-risk; "Responsible Military Use of Artificial Intelligence: Can the European Union Lead the Way in Developing Best Practice?", November, 2020, SIPRI, https://sipri.org/publications/2020/other-publications/responsible-military-use-artificial-intelligence-can-european-union-lead-way-developing-best.
[23]Robert Work, "Principles for the Combat Employment of Weapon Systems with Autonomous Functionalities", April 28, 2021, Center for a New American Security, https://www.cnas.org/publications/reports/proposed-dod-principles-for-the-combat-employment-of-weapon-systems-with-autonomous-functionalities.
[24]《习近平出席二十国集团领导人第十五次峰会第一阶段会议并发表重要讲话》,中华人民共和国外交部网站,2020年11月21日,https://www.mfa.gov.cn/web/zyxw/t1834391.shtml。
[25]《发展负责任的人工智能:新一代人工智能治理原则发布》,中国日报网,2019年6月17日,http://cn.chinadaily.com.cn/a/201906/17/WS5d07441ea3108375f8f2afac.html?from=timeline&isappinstalled=0。
[26]《张军大使主持召开“新兴科技对国际和平与安全的影响”阿里亚模式会议》,中国常驻联合国代表团网站,2021年5月17日,http://chnun.chinamission.org.cn/chn/hyyfy/t1876438.htm。
[27]傅莹:《人工智能对国际关系的影响初析》,《国际战略与安全研究报告》,2019年第1期。
The Application of Artificial Intelligence in the Military Field and Global Governance
Li Chijiang
Abstract: In recent years, with the rapid development of artificial intelligence (AI) technology and its wide use in the military field, the major powers have attached great importance to the empowering role of AI in the military field, increased strategic investment, and tried to take the lead in the competition and intelligent war of great powers. At the same time, the application of AI in the military may bring great challenges to international peace and security, which has attracted more and more attention and heated discussion from all walks of life in the international community. The global governance and discussion around this issue have gradually deepened, and some preliminary results have been formed. China has actively participated in global governance in the AI-related fields and made positive contributions. Looking ahead, the international community should continue to uphold multilateralism, strengthen dialogue and cooperation, take preventive measures, avoid the risk of military application of AI and maintain international peace and security.
Keywords: artificial intelligence, military application, global governance
李驰江,中国军控与裁军协会副会长兼秘书长。研究方向为军备控制、裁军、防扩散、人工智能、网络安全。主要著作有《国际军备控制与裁军》(主编)等。