当前,ChatGPT类大模型加速了数字世界和物理世界的深度融合,引领人工智能进入新的发展阶段。与此同时,人工智能固有的不确定性、不透明性、难以解释、事实性错误等能力局限,对经济发展、国际政治和全球治理等方面带来深远影响,引发了全球对大模型广泛应用安全风险的热议。如何应对人工智能风险并把握人工智能发展的战略主动,有效保障国家安全,已成为我国国家安全治理的重要议题。
大模型技术引发新的安全风险和治理挑战。随着技术的更新迭代,人工智能的应用门槛持续降低,伴随着误用滥用情况的增加,经济社会领域的多重安全风险也在交织叠加。
一是放大隐私信息泄露风险。当前,人工智能开发者和服务提供者可能利用用户数据进行优化训练,但相关服务条款却并未对数据使用做出解释说明,可能涉及在用户不知情情况下收集个人信息、商业秘密等,安全风险较为突出。为保护个人信息安全,部分欧洲国家对大模型进行了严格监管和审查,甚至考虑禁止ChatGPT等人工智能应用。
二是舆论引导与文化渗透风险。在舆论和文化领域,人工智能技术可被用于算法引导、平台渗透、网络监控、内容生成等信息处理环节,由大模型驱动的文本创作工具可能产生颇具影响力或说服力的信息,使得虚假信息不易被识破,负面舆情传播速度加快,进而导致侵犯他人合法权益、扰乱经济秩序和社会秩序,甚至危害国家安全和社会公共利益。
三是情报军事领域应用的新威胁。人工智能的自动生成代码功能使黑客技术的习得过程更为容易,使网络攻防的更新频率大幅提升。利用ChatGPT类大模型可以帮助机器学习识别更加复杂的文本及实体,或将扩大无人军用智能无人装备的应用,增大军事对峙摩擦,对国家安全带来严峻挑战。
加快推进人工智能安全治理。面对人工智能技术快速发展、风险持续蔓延的形势,增强人工智能的安全性成为国际组织、各国政府及产业界等共同关注的议题。
我国高度重视人工智能安全问题,不断加强人工智能发展的潜在风险研判和防范,建立健全人工智能安全治理体系,对人工智能技术本身所致的内生安全、人工智能应用中的衍生安全以及影响和决定人工智能前景的发展安全问题进行系统性治理,确保人工智能安全、可靠、可控。
2017年,国务院发布《新一代人工智能发展规划》,对人工智能治理工作进行了专门部署,并要求建立人工智能安全监管和评估体系。我国不断完善数据安全、网络安全、人工智能等相关法律制度建设,为新技术的快速应用奠定法律基础。研究制定算法推荐、深度合成、生成式人工智能等领域的管理规定,对人工智能发展进行引导和规范,保障相关技术产品的有序发展。先后发布《新一代人工智能治理原则——发展负责任的人工智能》《新一代人工智能伦理规范》,为人工智能技术的开发和应用设定道德约束,促使人工智能更好地服务于人类。此外,我国也积极参与全球人工智能治理,坚持伦理先行、和平利用、安全可控等治理原则,呼吁加强对人工智能军事应用的监管,以负责任的态度促进人工智能安全治理。
推动形成人工智能安全治理的强大合力。尽管已开展一系列治理行动,但人工智能安全治理还面临诸多全球共性难题。人工智能技术目前并不具备较强的可解释性、准确性和真实性,难以完全实现人工智能治理所倡导的透明度、可靠性和安全性。如何在创新发展和有效监管之间取得平衡也是各国普遍面临的问题。既要避免过度监管阻碍技术发展,也要防止管理力度不够而引发严重问题。
当前,人工智能影响下的国际科技、经济及政治领域发生冲突的可能性日益增大。我国正处在人工智能技术快速发展的阶段,必须坚持贯彻总体国家安全观,构建多元参与、协同共治的人工智能治理机制,调动各主体参与治理的积极性,促进人工智能与经济社会健康有序融合,以高水平科技安全保障国家总体安全。一是建立健全人工智能安全治理机制。坚持审慎监管、开放包容原则,强化风险研判和监测预警,完善科技伦理审查和监管制度。二是增强法治保障能力。加快推进人工智能立法,开展生成式人工智能、信息安全利用等法律问题研究,建立追溯和问责机制,清晰界定人工智能相关主体权利、义务及责任边界,从而保障各类群体的合法权益。三是增强人工智能技术治理能力。强化人工智能数据安全、隐私保护等技术研发,强化对人工智能算法和模型的审计监管和对人工智能系统安全性测试评估,增强抗系统性风险能力。四是增强国际安全合作能力。倡导以人为本、智能向善理念,在《中国关于规范人工智能军事应用的立场文件》等基础上,发挥联合国、G20、上合组织等多边机制的作用,拓展人工智能安全共识,避免人工智能滥用带来的安全风险。