【摘要】近年来,我国在生成式人工智能领域不断取得进展,呈现出“百模争鸣”的繁荣局面,但与国际领先水平相比,我国在算力设施、数据质量、算法创新、资金投入、人才储备、产业发展、生态建设等方面面临挑战。在当前形势下,我国应在算力能效结合、数据开放共享、模型垂直应用、生态综合健全等方面统筹规划,调动各方力量,实现全面发展。
【关键词】生成式人工智能 语言模型
人工智能 算法 算力
【中图分类号】F124.3 【文献标识码】A
作为信息化、数字化、智能化的新型技术基座,生成式人工智能对于提升国家战略地位与国际竞争力具有重要意义。2022年11月以来,随着以ChatGPT为代表的大语言模型迅速发展,生成式人工智能(Generative Artificial Intelligence, GenAI)推动人工智能从算法智能(Algorithmic Intelligence,AI)进入语言智能(Linguistic Intelligence,LI)时代,正在全面革新社会生产力。当前,大语言模型成为现代人工智能的基石,构筑起连接多模态的桥梁。2024年2月美国OpenAI发布的Sora,以其长达1分钟的高质量视频生成能力,进一步开启了想象智能(Imaginative Intelligence,II)新时代。Sora初步体现出世界模拟器的能力,为探索通用人工智能(Artificial General Intelligence, AGI)迈出了重要一步。我国近年来也在生成式人工智能领域不断取得进展,文心一言、通义千问、盘古、混元、Kimi等大模型在中文应用领域建立优势,呈现出“百模争鸣”的繁荣局面。同时,我国生成式人工智能也面临着算法低效、数据不足、算力紧缺、能耗过高等问题,特别是我国在芯片受限的情况下,算力问题尤为突出①。本文将介绍生成式人工智能的发展,重点分析我国生成式人工智能所面临的挑战,进一步讨论对策,并展望未来发展趋势。
生成式人工智能的源起与发展
生成式人工智能是指一类能够自主生成新内容的人工智能技术,这些内容可以包括文本、图像、音频和视频等多种形式。生成式人工智能通过学习已有数据的模式和结构,创造出全新的、未曾出现过的数据实例。生成式人工智能的核心在于其创造性和创新性,它不仅仅是复制或模仿现实,而是能够基于已有知识进行创新,生成有价值的新内容。生成式人工智能模型的例子包括生成对抗网络(GAN)、变分自编码器(VAE)和生成式预训练Transformer(GPT)等。生成式人工智能应用领域广泛,已经对艺术、设计、娱乐,甚至科学研究带来实质变革。生成式人工智能的发展前景广阔,它不仅能够为人们的日常生活带来便利, 还能够帮助人们提高工作效率,促进产业升级,推进社会发展。
生成式人工智能研究范式与之前的深度学习有着明显的不同之处。在过去,深度学习的理论与算法研究主要由学术界参与,而生成式人工智能的发展主要由包括Open AI、 Google、Met、Anthropi、Midjourney和Stability AI在内的多家公司推动。这些公司在生成式人工智能领域投入了大量资源,并通过研发和商业应用推动了技术的进步和应用,使得生成式人工智能能够更快地从实验室走向市场,并在各个领域取得广泛的应用和影响。
生成式人工智能在创造新内容和推动技术进步的同时,也可能带来一系列安全问题,主要包括以下几个方面:
在虚假信息方面,生成式人工智能能够制作逼真的文本、图像、音频和视频内容,这可能导致虚假新闻、伪造证据和误导性信息的产生和传播,对社会秩序和公共安全造成威胁。通过生成式人工智能技术,深度伪造技术(Deepfakes)可以创建逼真的伪造人脸和声音,这可能被用于身份冒充、欺诈和诽谤,侵犯个人隐私和名誉权。生成式人工智能模型可能被用于制造恶意软件或进行网络攻击,例如生成用于钓鱼攻击的逼真电子邮件或创建用于绕过安全系统的虚假凭证。
在版权与隐私保护方面,在训练生成式人工智能模型时,可能需要大量的个人数据,这些数据如果未经妥善处理,可能会泄露个人隐私,增加数据泄露的风险。生成式人工智能在创作过程中可能会无意中复制或模仿受版权保护的作品,从而引发知识产权纠纷。
在伦理和道德方面,生成式人工智能在创作内容时,可能缺乏人类的判断和审查,从而产生不当或不敏感的输出。为此,世界各国正在加速立法,鼓励生成式人工智能技术的创新应用,同时规定了服务提供者和使用者应当遵守的基本规范,包括尊重知识产权和他人合法权益,提高生成内容的准确性和可靠性等,确保其健康有序地发展。
此外,据《纽约客》相关报道,OpenAI的GPT-3在训练阶段单次耗电量高达128.7万度;而ChatGPT部署上线后,按照日均请求2亿次计算,支撑推理应答服务的耗电高达每天50万度。在我国,根据公开资料,三峡大坝年平均发电量约为850亿度,而2022年我国主要数据中心耗电量达到2700亿度,已是三峡年均发电量的3倍多。冷却用水消耗、碳排放足迹等,也将对生态环境造成不可忽视的影响。
我国生成式人工智能发展现状
总体情况。自2022年11月ChatGPT发布以来,国产大模型迅速崛起,形成了“百模争鸣”的繁荣局面。百度的文心1.0通用大模型自2019年首次推出后,已升级至4.0版本。阿里云、华为、腾讯、科大讯飞等公司也推出了各自的通用大模型,如通义千问、盘古、混元和星火等,并向公众开放。在这场竞赛中,初创企业也取得了显著成就,例如“月之暗面”推出的Kimi智能助手大模型,支持高达200万汉字的上下文长度,引起了业界广泛关注。学术界也积极参与国产大模型的研究,例如中科院自动化所发布了全球首个图文音三模态预训练模型——紫东太初大模型,上海人工智能实验室与复旦大学联合发布了书生·浦语通用大模型(InternLM)。为推动技术与市场发展,一些厂商提供了开源版本的大模型,如阿里云的Qwen系列、零一万物的Yi系列、智谱华章的GLM系列、科大讯飞的iFlytekSpark系列、百川智能的Baichuan系列等。这些开源模型为研究和应用提供了便利,进一步促进了国产大模型技术的创新和应用。
为了增强对蓬勃发展的国产大模型的认识,新华社研究院中国企业发展研究中心于2023年发布了三版《2023年人工智能大模型体验报告》,回顾了大模型产品市场的激烈竞争,并对当前大模型产品和厂商进行了整体测评。同时,多个机构也推出了各自的大模型评测体系和排行榜,如“司南”(OpenCompass)、C-Eval、SuperCLUE等,厂商间的激烈竞争彰显了该行业的活力与吸引力。排行榜在展现国产大模型激烈竞争的同时,也揭示出业内的乱象,例如模型套壳、评分作假等。
领域应用。在通用大模型的基础上发展领域专用模型,推进垂直领域应用是我国生成式人工智能领域的特色。国内专用领域大模型在科学研究、教育、医学、工业、金融多个行业得到应用和发展。
在AI4S(AI for Science)领域,华为的盘古气象大模型利用深度神经网络和地球先验知识,实现了高精度的实时气象预测,超越了传统数值预测方法。化学领域,中国科学技术大学提出的Chem-GPT模型/华东师范大学的提出的ChenGPT1.0/上海交通大学提出的BAI-Chem大模型,以及西北工业大学与华为合作的“秦岭·翱翔”流体力学大模型,均在各自领域取得了一定的成果。
在教育领域,华东师范大学和北京语言大学分别开发的EduChat和桃李教育大模型,以及学而思的九章大模型(MathGPT)和网易有道的子曰教育大模型,展示了大模型在辅助教学过程中的重要作用。
在工业领域,中国广核集团推出的“锦书”核工业语言大模型、中科院大连化物所的化工大模型、中工互联公司的“智工”大模型,以及中煤科工西安研究院的“GeoGPT”地质大模型,提升了工业领域的智能化水平。
在医学领域,华南理工大学的生活空间健康大模型扁鹊(BianQue)和心理健康大模型灵心(SoulChat)、香港中文大学的华佗GPT模型、浙江大学的启真医疗大模型、医联科技的medGPT大模型,以及多个中医药大模型如百度健康的岐黄问道大模型、华东师范大学的神农中医药大模型(ShenNong-TCM)、复旦大学和同济大学合作的仲景中医大语言模型(CMLM-ZhongJing)、南京大学与郑州大学的黄帝模型(Huang-Di)等等,推动了医疗健康领域的智能化发展。
在金融领域,中国科学院成都计算机应用研究所的“聚宝盆”金融知识问答大模型、度小满的“轩辕”千亿级开源金融大模型、恒生电子的LightGP、澜舟科技的孟子大模型,以及香港科技大学的InvestLM投资金融大模型,在金融行业中发挥日益重要的作用。
这些行业大模型初步提升了行业生产效率,不断塑造新动能、新优势。同时,大模型在某些行业的落地应用还存在很多挑战,发展前景具有不确定因素。
政策法规。为了国产大模型的规范化和健康化发展,国家网信办联合国家发展改革委、教育部、科技部等七部门联合发布《生成式人工智能服务管理暂行办法》,规定对生成式人工智能大模型实施“备案制”管理。此外,为了满足当前国产大模型发展所引发的巨大算力需求,我国陆续出台了《全国一体化大数据中心协同创新体系算力枢纽实施方案》《算力基础设施高质量发展行动计划》《“十四五”数字经济发展规划》等一系列文件推动算力基础设施建设。
我国生成式人工智能面临的挑战
虽然我国在生成式人工智能领域呈现出繁荣景象,但与国际领先水平相比,我国在算力设施、数据质量、算法创新、资金投入、人才储备、产业发展、生态建设等方面仍有一定差距。
算力。在AI算力领域,美国英伟达公司在全球占据主导地位,而国内AI芯片制造商如华为、寒武纪、摩尔线程、壁仞科技、海光信息、天数智芯等也在积极发展,百度、科大讯飞等企业也联合国产芯片厂开放部署了自主可控大模型算力底座“星火一体机”、“飞星一号”等平台。其中,华为在AI计算领域水平最为领先,推出了基于达芬奇架构的昇腾系列AI芯片。面对当前海外高性能芯片进口受限的现实,国产高性能芯片取得了一定的发展,但与国际先进水平相比,仍存在一定差距。
以英伟达的H100(SXM)和华为的昇腾Ascend 910B为例,作为国际和国内主力AI芯片,H100(SXM)的FP16算力达到1979TFLOPS,是昇腾910B的5.2倍;显存方面,H100(SXM)的80G HBM3是昇腾910B的64GHBM2的1.25倍,且新一代显存带来的性能差距更大。此外,H100(SXM)采用NVLINK技术,具有900GB/s的卡间互联带宽,是昇腾910B的2.25倍。英伟达的CUDA架构和专用库如CuDNN,形成了成熟的软硬件生态,而华为的CANN架构虽在不断完善,但起步较晚,在算子丰富度及算法优化方面仍存在差距。尤其值得注意的是,英伟达等企业的AI芯片快速迭代升级,而我国由于受到芯片制造技术封锁,产品更新速度大大减慢。英伟达在2023年发布了新一代H200芯片,显存容量提升至141G,大模型推理速度翻倍。2024年3月,英伟达又发布了Blackwell计算平台,性能显著提升。例如,训练1.8万亿参数的GPT-4,使用Blackwell平台相比Hopper能耗大幅降低。相比之下,华为的昇腾Ascend 910在2019年就已推出,而升级版Ascend 910B在2023年才小规模投入使用。此外,谷歌基于自研TPU的算力平台已经体现出强大的实力,近期备受关注的Groq公司研发的大语言模型推理芯片LPU,推理速度可达H100的十倍。综合来看,我国与国际算力先进水平的差距短期内进一步拉大。
数据。数据是生成式人工智能的核心要素之一,我国在人工智能训练数据的质量和数量、管理、共享、应用等方面与国外英文数据相比,存在一些差距和挑战:
在数据质量和多样性方面,我国的中文数据虽然近年来快速增长,但在某些领域,如专业医疗、法律等,高质量的标注数据仍然相对不足。英文数据由于互联网历史较长、用户基数大,覆盖了广泛的文化和语境,积累了大量的高质量文本和多媒体数据,这有助于训练出更具泛化能力的AI模型。中文数据虽然在本土文化和语境上具有优势,但在处理多方言、多文化背景下的数据上,仍需加强多样性和包容性。
在数据管理和共享方面,我国公共数据范围广泛,但在开放共享和开发利用方面存在不足。例如,天气数据在范围和历史跨度上有所限制,法律领域的裁判文书网由公开转为内网查询。社会力量主要依赖海外优质开源数据集,中文语料主要来源于网络公开数据,政府数据贡献相对较少。为提升我国在AI领域的竞争力,需要加强公共数据的开放共享,优化数据管理和利用,鼓励政府和社会力量的合作,共同推动数据资源的高效开发和应用。总体而言,中文语料库的量、质、开源情况都不如英文,存在数据资源碎片化和流通机制不完善的问题,尚未形成对大模型提供有效数据资源的生态,一定程度上阻碍了我国生成式人工智能的发展。
算法。算法、数据和算力是深度学习三大要素。在基础算法方面,2017年谷歌提出的Transformer已经成为生成式AI的核心模块。此后,多模态领域的CLIP,生成式领域的扩散模型(Diffusion Model)、混合专家模型(MoE)等方法均由国外机构提出并发展,而我国科研机构提出的创新方法相对较少且影响力不足。
在大语言模型方面,谷歌的Bert和OpenAI的GPT最先开启了新时代,特别是OpenAI发布的 ChatGPT成为AI发展路程上的一个里程碑。而后续的GPT-4以其在多数任务指标上的优异表现,在众多语言大模型中仍然占据榜首。Meta开源的Llama大模型虽然稍晚性能稍逊,但是其开源属性,成为世界上众多大模型的源头。在文本生成图像方面,OpenAI的DALL·E和谷歌的Imagen在2022年最先发布,以其高真实度的效果迅速引起了全球范围的注意,人工智能生成内容(AIGC)进入新时代。在文本生成视频方面,OpenAI在2024年2月发布Sora,再次取得历史性突破。在大语言模型领域,国内的百度、智源、中科院等单位具有先发优势,推出文心一言、GLM等大模型。2022年以来在开源力量等因素的推动下,形成“百模大战”的繁荣局面,但整体上的性能没有超过GPT-4等国外模型。而在文本生成视频方面,国内与Sora的差距更为明显。
促进我国生成式人工智能发展的对策建议
在当前形势下,我国应在算力能效结合、数据开放共享、模型垂直应用、生态综合健全等方面统筹规划,调动各方力量,实现全面发展。
第一,鼓励计算架构多元创新,充分利用我国能源优势,建设高能效智能算力网络。在计算芯片方面,应探索发展更适合AI计算的架构,发展多样化技术路线。虽然在短期内Nvidia的GPU系列仍将是AI计算的主要平台,但其也存在设计上的不足,一些新、旧势力正在打破其垄断局面。例如美国初创公司Groq研发的LPU,专门面向大语言模型推理,速度获得显著提升,而老牌Intel最新研发的AI计算芯片Gaudi3,训练性能达到Nvidia H100的1.7倍。我国也应激励研发AI专用体系架构,充分利用RISC-V等开源架构,加快芯片制造技术升级,探索自主可控的计算生态体系。此外,应加快量子计算等新计算形式的研究。量子计算利用量子叠加和量子纠缠原理,其天然的并行处理能力远高于目前的主流处理器。近年来量子计算实现技术快速发展,量子机器学习等领域已经展现出潜力。
在电力供给方面,随着AI算力的不断提升,对电力的需求也在急剧增长,电力已成为AI算力对决的关键因素。生成式人工智能技术的发展离不开算力的支撑,而算力的提升又离不开电力的供应。我国“百模大战”或将带动智算中心及其配套所需的相关电力、储能基础设施建设和投运速度的大幅提高。对此,除强化国家级超算中心之外,我国可着重从两个方面应对能源算力不断增长的挑战。一是开展算力与能源的结合,参考比特币“矿厂”模式,将算力中心部署在在四川、云南、内蒙古、新疆等电力充足地区,就近利用火电、水电、风能、太阳能,依托自主硬件设备,建设高效能算力中心,助力“东数西算”。二是通过分布式计算调动社会资源,进一步利用社会闲置算力,吸引公众参与科学研究。
第二,建立联邦数据基础,鼓励开放共享,促进数据提质增量。针对数据存量少、质量低、开放不足、共享机制不完善的问题,我国首要任务是建设智能联邦生态系统②,而联邦数据③是其中的当务之急。联邦数据为数据安全和隐私问题提供有效解决方案,其运行机理遵循平行智能范式,能够根据Morton定律和平行强化学习等方法探索实现数据最优化,为将大数据转化为智能打下基础。联邦数据的架构包括六个组件③,即真实数据/物理对象、虚拟数据/数字孪生、联邦数据实验、联邦融合、联邦安全和可信联邦智慧。前两个组件用于处理来自物理对象的真实数据和安装在特定设备上的数字孪生生成的虚拟数据,以及其他方法生成的虚拟数据。联邦数据实验是探索最优模型的关键过程之一,通过在解决方案空间中搜索,例如,使用强化学习和并行强化学习找到本地模型的最优参数。联邦融合组件负责将本地模型合成全局最优模型,通过使用专门设计的模型融合算法,如动态融合机制。联邦安全组件负责实现数据安全和隐私。数据所有权和使用权是分开的,即对于特定节点,数据存储在其本地地址,而这些数据训练的模型被转移到联邦融合和联邦数据实验组件,类似于联邦学习。此外,安全性还可以通过区块链或其他加密方法进一步提高。从联邦数据实验和联邦融合的结果中,可以获得可信的联邦智能。
第三,持续算法创新,打造专业大模型,开拓垂直领域应用新场景。在短期内我国AI算力受限、模型算法创新突破难度较大的背景下,应在持续鼓励算法创新的同时,以弥补算力短板、促进产业升级、解决行业痛点为出发点,着力打造专业大模型,开拓垂直领域应用新场景。通过专注于垂直领域的专业大模型,可以更有效地利用现有算力资源,避免在通用AI模型上的重复资源浪费。专业大模型针对特定问题进行优化,能够在有限的算力下实现更高的性能和效率。专业大模型能够针对特定行业的需求提供定制化的智能解决方案,推动传统产业的数字化和智能化转型,从而提升整个产业链的技术水平和价值创造能力。例如,在医疗、金融、交通、教育等关键领域,专业大模型能够解决行业痛点问题,如提高疾病诊断的准确性、优化金融服务的个性化推荐、缓解交通拥堵等,持续增进人民福祉。
第四,探索TAO(True DAO),发展智能联邦生态,健全智能生态。如前所述,人工智能技术的创新和健康发展涉及到算力、算法、数据多个要素,需要政府、学术界、企业以及社会大众的共同努力。因此,建立健全促进AI发展的生态体系十分关键。
一方面,充分利用区块链、分布式自治组织(DAO)④⑤,借助目前国际上开始流行的Web3和DeSci浪潮,推进我国AI领域全面发展。区块链是一种分布式账本技术,它通过加密和共识机制确保数据的不可篡改性和透明性。在AI领域,区块链可以用于确保数据的安全性和隐私性,同时为AI模型提供高质量、可追溯的数据源。分布式自治组织(DAO)是一种基于区块链技术的组织形式,它通过智能合约自动执行组织的规则和决策过程,可以为AI项目提供去中心化的管理和资金分配机制,与区块链结合促进AI技术的开放协作和共同治理之TAO(True DAO)⑥。Web3指的是构建在区块链技术之上的下一代互联网,它所强调的数据去中心化存储、用户隐私保护、数据所有权归还给用户等理念,为AI提供了一个更加开放、透明和安全的数据环境。以上技术应用的一个领域范例就是DeSci,利用区块链和智能合约等技术,实现科学研究的去中心化、开放和共享。DeSci鼓励跨学科合作,促进科学数据和研究成果的公开共享,也能够为AI提供丰富的数据资源和创新动力。Web3、分布式自治组织(DAO)、区块链和DeSci在发展人工智能中将共同推动技术进步、促进数据共享、增强系统安全性和推动去中心化治理,为AI的健康发展和广泛应用提供坚实的基础。
另一方面,应建立联邦数据、联邦控制⑦、联邦管理⑧⑨和联邦服务⑩为一体的联邦生态,推动联邦智能发展为智能系统联邦。联邦控制在联邦生态中扮演核心角色,其主要目标是维护信息安全和保护数据的所有权、控制权、隐私权和使用权。作为一种分布式控制策略,联邦控制为大型复杂系统提供高效、安全和可靠的管理和控制。联邦管理是联邦生态的关键组成部分,负责根据生态目标和要求制定管理决策,并根据系统状态变化动态调整。通过联邦管理,生态系统能够达到最优状态,实现目标,并在保障安全的前提下,实现智能化管理。联邦管理的目的是通过对联邦数据的联邦控制来实现联邦服务。在实现联邦服务的过程中,不断产生大量新的数据,这些数据可以添加到联邦数据中,用于优化联邦管理决策。
通过构建上述分布式和联邦化相结合的生态系统,做到资源有效调配,激发创新活力,综合维度促进AI全面健康发展。以DeSci为基础,国际化的无人驾驶大模型MetaVista、食品大模型MeTaurant、运动大模型MetaSport、健康大模型MetaSEEH3O2,以及慧拓智能推出的矿山大模型愚公(YuKon)等正在快速发展,展现出新生态的活力。
生成式人工智能的发展趋势与展望
生成式人工智能作为人工智能中发展最快的一个领域,传统巨头和创业公司的突破性产品在短时间内相继推出,可谓日新月异。算法、模型、算力、应用的相互促进,形成飞轮效应,在未来一段时期为生成式人工智能的持续繁荣提供动力。总体而言,我国虽然面临算力能源约束、数据质量不足等问题,但生成式人工智能的发展前景依然广阔。
第一,大模型的规模效应(Scaling Law)仍有扩展潜力。虽然研究新算法以替代Transformer的呼声日益高涨,但如Mamba等新架构尚在验证和改进阶段,未被广泛接受和使用。基于Transformer 并结合MoE的架构在短期内仍将不断扩展规模效益的边界。
第二,多模态大模型是发力的重点。语言大模型能力相对完备,成为链接各个模态的桥梁,文生图、文生视频等将逐步完善,促进从语言智能向想象智能的范式转换。
第三,行业大模型是重点方向。基于少数基础大模型打造面向特定行业的专业模型是“AI+”行业赋能的有效方式,参数高效微调(PEFT)技术通过最小化微调参数数量和计算复杂度,能够显著降低训练时间和成本。例如,LoRA、Prompt Tuning等技术能在计算资源有限的情况下,实现高效的迁移学习。
第四,生成式人工智能将进一步增加对算力与能源的需求。随着大模型规模效应的进一步发展,以及文生图、文生视频等多模态应用需求的高速增长,算力紧缺将是未来一段时间的常态,特别是我国在芯片受限的情况下这一问题更加突出。同时,算力紧缺也将促进AI专用芯片的研发,面向底层算法加速的异构芯片将挤占Nvidia的市场,我国自主AI算力芯片也将快速成长。
(作者为中国科学院复杂系统管理与控制国家重点实验室研究员)
【注释】
①卢经纬、郭超等:《问答ChatGPT之后: 超大预训练模型的机遇和挑战》, 《自动化学报》 2023第4期,第705-717页。
②王飞跃、王艳芬等:《联邦生态: 从联邦数据到联邦智能》,《智能科学与技术学报》, 2020年第4期,第305-311页。
③刘昕、王晓等:《平行数据: 从大数据到数据智能》,《模式识别与人工智能》,2017年第8期,第673-681页。
④Miao Q, Zheng W, et al. DAO to HANOI via DeSci: AI paradigm shifts from AlphaGo to ChatGPT. IEEE/CAA Journal of Automatica Sinica, 2023, 10(4): 877-897.
⑤Wang F Y. The DAO to metacontrol for metasystems in meta- verses: The system of parallel control systems for knowledge automation and control intelligence in CPSS. IEEE/CAA Journal of Automatica Sinica, 2022, 9(11): 1899-1908.
⑥Li J and Wang F Y,The TAO of blockchain intelligence for intelligent Web 3.0, IEEE/CAA J. Autom. Sinica,2023,10(12): 2183-2186.
⑦朱静、王飞跃等:《联邦控制:面向信息安全和权益保护的分布式控制方法》,《自动化学报》,2021年第8期,第1912-1920页。
⑧Wang F Y, Qin R, et al. Federated management: Toward federated services and federated security in federated ecology. IEEE Transactions on Computational Social Systems, 2021, 8(6): 1283-1290.
⑨王飞跃: 《平行管理复杂性管理智能的生态科技与智慧管理之DAO》,《自动化学报》,2022年第11期,第2655-2669页。
⑩Li J, Qin R, et al. The future of management: DAO to smart organizations and intelligent operations. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2022, 53(6): 3389-3399.
责编/李一丹 美编/李祥峰
声明:本文为人民论坛杂志社原创内容,任何单位或个人转载请回复本微信号获得授权,转载时务必标明来源及作者,否则追究法律责任。