网站首页 | 网站地图

大国新村
首页 > 原创精品 > 成果首发 > 正文

人工智能大模型发展的新形势及其省思

【摘要】随着相关技术的不断进步,大模型发展呈现出与数据要素深度融合、其日益沉淀为基础设施、发展焦点从底座模型转移至应用生态等新的趋势。针对大模型产业发展呈现出的新态势、新动向,我们要树立大模型发展的全局观和整体观,积极采取加快建设人工智能教育体系、建立以智能科学为核心的跨学科研究体系、推动大模型与数据要素协同发展并坚持多元化的大模型发展路径等新的应对举措。作为一种先进技术,大模型具有两面性,我们在积极采取措施促进其良性发展并释放其应用价值的同时,也要密切关注其滥用、误用与恶用所带来的虚假内容泛滥、影响人类心智和能力的发展与培育等负面问题,未雨绸缪积极做好风险治理与管控。

【关键词】大模型 人工智能 风险管控 大模型应用落地

【中图分类号】TP18/F49 【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2024.13.004

【作者简介】肖仰华,复旦大学计算机科学技术学院教授、博导,上海市数据科学重点实验室主任。研究方向为知识图谱、知识工程、大数据管理与挖掘。主要著作有《图对称性理论及其在数据管理中的应用》、《知识图谱:概念与技术》(合著)、《生成式语言模型与通用人工智能:内涵、路径与启示》(论文)等。

 

自2022年底OpenAI发布ChatGPT以来,大模型产业发展先后经历了百模大战、追求更大参数、刷榜竞分,直到近期各大厂商相继加入价格战,可谓热点纷呈。大模型的技术形态也从单纯文本发展到了多模态,从模拟人类大脑的认知功能发展到操控机器身体进而与复杂环境交互,从通用发展到专业与行业大模型,大模型技术生态日益繁荣。热闹的产业发展背后涌动的是科技巨头对通用人工智能(Artificial General Intelligence,简称AGI)技术赛道的激烈拼抢,是大国科技竞争态势的愈演愈烈。如果说ChatGPT打响了通用人工智能技术革命的第一枪,那么当下AGI产业竞争似乎进入了多点开花、犬牙交错的局面,未来走势并不清晰。与此同时,大模型产业发展过程中的各种问题也日益突出:各厂商仍在艰难摸索大模型变现路径、研发投入仍在持续增长、需求方的耐心不断被消磨,对生成式大模型的根本性问题(比如幻觉问题)仍然缺乏有效应对策略、大模型训练与应用的资源与能源消耗问题日益突出。久而久之,大模型厂商成本压力增大,市场也逐渐冷静。此外,大模型技术大规模应用所带来的各种社会问题也逐渐凸显。大模型产业似乎进入了一个中场阶段,盘点与反思当前发展态势、梳理与总结发展中的问题、展望与谋划未来对策成为推动大模型产业进一步发展的重要议题。

大模型发展的新态势

大模型日益成为人工智能产业发展的基础设施。从大模型的基本内涵来看,其势必演变为人工智能产业发展的基础设施。从字面上的意义来看,大模型即大规模参数化的深度神经网络,海量参数是其根本特征。大模型需要大规模算力和海量数据进行训练,也因此成为人工智能的重型装备,这也宣告AI(Artificial Intelligence,人工智能)进入了重工业发展阶段,而重型装备往往是产业发展基础设施的代名词。大模型在学术界有时又被翻译为基础模型(Foundation Model),是指经过预训练而得并能够在多种下游任务中发挥基础作用的模型。[1]例如,代码基础模型经过少量下游任务提示就可以用于代码生成、改写、检测、推荐、搜索等任务。由此可见,大模型发展趋势之一就是成为人工智能产业发展的重要基础设施。

从功用来看,大模型往往被用作海量知识的容器、模拟人类心智能力的认知引擎、驱动智能体与环境交互的大脑、协同不同组件与工具的操作系统、人机自然交互的接口。传统AI解决问题需要面向特定任务进行针对性的模型研发,而当前这一范式让位于基于统一大模型进行任务微调或者指令指引的新范式。大模型的功用与应用范式决定了其在智能系统架构中日益下沉为整个架构的基础,不仅支撑着丰富多样的上层应用,也支撑着复杂意图的理解与用户需求的满足。[2]近期打响的价格战也从侧面展现了大模型的基础设施地位,唯有基础设施才需要以持续走低的价格锁定海量的忠实用户,而只有持续增长的用户和规模化应用才能有效分摊大模型巨大的前期研制成本。

大模型成为新质生产力的代表。大模型是AGI最重要的技术形态之一,是一种先进生产力,也可以说是新质生产力的代表。劳动力是生产力诸要素中起决定性作用的要素,只有劳动力才能支配与使用其他生产要素(土地、资本、数据等)。大模型驱动的数字与机器员工将成为新型劳动力,这是大模型作为先进生产力的本质,人类迎来了可以与人类劳动力媲美的新型劳动力。AGI旨在达到或接近人类智力,一旦相关技术成熟,AGI驱动的智能机器,包括有形的机器劳动力和虚拟的数字劳动力等,将成为人类劳动力的重要补充。而机器和数字劳动力在可靠性、可用性以及对复杂与恶劣环境的适应性等很多方面具有相较于人类劳动力的巨大优势。

从某种程度上说,以生成式大模型为代表的AGI将可能成为超越人类的先进劳动力。语言大模型一定程度上再现了人类的言说能力、写作能力以及基于语言的逻辑表达与情感表达能力。多模态大模型能够进一步完成多模态内容的生成任务,甚至实现了复杂世界的建模。具身大模型则侧重于使智能机器具备规划能力与理解复杂环境及进行自适应交互的能力,机器操控各类工具完成复杂任务成为现实。[3]各种科学大模型、专业大模型则专注于具体科学任务,使得专业性工作提质增效,比如蛋白质结构大模型使得蛋白质结构预测效率得到极大提升。最近OpenAI推出的GPT-4o更是将机器的自然交互水平推向了新高度,机器已经能在多人对话场景中实时理解人类的语音、姿态、情绪、意图,具备了一定的认知人类社会的能力。单单就GPT-4o所展现出的能力可以预见,未来涉及人类情感交流的诸多行业,比如教培、护理、心理咨询等都将被AI赋能。[4]从脑力代替到体力代替、从文案生成到问题求解、从事实检索到逻辑推理,可以说大模型正在全面进入人类智力的领地,除了自我意识等少部分人类自身也未能准确定义与理解的问题外,但凡能够精准描述、刻画、定义的大多数人类能力在不远的将来都可能被大模型掌握。

值得注意的是,即便AI劳动力再先进,我们也必须坚持构建人机协作的和谐人机关系。一方面,生成式AI短期内仍将存在包括幻觉问题、过度能耗在内的诸多局限,其生成过程与结果仍然需要人类的提示、控制与评判。另一方面,为推动实现人机和谐共处,人类不应放弃决策自主权,即便未来机器能够在某项任务中代替人类,人类仍然应该掌握最终的确认与决策权,这也是人类应该积极承担和难以免除的责任。从短期来看,机器还难以被视作责任主体,“机器协作+人类决策”仍将是人机混合的劳动力市场的基本形态。从中长期来看,我们需要重新梳理人类的责权体系,机器有可能成为非关键责任主体或部分责任主体,在此过程中,我们要警惕人类推卸责任的倾向。

数据将成为大模型发展的决定性要素。大模型工程的本质是数据工程,数据决定了大模型的落地效果。大模型的预训练、指令微调、价值对齐、评估评测等都依赖高质量数据。当前的研究与实践证明高质量数据是决定大模型性能与效果的关键因素,甚至是决定性因素。而大模型训练过程中的数据合成、数据配比、数据治理也能决定大模型的训练效果。[5]总体而言,高质量数据以及高水平的数据工程方法是大模型发展的关键。此外,数据规模与复杂性会随着人类社会的发展而增长。换言之,伴随着技术进步与社会发展,数据的规模只会不断创造新的记录,数据的多样性只会提升,而数据给技术带来的挑战也会进一步增加。随着人才、算力等瓶颈被进一步突破,数据可能成为大模型发展的长期性、根本性、战略性问题,甚至可能成为AGI发展的最大制约。

具体而言,一方面,构建面向大模型的优质数据集仍需付出较大代价。训练语料、优质指令、评测数据总体上呈现一种分散状态,需要通过汇聚、清洗、去重、合成、筛选才能够成为训练大模型的优质语料、指令与评测数据。[6]大模型总体上呈现出对于高质量数据的“饥渴”状态,近期大模型产业发展的一些新动向多多少少都与抢占数据有关。例如,有传统媒体状告Google等企业在未经授权的情况下使用媒体数据进行模型训练,以及OpenAI与Quora(国际版知乎)深度合作、OpenAI与苹果智能深度合作,上述动向本质上都是大模型头部企业寻求优质数据的努力,表现出大模型产业发展对媒体数据、高质量社区问答数据甚至个人数据的渴求。[7]另一方面,数据供应不畅、数据治理能力薄弱等,都是大模型向纵深发展的限制性因素。从长期来讲,数据问题的缓解需要数据要素市场的充分发展,当下数据交易的一个重要动力就是构建高质量的行业大模型训练语料。但数据要素市场目前仍处于发展与完善进程中,其制度和基础设施建设不仅需要时间,也需要大量实践的反馈与优化。此外,随着大模型的进一步发展,其与千行百业的深度融合成为趋势。在这一进程中,高质量、高价值行业数据的价值更加凸显,决定了大模型在各行业中的应用效果。目前,行业数据对于大模型能力的价值还未得到充分释放,这是大模型赋能高价值行业之前必须解决的重大问题。可以说,数据是大模型竞争的决定性因素,而从根本上缓解数据对大模型发展的制约,需要持续性、系统性的努力。

大模型产业发展焦点从基础模型走向应用生态。当大模型具备了人类智能的基本能力,如何用好大模型就成为了重点。值得强调的是,用好大模型绝不比研发大模型容易。事实上,自ChatGPT诞生至今,大模型并未给人类切实创造多少价值,这一窘状不应归咎于大模型自身的不足,而应该归因于人类自身能力的不足,特别是大模型应用水平的不足。大模型好比武侠小说中的利器,唯有强者才能驾驭这一利器,进而释放其价值。大部分人对于大模型的应用可能就仅限于闲聊、文字润饰。大模型本质上是智者的利器,换言之,只有洞悉大模型特性的知识精英或者行家里手才能将大模型的能力淋漓尽致地发挥出来。用好大模型本身就是个人、组织、国家未来的核心竞争力之一。

如果将大模型视作一种电能,那么围绕大模型打造的应用就好比电器,形式多样的电器是电能赋能千家万户的最终形态。我们不能否认发电的价值,但更应该肯定电器制造的价值。围绕大模型打造相关应用,解决千行百业的痛点问题,将成为大模型产业未来发展的焦点。这决定了大模型下一阶段发展的重点势必是从通用走向专用,从开放走向私域,从基础模型走向应用生态。大模型能否解决金融决策辅助、医疗决策辅助、生产流程优化、质量提升、风险管控等问题,决定了其价值密度。一旦大模型能在千行百业发挥作用,将释放更大的产业能级。

大模型的应用生态百花齐放,其中以下四类应用尤为值得注意。一是硬件终端的智能升级。大模型赋能各种终端是正在发生的一个重大产业趋势,PC、音箱、家电、手机、手表、智能车等都将被大模型赋能,而大模型将借助这些硬件载体为人类带来更强大的意图理解、更自然的人机交互、更细致的任务规划以及更精准的信息服务。二是个人消费服务的智能升级。购物、出行、游戏、文化、教育、健康等涉及个人服务的场景将被大模型显著赋能,比如大模型驱动游戏中的NPC(Non-Player Character),能够显著提升NPC的智能水平,提升游戏玩家体验;英语外教等教培行业也正在被大模型重塑。三是企业信息服务的智能升级。大模型对于推动企业数字化转型具有革命性意义。在大模型驱动下,企业经营管理和决策过程将发生根本性、革命性的升级,大模型将在传统企业运营流程中扮演重要角色,代替人类专家、小模型以及专家系统,完成流程中的诸多环节。此外,大模型对于开放世界的理解能力有助于提高企业数字化解决方案对于市场变化的响应效率,增强系统的敏捷应对能力。四是行业智能化应用。行业应用的本质是认知决策,大模型丰富的知识储备和强大的认知能力使其能在各行各业的商务决策过程中扮演重要辅助角色,如金融市场决策、医疗诊断决策等。同时,大模型将成为人类专家的决策助手,拓展专家的认知范围,提供更多的决策变量、方案选择和决策路径指引,提示潜在风险,对人类方案提出优化建议等等。

大模型发展的新举措

针对大模型产业发展呈现出的新态势、新动向,我们要树立大模型发展的全局观和整体观,提前研判、积极应对。大模型产业发展涉及要素众多,不能仅从大模型自身发展的核心要素进行思考。一方面,要统筹考虑大模型与数据要素市场发展;另一方面,要将大模型置于推动我国各行业转型升级、高质量发展,全面深化改革以及解决或缓解当前我国经济社会发展中诸多问题的重要科技引擎的新角色中进行思考;此外,更要从大模型作为一种先进生产力对生产关系、人类发展、社会发展的影响等宏观角度进行思考。

加快人工智能教育体系的建设。如果有人问,人类为迎接即将到来的AI技术革命所需要开展的第一项工作是什么?笔者认为答案应是教育变革。AI作为一种先进生产力,它的发展势必要求生产关系与之相适应。生产关系的调整过程涉及整个社会诸要素的调整,涉及因素众多,其中最基础、最首要的一环就是教育。为在大模型国际竞争赛道上抢占先机,我们必须培养大量人工智能专业技术人才,具体而言,不仅需要培养跨行业融合的AI人才,以将AI技术应用于千行百业;还需要培养跨学科的AI人才,以重塑人文社科的学科内涵,加速自然科学的知识发现进程。此外,我们还需要提升全体国民的AI素养,使AI技术像电脑与互联网一样得到广泛应用,唯有如此,AI才有可能成为全社会发展的引擎。

在AGI时代即将全面到来之际,教育本身的内涵需要重塑。教师教什么?学生学什么?教育管什么?这些问题都需要重新回答。现代文明所追求的知识发现与获取能力或将逐步褪去光环,生存与发展的智慧将更具价值。除了作为现代文明人所必要的核心素养与能力之外,审美、判断、鉴赏、提问、批判能力将更加重要。事实的记忆、繁琐的运算、常规内容的生成,基本上都可以交给人工智能。在未来AGI大发展时代,如何驾驭与使用AI将成为人类最有价值的技能之一。然而,随着AGI的日益复杂及其能力的增长,认知并驾驭AI也将愈加困难,AI教育的使命日益艰巨。

推动AI教育的首要任务在于确立AI技术在教育中安全应用的基本原则。当前,很多组织和高校都在积极推动AI教育,各国政府也纷纷发出了AI与教育深度融合的呼声,这对推动AI技术在教育教学中的普及与应用有着积极的意义。然而,我们要尤为注意的是,AI在教育中的应用需“有所为、有所不为”,而不能越界,否则将可能违背教育的初衷。对于AI在教育中的应用,需仔细甄别其对于学习者自身能力的习得是有利还是有弊,而不能不加选择地盲目滥用。试想一下,如果一个仍在学习写作的小学生使用AIGC(Aritificial Intelligence Generated Content,生成式人工智能)进行作文辅助,如果学生在做每一道数学题之前都先去问问AI,那么学生们的写作与计算能力如何才能形成呢?与此相反,教师、家长利用AGI进行备课、辅导却是十分有益的。由此可见,AI技术在教育中的应用需具体问题具体分析,其中针对学习者的AI应用应该极为谨慎,否则可能事与愿违。

学习者是否应该使用AI,如何使用AI?解决此类问题需要十分细致而繁琐的甄别工作。其基本原则在于,在学习者的某项核心能力形成之前,应该谨慎借助AI的此项能力。因此,对学习者的能力进行精准刻画,进而进行分级分类的AI应用管控是促进学习者更好利用AI的基本思路,除此之外的其他分类依据都存在一定的不合理之处。例如,有观点认为大学生可以肆无忌惮地使用AI,这样的分类原则显然过于武断了,比如对于一个第一次学习日语的日语系新生而言,他/她完全是日语语言习得的门外汉,而对AI的滥用可能导致其永远也无法习得日语言说的能力。

建立以智能科学为核心的跨学科研究体系。学科划分使得人类对于客观世界和人类社会的有限经验与理性思考逐渐走向专门化、专业化,也在一定程度上造成了人类对世界统一性、整体性认知被分解。部分细分学科内部同质化研究泛滥,原始创新动力不足,未来最为重要的任务在于重建关于世界本原的整体性认知。

AGI拥有不同学科知识,为人类的跨学科认知进而整体性把握世界带来了重大机遇。大模型通过通用语料训练习得了不同学科的知识,同时具备了一定的组合创新能力,因而擅长将不同学科的知识进行组合以解决问题。大模型的跨学科知识将是协助人类开展跨学科融合研究的利器。对于人文社科而言,AI带来的绝不仅仅是工具的革新,而是重塑传统人文社科的一次重大机遇。人工智能通过实现一个无限接近于人的智能体,在不断追问人的本质、智能的本质、自我的本质,而实现本身就是一种理解。AI的快速进步需要我们重塑理解“人与社会”的既有概念与理论框架。从本质上来讲,认知人文社会现象的隐喻对象发生了根本变化,从传统的动物转变成了智能机器。智能机器通过不同于人类的机制甚至实现了很多超越人的根本特性,这就可能从根基上撼动现有人文社科的理论框架。同时,AGI也呈现出强大的世界建模能力,以Sora为代表的大模型建模能力达到了新的高度。从一定意义上说,对于某个特定现象的重建能力就可以被视作一种理解能力,AI一旦具备世界建模能力,其对世界认知的广度与深度就可能超越人类,AI对世界本原的认知也就有可能超越人类的现有认知。未来科学研究的重大任务之一就是借助AGI对复杂世界的编码与建模能力,重建对于世界本原的认知。

跨学科研究另一个方向的重要使命在于“为机器立心、为智能立命”。加深对于AGI本身的认知,建立理解AGI的概念框架,是推动AGI进一步发展以及帮助人类更好地驾驭与管控AGI的根本所在。人工智能以人类智能为拓版,而今却日益呈现出其专有特性。几千年来,人类已经建立起的对于人以及由人所构成社会的认知体系与理论框架,这是我们理解AI的心智以及智能体社会的有益参考。至少可以说,以人类为模板去理解AI是理解AI的第一步。随着AGI日益融入人类生活,如何理解与控制AI个体以及群体的心智、角色、行为,是实现AI安全可控的关键,是促使AI造福人类而不致危害人类的关键。为AI“立心立命”,让AI守规守矩,是智能时代到来之前我们需要做好充分应对准备的难题之一。

加速数据要素市场发展,推动大模型与数据要素的协同发展。大模型产业进一步发展对高质量数据的需求更为迫切,大模型与数据要素的发展日益融合,二者协同发展势在必行。第一,大模型有望成为激活数据要素价值的智能引擎。以生成式大语言模型为代表,大模型已具备强大的世界建模能力、数据认知与操控能力,这将促使其成为激活数据要素价值、实现数据要素累乘效应的智能引擎。大模型与数据要素的融合发展,有望赋能千行百业成为数据价值变现的重要方式。第二,大模型将为缓解数据治理技术瓶颈带来新的机遇。数据治理代价大、成本高,已经成为数据要素价值变现的堵点与痛点。大模型有着强大的开放数据的理解和操控能力,因而有望利用大模型等人工智能技术手段构建智能化数据治理体系,进而实现自动化、智能化数据治理,减少治理过程对人力的依赖。第三,基于大模型智能体技术有望打造贯穿数据价值变现流程的数据挖掘、分析、操控智能体,全面提升数据要素价值变现的效率。大模型对于数据、数据库系统、数据处理过程的理解与操控能力,使其可能成为释放数据要素价值的数据智能体。第四,围绕大模型行业语料所形成的高价值数据产品可以检验数据要素市场机制。目前,数据要素市场中仍然缺乏商业价值明确、交易机制清晰、安全可靠合规的数据产品。相较于其他涉及国计民生的数据产品,大模型训练语料接近教学科普类书籍的内容,与个人隐私、行业安全关联不大,其交易相对安全、可靠、合规,因而容易形成高价值的数据产品,进而检验我国数据要素市场制度建设和基础设施建设的合理性。

数据要素市场的进一步健全、数据要素技术的进一步完善,也将为大模型的发展注入强劲动力。首先,数据要素市场为大模型的数据集提供了合法合规的获取渠道与机制。通过数据产品的合规交易,各行业大模型训练所需要的高质量训练语料有望得以汇集,从而缓解大模型在行业落地过程中对于高质量数据的“饥渴”状态。其次,强大的数据合成与治理能力可以用于进一步提升大模型训练语料、指令数据的质量与规模。面向大模型训练的语料集建设、指令集构建、价值对齐数据构建等都对数据治理、数据处理、数据合成等技术提出了较高要求,而大模型驱动的智能化的数据能力体系能够满足相应要求。

坚持多元化的大模型发展路径。以大模型为代表的AGI形态与发展路径是多种多样的,为此应坚持多元化的发展战略。从参数规模角度来看,大模型会向越来越大和越来越小两个方向同时发展。当前,大模型发展的一个重要趋势是参数量越来越大,主流参数在十亿、百亿到千亿级,不同参数规模有着不同的智能潜能,适合不同的应用场景。大模型的能力随着参数规模、训练数据和训练时间的增加而持续增长。增大模型参数量仍是探索机器智能极限的重要方式之一,而更大参数的模型也是进一步发挥大模型的标度律(scaling law)效应的方式之一。[8]值得深思的问题是,大模型发展到终极状态,标度律是否仍然成立。换言之,大模型的能力提升是否存在天花板,也就是说再多的数据、再多的训练、再多的参数也不再能提升大模型的能力。提出这个问题的理由是充分的,一方面,大模型训练正在迅速耗尽人类的优质数据;另一方面,能源消耗存在天花板,人类社会的能源开发和利用仍然存在制约,因而人类不可能无限、单向度地向大模型供给能源。此外,历史上任何技术发展曲线最终都会遭遇天花板。由此,对大模型的标度律进行质疑是合理且充分的。

但是,以大模型为代表的AGI也呈现出自我提升与自我完善的可能性。这与人类相似,人类一直在追求并实现对于前代的超越,上升似乎是人类水平的智能族群的基本特征之一。那么,当AGI达到或超越人类智能水平之后,同样有着充分的理由推断AGI可能实现持续上升从而保持标度律持续有效。因此,对于AGI天花板是否存在这一问题,保持一种谨慎而开放的态度是合适且必要的。然而,当前一些现实因素可能会制约大模型能力的进一步增长。首先,优质数据生产速度可能远远跟不上大模型学习数据的速度;其次,人类新能源开发与利用的效率难以满足大模型能源消耗的需求。[9]因此,笔者倾向于认为大模型的能力最终会进入一个或至少会保持一段时间的徘徊期。在这个徘徊期内,大模型会随着所学习数据的增多,持续拓展其认知的事实与知识边界,但是决定其智商与情商的核心能力,如思维能力、逻辑能力、推理能力以及与人类共情的能力的发展可能会遭遇天花板。康德曾经将人类的智能分为知性与理性,所谓知性是指感性而杂多的事实性知识,而理性则是一种将这些杂多的知识进行有序组织的能力。套用康德的分类,笔者倾向于认为大模型所代表的AI在知性方面将仍然遵守标度律,但在理性方面则将遭遇天花板。

如果说更大规模参数的大模型是在帮我们探索智能的极限,那么更加小型而实用化的模型则是夯实AGI现实应用的基础。大模型的小型化是推动大模型在更加泛在的低端硬件和边缘环境应用落地的必然举措。大模型的小型化从表面上看是大模型的瘦身,涉及大模型的蒸馏机制,[10]但是从本质来看,其涉及的是大模型可解释机理等根本问题。[11]如果将大模型类比于人类大脑的神经网络,那么与人脑类似,至今对人类诸多能力的实现与表达是分布式还是集中式(抑或是宏观上集中,微观上分布),仍存在争议。对于“祖母”细胞是否在大脑中存在这一问题,理解之关键在于确证大脑神经元是否存在特定区域完成特定功能的倾向,事实上,一些解剖学研究成果证明大脑存在一定的功能区域,比如人脑的海马体为人类提供认知地图的能力。目前,大模型是否也存在着类似的功能分区(或者说相对集中)仍然不得而知,一定程度上,剖析大模型并不比剖析人脑的神经网络更为简单。唯有从源头上厘清大模型的参数分布与模型能力之间的因果关系,才能从根本上响应大模型的小型化等应用诉求。

AI智能体重塑社会关系与行业发展形态,塑造社会科学新内涵。大模型的应用普及将重塑各行各业的发展形态,人类社会甚至存在被AI代理全面接盘的可能。以内容生产与传播行业为例,AIGC提高了内容创作效率,内容与信息呈泛滥之势,普通人已经无法完全阅读仍在快速增长的新闻,科学家也无法尽阅每天生产的海量文献。作为生物智能的人类的有限认知能力使其淹没于内容海洋,对世界准确的整体性理解越发困难。而破题的关键仍然在于用好AI,让AI成为每个个人的数字分身,完整复制每个个体的价值与情感偏好,使其成为我们的内容生产与消费的忠实代理。未来,AI生成的泛滥必然催生内容生产和消费的AI代理模式。内容生成将由人类授意的AI代理智能体完成,内容的阅读与消费同样由人类的AI代理完成。这些AI代理将协助人类完成内容的生产、分发、筛选、传播与消费。

一个数字分身或者智能代理泛滥的时代又会是个怎样的时代呢?这是个更加值得深入思考的问题。你的数字分身或者AI代理在多大程度上能够行使你的主体意志,每个个体又在多大程度上能够让渡主体意志给AI呢?未来社会可能将日益演变成人类及其AI代理构成的社会,人与人的关系已经无法完整地定义社会关系,人与自己的AI代理、AI代理与AI代理,成为了社会关系的必要构成。社会科学的全部内涵因此而被刷新,重建我们的社会科学成为新的历史使命。AI智能体社会的到来,势必要求重新建构人类的伦理框架、道德体系、情感框架,构建和谐的人机关系将成为社会关系发展的重要目标之一,而不单单是人与人的关系。

AI代理参与的社会也将重塑人类的生活方式和行业业态。比如,出于功能性的消费活动完全可以由AI代理完成,人类消费的真正价值可能仅在于情感体验,如精挑细选的乐趣,而不再是买到商品这一朴素目的。从这个意义上来讲,购物的功能性内涵将消失。再比如内容生产与传播行业,如果AI代理将代替人类成为内容生产与传播的主要受众或对象,那么传统的面向人的图书编辑与出版、新闻内容的生成与传播将何去何从?一定程度上可以说,几乎所有的行业都要正视一个新的事实:服务对象从人变成人的AI代理,而这一变化势必要求重塑传统行业形态。

大模型发展过程中的风险管控

作为一种先进技术,大模型具有两面性,运用得当将成为先进生产力,但运用不当也可能成为巨大破坏力。安全可控必须是发展大模型的前提,为此,我们必须未雨绸缪,对未来大模型的大规模应用所带来的诸多负面问题做好提前研判与积极准备,从全局考虑AI应用问题,不能唯生产力论AI,而应兼顾AI应用所带来的方方面面影响,并深入研判AI应用的长期影响。

加大大模型风险管控力度,加强大模型合规应用的制度建设。大模型会对人类社会的哪些方面产生影响?这种提问已不合时宜。其相反的问题更有价值,即人类社会的哪些方面不会受到大模型影响?答案可能是“并不多”,大模型对人类社会的影响是广泛而深远的。人类社会方方面面的发展都需要运用人类的智力,而但凡人类智识所及之处皆可为大模型用武之地。正是基于这个原因,大模型的负面影响,更加值得我们高度关注。

随着大模型的普及应用,其所带来的负面问题日益显现,如虚假内容泛滥、价值观偏差、侵犯版权、隐私泄露、人群偏见、新型信息茧房等。其一是大模型驱动的AIGC技术使得内容生成与制作的门槛大大降低,虚假内容呈现泛滥态势。[12]传媒生态所赖以存在的信息真实性前提受到前所未有的挑战。其二是大模型存在暴露偏差等问题,即大模型训练语料可能存在各种偏差与倾向,比如种族偏见、性别偏见、文化偏见、意识形态偏见。[13]其三是大模型给版权保护带来了前所未有的挑战。一方面,大模型厂商可能在未经授权的情况下使用版权所有者的数据进行训练。另一方面,大模型的使用者可能使用大模型生成的内容作为自主知识产权的内容。由此可见,大模型给传统知识产权概念框架与实践操作均带来了重大挑战。[14]其四是大模型训练数据对用户隐私的侵犯,进而对传统的隐私框架提出了新要求。例如一个教授在学校网站上公开了自己的联系方式,但这并不意味着该教授希望自己的联系方式被大模型习得而为所有人认知。[15]其五是新型信息茧房的形成,随着大模型日益成为各类互联网信息系统的新基座,信息消费者的认知将难以挣脱由大模型所编织的新型信息茧房[16]。这些随大模型普及应用而正在逐渐显现的问题都需要有关部门加强研究,加大大模型风险管控力度,加快大模型合规应用的制度建设。

AI大规模滥用对人类自身发展带来的长期负面影响。显性的负面影响容易觉察,但更为致命的则是不易觉察的问题。因此,我们更需要高度警惕AI(特别是AGI技术)大规模滥用带来的隐性、长期的负面影响。所谓AI滥用是指过度地、不加限制地使用AI技术,这种滥用往往出于眼前的或者短期巨大利益的考量而有意无意忽视AI发展的长期问题,最终对人类福祉或者特定群体利益造成长期的难以弥补的侵害。AI滥用往往有着温和甚至是极具吸引力的外表,如果在推动AI成为先进生产力的过程中对AI的应用不加以区分与选择,对AI的负面问题视而不见,久而久之,AI滥用会像温水煮青蛙一般以一种缓慢而难以察觉的进程给人类带来难以挽回的伤害。鉴于此,我们需高度警惕AI的滥用问题,认识到AI应用应该“有所为、有所不为”,尽快为AI的安全应用设立基本原则。

从本质上看,大规模AI的长期滥用可能会带来人之为人的本性倒退。技术的每一次进步都可能带来人类某种能力的倒退,例如输入法技术的进步带来的是很多人的提笔忘字。但是,当达到人类智力水平的AGI大量代替人类脑力劳动时,随之而来的可能的脑力倒退却是人类难以承受的。具体而言,在个体具备某项能力之前(比如写作),不加克制地滥用AI的相应能力,将会阻碍个体获得此项能力。因而即使计算机早就能代替人类进行计算,但是我们的儿童必须付诸艰苦的训练掌握基本的计算能力。我们必须警惕人类心智的核心能力因为AI的滥用而倒退,人类心智水平的倒退,势必带来主体意志的逐步消退,而AI对于人类主体意志的侵犯,将导致难以承受的后果。

由此可见,无论AI技术发展到何种水平,AI应用都应该以保障人性和人类智能的核心素养与能力的充分发展为前提。AI应用应该为人类智力、能力的训练与实践留下充足的机会和空间,面向青少年的基础教育阶段恰恰是人类核心能力的形成时期,因而对于此阶段的AI应用应高度谨慎。同时,人类社会的大部分工作岗位,都必须保留特定规模的人群从事相应的手工工作,人类的所有技术应该像非物质文化遗产一样,指定足够规模的人类群体进行传承和发展,而AI应用应该适当“留白”。

生产关系、社会价值观念、文化艺术创作等与AI生产力的适应性问题。作为先进生产力,大模型对整个社会和各行各业进行全面渗透并产生革命性影响几乎是不可避免的。这就要求关系到价值观念、伦理体系、文化教育、生产关系等社会发展的方方面面都要作出积极变革和适应性调整,才能适应这种先进生产力的发展。

从短期来看,大模型等AGI技术将给就业市场带来直接影响。AGI应用的过程本质上就是AI劳动力逐步代替人类劳动力的过程,在这个过程中,越来越多的任务、工作逐步交给了效率更高、效果更好的机器。而AI代替人类的过程必须是缓慢、渐进、有序的过程,以避免剧烈的就业结构调整所带来的社会震荡。从更长时期的范围来看,大规模AI应用也可能影响现有的社会阶层结构。未来,因为AI智能水平参考线的存在,人类群体将可能被分为AI智识水平之上和之下两大层次。对于人类个体而言,跨越AI的智识水平线将变得日趋困难。随之可能带来的阶层固化甚至对立是需要正视的问题。此外,AI无节制地介入人类情感生活会让人迷失于虚拟的情感世界、甚至产生畸形的情感依赖。人与人之间的真挚情感将可能被人机虚拟情感所干扰,进而引发人类情感混乱。

大规模AI应用对人类思想、文化、艺术等方面产生的更长期的影响同样值得注意。当前,生成式人工智能已经涉足音乐、绘画、影视等几乎一切人类的艺术创作形式。人类的生命是有限的,而即使人类生命延长似乎也无法赶上艺术品生产的速度,那么,人类在有限的生命里何以享受这过于丰盛的艺术盛宴。历史上,人类从未像今天一样面临窘境:我们淹没在审美的海洋中,试问,我们会不会因此而窒息呢?如果人类个体的一生都处于审美的高亢兴奋体验之中,这样的人生又有怎样的价值与意义呢?美之泛滥是否会消灭美的本身呢?生成式人工智能的泛滥将会打破美的稀缺性,而这可能进一步消弭审美需求,进而影响传统艺术形式的发展。AI创作似乎正在快速穷尽艺术创作的组合空间,比如AI生成音乐可能很快穷举我们所能感知的绝大部分曲调,继而危及音乐这种艺术形式的存在。

为使社会发展能够以和谐的方式适应人工智能这一先进生产力,我国应充分发挥在统筹社会方面的制度优势,在生产关系调整、教育体系革新等方面作出富有前瞻性与建设性的系统谋划,并积极、严密、细致地推进相应的布局调整,避免出现剧烈冲击和较大的震荡。目前我国正处于全面深化改革的关键时期,进一步全面深化改革,要抓住主要矛盾和矛盾的主要方面,“进一步解放和发展社会生产力、增强社会活力,推动生产关系和生产力、上层建筑和经济基础更好相适应”[17]。推动以大模型为代表的AGI技术与生产关系、上层建筑更好地适应,无疑是践行这一方针的具体措施之一。

结语

当前,大模型发展日益呈现出与数据要素融合发展、其逐渐沉淀为基础设施、发展焦点从底座模型转移至应用生态等新的趋势。以大模型为代表的AGI将成为先进生产力的代表,我们在拥抱这一先进生产力的兴奋之余,也要密切关注其滥用、误用与恶用所带来的负面问题。要以更为深入的思考、更加长远的眼光、更加全面的梳理和更加精准的研判,做好全面、积极、主动的应对,确保AI成为人类之福,而不是人类之祸。

在AGI快速发展的时代,如何打发闲暇时光,如何安置灵魂成为人类需要直面的问题。从表面上看这似乎是个幸福的烦恼,然而,笔者更愿意称其为“戴着和善面具的恶魔”。未来,人类应对AGI的利用加以适当引导与控制。即便有AI的助力,以卓越精神仰望星空也仍需要付诸常人所不能想象的艰辛和长期坚持。

古代欧洲的贵族们往往都有贴心的管家帮助其料理与经营生活,这成就了一批贵族精英代表人类专心致志、心无旁骛地探索未知世界,但更为常见的情形却是养出了大批“好吃懒做、肥头大耳”的精神侏儒。AGI日渐成为人类的贴心管家,AI代理人类社会似乎成为必然趋势,而在这一过程中人类更应奋发向上,借助AI力量去勤奋地探索未知世界,不断开辟新的认知疆域。

注释

[1]R. Bommasani, D. A. Hudson et al., “On the Opportunities and Risks of Foundation Models,“ arXiv preprint arXiv:2108.07258, 2021; A. Young, B. Chen, C. Li et al., “Yi: Open Foundation Models by 01.AI,“ arXiv preprint arXiv:2403.04652, 2024.

[2]X. Chen, L. Li, L. Chang et al., “Challenges and Contributing Factors in the Utilization of Large Language Models (LLMs),“ arXiv preprint arXiv:2310.13343, 2023.

[3]S. Pang, E. Nol, K. Heng, “ChatGPT-4o for English Language Teaching and Learning: Features, Applications, and Future Prospects,“ SSRN Electronic Journal, 2024; S. N. Wadekar, A. Chaurasia, A. Chadha et al., “The Evolution of Multimodal Model Architectures,“ arXiv preprint arXiv:2405.17927, 2024.

[4]S. Pang, E. Nol, K. Heng, “ChatGPT-4o for English Language Teaching and Learning: Features, Applications, and Future Prospects,“ SSRN Electronic Journal, 2024.

[5]D. Zhang, Y. Yu, C. Li et al., “MM-LLMs: Recent Advances in Multimodal Large Language Models,“ arXiv preprint arXiv:2401.13601, 2024.

[6]D. Zhang, Y. Yu, C. Li et al., “MM-LLMs: Recent Advances in Multimodal Large Language Models,“ arXiv preprint arXiv:2401.13601, 2024; Y. Liu, J. Cao, C. Liu et al., “Datasets for Large Language Models: A Comprehensive Survey,“ arXiv preprint arXiv:2402.18041, 2024.

[7]《7天内2次收购!OpenAI豪掷重金接连吞并两家初创》,2024年6月26日, https://www.thepaper.cn/newsDetail_forward_27859971;《违规使用新闻出版商数据训练大模型,谷歌在法被罚2.5亿欧》,2024年3月26日, https://new.qq.com/rain/a/20240326A0A27N00。

[8]J. Kaplan, S. McCandlish, T. Henighan et al., “Scaling Laws for Neural Language Models,“ arXiv preprint arXiv:2001.08361, 2020.

[9]N. Muennighoff, A. Rush, B. Barak et al., “Scaling Data-Constrained Language Models,“ Advances in Neural Information Processing Systems, 2024, 36; Y. Liu, J. Cao, C. Liu et al., “Datasets for Large Language Models: A Comprehensive Survey,“ arXiv preprint arXiv:2402.18041, 2024.

[10]X. Xu, M. Li, C. Tao et al., “A Survey on Knowledge Distillation of Large Language Models,“ arXiv preprint arXiv:2402.13116, 2024.

[11]D. Chen, J. P. Mei, H. Zhang et al., “Knowledge Distillation with the Reused Teacher Classifier,“ 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), New Orleans, LA, USA, 2022.

[12]X. Li, Y. Zhang, E. C. Malthouse, “Large Language Model Agent for Fake News Detection,“ arXiv preprint arXiv:2405.01593, 2024;《又遭投诉!Meta因利用用户数据训练人工智能模型遭挪威“开火”》,2024年6月14日,https://www.sohu.com/a/785794320_114984。

[13]T. Hosking, P. Blunsom, M. Bartolo, “Human Feedback Is Not Gold Standard,“ arXiv preprint arXiv:2309.16349, 2023; J. Yang, H. Jin, R. Tang et al., “Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond,“ ACM Transactions on Knowledge Discovery from Data, 2024, 18(6).

[14]《一文读懂:AI大模型训练中的核心版权问题》,2023年10月19日, http://news.sohu.com/a/729633870_455313;《大模型版权争议再起 纽约时报起诉OpenAI和微软》,2023年12月28日,https://finance.sina.com.cn/jjxw/2023-12-28/doc-imzzpyuc6959399.shtml。

[15]D. Yu, P. Kairouz, S. Oh et al., “Privacy-Preserving Instructions for Aligning Large Language Models,“ arXiv preprint arXiv:2402.13659, 2024; V. Patil, P. Hase, M. Bansal, “Can Sensitive Information Be Deleted from LLMs? Objectives for Defending Against Extraction Attacks,“ 2023, https://openreview.net/pdf?id=7erlRDoaV8.

[16]《违规使用新闻出版商数据训练大模型,谷歌在法被罚2.5亿欧》,2024年3月26日, https://new.qq.com/rain/a/20240326A0A27N00。

[17]《习近平主持召开企业和专家座谈会强调:紧扣推进中国式现代化主题 进一步全面深化改革》,2024年5月23日,https://www.gov.cn/yaowen/liebiao/202405/content_6953237.htm?menuid=197。

责 编∕包 钰 美 编∕梁丽琛

New Situation of and Reflection on the Development of Large Model of Artificial Intelligence

Xiao Yanghua

Abstract: With the continuous progress of related technologies, the development of large models presents new trends such as deep integration with data elements, increasingly becoming infrastructure, and shifting the focus of large model development from base models to application ecology. In response to the new situation and new trend of the development of the large model industry, we must establish a holistic and comprehensive view of the development of large models, and actively adopt new countermeasures such as accelerating the construction of artificial intelligence education system, establishing an interdisciplinary research system with intelligent science as the core, promoting the coordinated development of large models and data elements, and adhering to the diversified development path of large models. As an advanced technology, large model has two sides. While actively taking measures to promote its benign development and release the potential of its application value, we should also pay close attention to the negative issues caused by its abuse, misuse and evil use, such as the proliferation of false content, and affecting the development and cultivation of human mind and ability. We should take proactive measures to manage and control risks.

Keywords: large model, artificial intelligence, risk control, large model application

[责任编辑:包钰]