【摘要】人工智能的发展推动社会科学研究在广度与深度上产生了质的飞跃,基础研究、知识创造将更加呈现跨学科交叉的趋势,形成了人工智能驱动的社会科学研究范式变革,对社会科学的知识生产和传播产生了革命性影响。一方面,人工智能以其强大的数据和算法全面赋能社会科学的发展;另一方面,人工智能也显著改变着人类的行为和决策方式,引发了道德、伦理、隐私、规范等新的社会问题,使人工智能治理成为社会科学的重要研究对象。当前,有必要在阐释人工智能赋能社会科学的深层次机理的基础上,剖析人工智能时代社会科学的“变”与“不变”,并就进一步促进人工智能与社会科学的融合发展提出对策建议。
【关键词】人工智能 社会科学研究 赋能机制 人工智能治理 未来展望
【中图分类号】TP18/G642.3 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2024.04.012
【作者简介】杨永恒,清华大学公共管理学院教授、博导,清华大学中国发展规划研究院副院长。研究方向为中长期战略与规划、文化战略与政策、数字文化、公共服务与管理。主要著作有《发展规划:理论、方法和实践》、《现代治理视角下的发展规划:理论、实践和前瞻》(合著)、《政府治理指标》(译著)、《中国人类发展报告特别版》(主编)等。
人工智能与经济社会发展的深度融合,使人工智能的应用从科技领域延伸至社会科学领域,推动了人工智能驱动的社会科学范式变革,对社会科学的知识生产和传播产生了革命性影响。一方面,人工智能为社会科学研究提供了新的工具、方法和手段,基础研究、知识创造将更加呈现跨学科交叉的趋势,衍生出了计算社会科学、计算法学、数字人文等新的学科和学术增长点。另一方面,人工智能重构着人类的生产、生活和思维方式,显著改变着人类的行为和决策模式,形成了新的社会形态,引发了道德、伦理、规范等领域新的社会问题,使人工智能自身成为了社会科学重要的研究对象。把握人工智能对社会科学的影响,不仅要看到其带来的积极效果,也要充分认知其所引发的新的问题,理性研判未来人工智能赋能社会科学的发展趋势,确保其符合人类社会的基本伦理和价值,并充分尊重人在知识创造中的主体作用。
人工智能赋能社会科学的底层逻辑
人工智能尤其是生成式人工智能(AIGC)的快速更新迭代,以其强大的多模态数据处理能力,让人们对人工智能的总结、提炼、抽象、推理、创作等能力充满了憧憬。大语言模型(LLM)可以对文本、声音、图像、视频等多模态大数据进行强有力的数据处理、信息提取与建模分析,其生成的内容也可以成为社会科学研究的重要素材。例如,美国OpenAI公司研发的ChatGPT针对互联网或特定大型文本数据集进行训练,从这些训练数据中学习语言模式、语法、上下文和语义,然后运用训练出的算法处理和生成文本内容,据此完成语言翻译、文本摘要、情感分析、聊天和文本写作等任务。
从本质上讲,人工智能大模型是在对人类现存知识和经验进行机器学习和训练的基础上,生成强大的算法和模型来揭示与关联人类现存知识和经验。ChatGPT就是一个机器学习模型,基于给定的训练数据,根据某些单词或单词序列一起出现的概率来生成文本,本质上并不是理解文本数据,而是在根据概率预测文本数据。[1]大模型巨大的语料库和超乎寻常的算力,共同支撑了其强大的知识揭示和关联能力,使其拥有了更加精准的预测能力,这是人类所不可比拟的。大模型的预测能力体现在对人类现存知识和经验的识别精准度,以及在此基础上进行预测和研判的能力上。以文献学为例,人工智能将以往被分割和隔绝的文献资料重新连接,最大程度地促进文献关联与知识发现,改变了学者对文献、知识的认识路径,促进了学术研究、知识生产的快速迭代和更新(刘石、李飞跃,2021)。在人工智能的帮助下,研究人员可以通过大数据和算法,更好地理解社会运行规律、解决社会现实问题、预测社会未来趋势。其作用至少体现在如下三个方面。
第一,为社会科学研究提供强大的新工具和新手段。人工智能大大强化了以数据为基础的社会科学实证研究范式。大语言模型如ChatGPT使用了海量大数据甚至是整个互联网文本数据,对文本、声音、图像、视频等多模态大数据进行数据处理、信息提取与建模分析,可以有效支撑文献综述、理论建构、研究设计、收集数据、分析数据、文本撰写等研究任务。大模型的基础数据库汇聚了世界上尽可能多的存量知识,虽然不能说是全样本,但已经是关于人类知识的非常大的样本。从知识样本接近全样本量的角度看,大模型给出的答案可能让人类个体无限接近理性。
人工智能也为文献研究、文化遗产保护和活化利用等提供了更加高效便捷的手段。数字技术推动了古籍整理和利用的转型升级,创新了文献生产方式、变革了文本呈现形态、拓展了文献获取方式,对于古籍整理、保护和传承发挥了至关重要的作用(刘石、李飞跃,2021)。2021年9月,国际儒学联合会在杭州、台北两地连线,向台湾民间机构云赠送《文澜阁四库全书》,这样一部皇皇巨著通过数字化整理,可以被更广泛、更便捷地检索和使用(杨永恒,2023)。清华大学郭黛姮教授团队在查阅历史资料基础上,借助虚拟现实及增强现实技术,构建了“数字圆明园”,再现了圆明园昔日的恢弘场景。
第二,促使社会科学研究的数据来源发生革命性转变。传统社会科学研究往往通过问卷调查、行为实验、半结构化访谈、多主体建模、参与式观察等方式收集数据,获得个人、群体、文化族群及其动态演进特征的概括性描述。人工智能可以帮助研究者及时快速收集大规模数据,从中提取有价值的信息并进行分析。大语言模型利用深度学习来捕捉文本和语言中的复杂关系,包括上下文语境和准确语义,甚至能够捕捉讽刺、隐喻或情感等细微的语言细节(Bubeck et al., 2023)。这种超强的语言识别能力可以帮助研究者快速有效地收集和处理包括文本和语音在内的多模态数据。
人工智能也可以成为研究者干预控制下的数据收集主体,向不同研究对象(可以是人或人工智能)采集数据。通过设置适当的条件,大语言模型能够准确模拟社会科学研究中的人类行为反应,从而取代实验对象或受试人群进行数据收集(Argyle et al., 2023)。研究人员也可以利用模拟参与者的数据形成假设,然后在受试人群中进行实证检验(Park et al., 2023)。相对于传统的便利样本,大语言模型能够创建与训练语料同样多样化的样本,可以比传统数据采集方法更为准确地描述人类行为和社会动态。
第三,显著提升了人类对社会问题的分析和洞察能力。与传统的抽样调查方法相比,人工智能大模型通过对大规模数据集的预训练,可以汲取大量的人类经验和观点,进而提升研究结论的可推广性(Grossmann et al., 2023)。研究人员也可以通过人工智能情景模拟,认识政策干预的潜在影响,从而形成更有效的整体方案。基于多主体建模的大语言模型(LLM-ABM)可以在深度学习的基础上,总结和推导各类决策或行为规则,模拟具有特定特征和信仰的个体之间的互动(Park et al., 2023)。例如,捕捉不同理论学派或意识形态派别的观点,针对特定案例如古巴导弹危机,模拟多决策主体的参与情形,评估可能发生的各种“假设”情景,并针对不同情景进行决策推演(Tetlock et al., 1991)。
大语言模型尤其适合应用于涉及暴力的高风险或者明显不能有大量人类个体参与的情形。在类似情形的研究中,可以先运用大语言模型在模拟人群中进行测试,为拟开展的研究提供信息支撑,例如,研究虚假信息在社交网络中的传播模式;或者通过创建侵犯者和受害者原型,来研究在线性侵犯行为(Pennycook et al., 2020)。对于这些难度较大和风险较高的情形,因为存在道德风险,很难进行自然实验,而且可能对人类参与者造成伤害,因此利用大语言模型等人工智能来辅助研究是有效的替代方案。
人工智能给社会科学带来的影响
研判人工智能给社会科学带来的影响,可以从两个视角思考。一方面,人工智能带来了社会科学研究范式的变革,催生了一批新的学科和学术增长点;另一方面,人工智能引发了道德、伦理、规范等领域新的社会问题,使人工智能自身成为社会科学重要的研究对象。
人工智能带来的社会科学研究范式变革。普林斯顿大学教授、著名社会学家谢宇指出,不断发展的人工智能使人文社科研究出现全新研究范式,改变了过去社会科学相对单一的研究视角,让不同领域的专家共同解决复杂的社会问题。[2]人工智能引发的社会科学研究范式变革,主要体现在如下三个层面。
第一,从理论驱动转向数据和算法驱动。传统的社会科学研究主要是基于学者的观察和实验提出理论假设,通过收集数据对假设进行实证,从而推动理论的不断发展和演进,这实际上是一种理论驱动的研究范式。人工智能的数据思维、算法思维为社会科学研究带来了新的思维范式和方法论指引,拓展了社会科学的研究样态、观察视域和运用场景,促使社会科学研究从“小数据辅助”向“大数据发现”模式转变,催生了数据和算法驱动的社会科学研究。
这种思维方式在底层逻辑上与以实证研究为主流的传统范式是一致的,但克服了后者的一些显著缺陷。实证研究是以数据为基础,运用统计学方法推断变量之间的逻辑关系尤其是因果关系,从而揭示社会运行规律(洪永淼、汪寿阳,2023)。在实证策略上,传统实证研究构建理论模型,用尽可能少的变量解释尽可能多的数据关系,从复杂社会现象中捕捉主要矛盾。由于理论驱动建立在各种假设基础上,因此结论常常受到所假设理论模型的限制(Breznau et al., 2022, PNAS)。[3]研究表明,基于同一组数据,不同人使用不同的理论模型会得到不同的结论,这也是理论驱动的缺陷。
数据驱动的人工智能大模型无需假设具体的理论模型,而是基于对大规模存量数据和知识的深度挖掘和训练,试图捕捉大数据中的所有可能性,从大数据中获得变量之间的逻辑关系,以得到更加稳健的结论,这实际上克服了理论驱动范式下研究结论可能会因理论模型的改变而变化的缺陷(洪永淼、汪寿阳,2023)。
第二,推动社会科学学者转向更高层次、更具创新的研究活动。过去的社会科学研究往往是以问题导向、好奇心驱动,寻求对复杂社会现象的理论解释,为拓展人类认知世界的前沿边界作出边际贡献。人工智能大模型出现后,人类可以更多地依赖大模型认识世界,这有利于把学者从传统思维框架下的简单重复工作中解放出来,使其转而关注更重大的理论和现实问题,从而显著提升了人类认识世界的能力。学者可以把资料收集、文献梳理、数据分析、文本撰写等工作交给人工智能去完成,自身的精力则主要聚焦在提出问题、构建理论等更加复杂、更具创新性,也更难以被人工智能取代的研究活动上。在大模型的赋能下,理论会从孤立的、单一的理论变成结构性、系统性的理论,成为对整个社会系统的近似描述,这无疑将大大推动理论创新,促使以往的点状创新向系统集成创新转变。
第三,促进文理工学科交叉,打破传统社会科学的学科边界。人工智能的发展具有一定的颠覆性,推动社会科学研究在广度与深度上产生了质的飞跃,使跨学科、多视角、集成式的社会科学研究成为可能。人工智能时代的基础研究、知识创造将更加呈现跨学科交叉的趋势,同时也衍生出了一些新的学科方向,如计算社会科学、计算法学、计算政治学、智能传播学、数字人文等。2021年底,教育部办公厅公布了首批教育部哲学社会科学实验室名单,要求实验室充分利用现代信息技术和先进实验手段,推进学科交叉融合,创新研究范式和方法。首批公布的9家试点实验室(北京大学语言学实验室,清华大学计算社会科学与国家治理实验室,中国传媒大学国家舆情实验室,中国政法大学数据法治实验室,南开大学经济行为与政策模拟实验室,吉林大学生物考古实验室,合肥工业大学数据科学与智慧社会治理实验室,武汉大学文化遗产智能计算实验室,上海师范大学、上海市教育科学研究院教育大数据与教育决策实验室)[4]基本上都具有跨学科特点,几乎都把计算技术和人工智能作为重要的工具和手段。
正如刘石、李飞跃(2021)指出的,人工智能推动人文社会科学形成了“数据驱动、实证优先”的大数据思维,带动学术研究实现从片面性到整体性、从演绎式到归纳式、从因果性到相关性、从解释性到求是性的转变,给人文社科学者带来了认知方式、学术理念和研究范式的变化,并有可能发现此前无从发现的现象、提出此前难以提出的设想、开展此前难以开展的工作、解决此前不可能解决的问题。
人工智能成为社会科学重要的研究对象。科技革命及产业变革在造福人类的同时,也会带来潜在的风险和威胁,有关人工智能技术应用的政治、经济和社会影响及其规制的研究日益成为人文社科学者关注的重要议题。“人工智能之父”、图灵奖得主约书亚·本吉奥(Yoshua Bengio)和杰弗里·辛顿(Geoffery Hinton)曾经指出,“人工智能的威胁并不是虚构出来的。大模型的样本量如果足够大,会有纠偏功能。但它也会产生更大的极化效应,身处其中的人类其实没有太多的选择权,从众效应肯定会进一步放大”。[5]
第一,人工智能深刻改变社会的基本形态与运行模式。[6]人工智能等数字技术的广泛应用,推动形成了与现实物理世界并存的虚拟数字世界。人们在虚拟世界通过虚拟身份完成人与人之间、人与机器之间的交互,也会产生对自身和自身关系的构建诉求,使其中的生产生活方式、社会关系与交往互动的范式、规范等发生重构,衍生出基于数字空间的新兴文化形态(杨永恒,2023)。硬件技术、算法规则和人的行为共同建构着虚拟数字世界,其中,硬件技术支撑了数字世界的物理构建,提供了人机交互接口;基于算法的软件技术则提供了数字世界的社会运行规则和秩序,而人类在数字空间的行为交互,则是对虚拟数字世界持续的人文塑造(杨永恒,2023)。在数字虚拟世界,个体和社会的存在形式、运作逻辑、社会关系和文化形态都发生了重大变化,显著区别于现实世界,由此引发了数字空间的法律规则和行为观、价值观、道德观、伦理观等崭新议题,成为了社会科学研究的热点话题。
第二,人工智能引发意识形态和社会偏见等问题。互联网数据存在海量的虚假信息与固化的社会偏见,人工智能尚无法确认其表述内容的真实性和客观性。大语言模型是依赖现实语料库进行训练的,因而可能会延续现实社会中存在的偏见和价值偏差,并通过快速和低成本的应用加剧这些偏见和偏差。Luo等(2023)发现,ChatGPT存在语言偏见,主要基于英语数据进行训练,并基于英美视角生成“规范性”观点。ChatGPT也被发现有宗教偏见、政治偏见和意识形态偏见(Hartmann et al., 2023)。生成式人工智能还存在复杂性和不确定性、不透明和“随机鹦鹉”现象、事实错误、认知错误、恶意使用、环境成本等问题(政光景、吕鹏,2023)。城乡、区域和代际之间的数字鸿沟,也使得生成式人工智能所依赖的大数据必然存在“样本选择偏差”,进而影响结论的可靠性与科学性。此外,大模型背后的资本和利益,事实上也决定了它所代表的意识形态。ChatGPT之所以能够面世,符合美国的主流价值是必须的,否则根本无法上市。人工智能也可能被“武器化”,成为各方角力的新战场,甚至成为进行舆论引导的新的工具和武器。
第三,人工智能引发新的公共治理问题。个体既是真实世界的个体,也是虚拟世界的个体,而人工智能技术模糊了虚实世界的位格关系,将导致符号世界、虚拟世界、物理世界从三界同构走向三界异构(桑基韬、于剑,2023)。虚拟空间与物理空间之间的渗透和融合,致使虚拟社会越来越能实质性地影响现实社会,很多事件都是在网络空间发酵,然后再蔓延到现实空间(杨永恒,2023)。现实世界与虚拟世界中的人、人工智能和社会综合构成一个新型“生态体系”,算法权力、数字资本主义、人工智能治理等议题成为学术界研究和反思的重点。越来越多的学者开始关注人工智能技术应用中的伦理、道德和规范问题。陈振明指出,从“AI for Science”到“AI for Social Science”以及“AI for Public Policy”,人工智能驱动下的公共治理正在兴起,公共政策研究的知识形态、范围、主题和方法也将随之改变,数据治理和算法治理成为人工智能公共治理的两大基础问题。[7]
对社会科学中人工智能应用的深层次思考
毫无疑问,人工智能正在变革并将持续变革社会科学范式,更多的影响还需要更长的时间去观察,也不排除各种影响的累积和交互,最终将带动社会科学研究范式发生从量变到质变的颠覆性变化。当前,社会各界对人工智能大模型的发展既满怀憧憬和期待,也充满了疑虑。这就需要我们对人工智能与社会科学的深度融合,进行更加理性地思考和研判。至少有如下四个层面的问题值得深入思考。
第一,如何理性看待人工智能辅助社会科学研究的性质。ChatGPT拥有有史以来最为庞大的数据量,并以此作为基础语料训练集,再加上基于神经网络机器学习算法构建的大模型,辅之以惊人的算力,引发了革命性的智能行为。但是从机制上讲,ChatGPT是一个机器学习模型,只能基于给定的训练数据,根据某些单词或单词序列一起出现的概率来生成文本,本质上并不是理解文本数据,而是根据最大的概率来预测文本数据。[8]人工智能大模型采用的方法类似于最大似然估计法,是在汲取人类现存知识的基础上,以远超人类的能力和效率来最大程度地揭示现存知识之间的关联。
洪永淼和汪寿阳(2023)指出,目前人工智能技术只有预测能力,并没有人的意识或理解能力,还不具备与人类一样的批判性思维与想象力,无法从现有数据中推断或预测出重大创新成果。此外,大模型所依托的大数据语料库虽然规模庞大,但也仅是人类社会的一个样本。大模型是无法穷尽所有可能性的,况且人类社会在不断进步,人类知识体系也在不断更新。如果大模型能够穷尽所有可能性,则实际上就变成了一个封闭系统,这就违背了人类社会开放性和不断进化的基本特征。
第二,如何处理好理论与数据之间的关系。人工智能大大强化了以数据为基础的社会科学实证研究范式,例如,ChatGPT使用了海量大数据甚至是整个互联网文本数据,但这并没有改变社会科学实证研究从样本推断总体的本质。同时,人类发展是一个漫长的历史过程,即使互联网大数据的样本容量极大,也只是人类社会历史长河全景中的一个片段。纵使在当下,互联网大数据也只是整个社会全貌中的一个局部呈现。基于大数据的社会科学实证研究仍然是从样本推断总体,以及根据样本特征进行外推预测(洪永淼、汪寿阳,2023)。
此外,人工智能推断的并不是真正的因果关系。实验方法是识别、测度因果关系的最有效方法,但大数据基本上是观测数据而非实验数据,因此基于人工智能的因果推断本质上是一种预测关系或相关关系(洪永淼、汪寿阳,2023)。要识别因果关系,依靠人工智能的关系推断是远远不够的,还必须有理论的指导或引入实验的方法。洪永淼(2023)以经济学为例,预判社会科学研究不会也不可能被人工智能工具所取代——“以ChatGPT为代表的大模型技术是人工智能在自然语言处理技术领域的一大突破,但大模型也存在算法风险、经济可解释性等问题,因此数据驱动范式必须与经济理论相结合。如果没有经济思维和经济理论的指引,很难找到经济学意义上的因果关系”[9]。
第三,如何确保可靠可信的人工智能驱动研究。人工智能大模型基于大量的多模态数据进行训练,能够模拟人类的反应和行为,帮助研究人员快速测试有关人类行为的理论假设。这种研究结论的效度取决于数据本身的代表性,比如,能否准确反映不同人口群体的特征和观点。训练模型可以捕捉社会中存在的文化偏见(Abid et al., 2021),但这种偏见是否准确地反映了人群特点,抑或仅仅是模型构建的产物?大语言模型工程师对预训练模型进行调适,依据的是“应然世界”而不是“实然世界”(Bai et al., 2022),这虽然有助于减少模型训练中的偏见(Weidinger et al., 2022),但可能会影响人工智能辅助社会科学研究的有效性。
此外,人工智能大模型所特有的“黑匣子”性质,不利于评估研究结论背后深层次的潜在机制,也不利于研究结果的复制和推广,在解释力上存在巨大挑战。例如,大模型动辄千亿级的参数,[10]不利于识别社会现象背后的主因与次因、主要矛盾与次要矛盾。虽然大模型在预测准确性上表现不俗,但在理论解释力上还存在较大不足。这些事实上都涉及研究过程的透明度和结果的可复制性。
正如柏拉图的洞穴隐喻,生活在洞穴的囚犯看到了墙上的影子,就认为这些影子是真实的。大语言模型等生成式人工智能依赖的是现存人类知识和文化中描述人类体验的“阴影”,这些阴影为它们所代表的现象提供了真实但有限的看法——这是人工智能辅助社会科学研究所存在的一个显著局限,而且研究中存在的代表性偏差、抽样方法、个人主义方法论等,也会给研究结果的可靠性带来冲击。
第四,如何确保人工智能时代社会科学研究中人的主体性。人工智能驱动的社会科学研究,指向的是一种人机协同的知识生产方式,能够极大地解放研究生产力并释放出巨大的创新潜力(雷环捷,2023)。[11]但与此同时,也要避免人对机器过分依赖以至于丧失了人的主体性。对于学术研究而言,人和人的交流是至关重要的。如果完全让技术主导,最后将不可避免导致人的主体性的丧失。在技术主导下,人和人的交流会日益减少,最后都会变成人和技术的交流,技术会成为中心。从根本上讲,作为建构在人类知识基础之上的智能模式,大语言模型等生成式人工智能应该符合人类社会的基本伦理和价值。
总结与展望
人工智能对社会科学的学科体系、学术体系和话语体系产生了程度不一的影响。其中,学术体系受到的影响最为直接,尤其是在基础理论、研究方法、研究数据三个方面,而且人工智能本身也成为社会科学的研究对象和新的学术增长点;学科体系受到的影响也开始显现,如人工智能、数字技术与社会科学等的交叉融合,既衍生出新的学科增长点,也模糊了社会科学的学科边界;在话语体系方面,机器语言、社会偏见、意识形态等对现实世界和虚拟世界的话语体系所产生的影响也正在逐步显现。
中国走在全球人工智能技术的前列,再加上超大的人口规模和经济体量,人工智能技术的应用前景十分广阔,这必然会给中国哲学社会科学带来深刻的变革、创造难得的机遇,也将为建构中国自主的知识体系、引领全球思想观念变革提供强大的动能。具体建议如下。
一是平衡好传统范式与新范式之间的关系,推动人工智能与社会科学的深度融合。社会科学学者应积极拥抱人工智能,充分利用海量数据资源和多模态数据处理能力,更加有效地揭示人类社会复杂系统的运行与发展规律。同时也要认识到,强调数据和算法驱动,并不意味着理论驱动不重要,理论探索仍是人类不断拓展认知前沿的主要途径;强调大模型并不意味小模型不重要,大小模型分别适用于不同情境;强调大数据并不意味“小”数据不重要,“小”数据的信息密度通常更高;强调文本数据等非结构化大数据,也并不意味着结构化数据不重要,后者能够提供更加简约、精准的信息。此外,要提升人工智能模型的透明度和结果的可重复性,例如,倡导开源大语言模型、公开未经调适的预训练模型以及提升方法论的透明度。确保可靠可信的人工智能驱动研究,对于利用人工智能提升人类认识社会和改造社会的能力至关重要(Grossmann et al., 2023)。
二是要加快构建中国自主的大语言模型。中国走在了数字经济和人工智能技术的前列,在人工智能驱动社会科学发展方面具有得天独厚的优势。大语言模型需要利用大量数据进行训练,使用者越多的文字和语言越易于发展大语言模型。在全球范围内,汉语是全球使用人口规模仅次于英语的语言,而且中华文明是世界上唯一从未间断的文明,累积了其他国家无法比拟的大规模中文语料库。下一步应充分发挥中国在人工智能领域的技术优势和研发能力,依托中国巨大的人口规模和博大精深的中华文明,加快构建中国自主的大语言模型,并利用中国超大市场规模优势加速更新迭代,同时要以开放包容的态度鼓励全球用户的参与,努力形成具有全球影响力的大语言模型,夯实人工智能时代社会科学研究的数字基础设施根基。
三是要维护好人工智能时代的意识形态安全。哲学社会科学具有很强的政治属性和意识形态属性,维护人工智能时代哲学社会科学的意识形态安全,是构建中国特色哲学社会科学的题中之义。生成式人工智能如ChatGPT在全球范围所产生的冲击波,不可避免地会波及到意识形态领域,并对青少年的价值观和行为模式产生直接影响。维护好人工智能时代的意识形态安全,除加快构建中国自主的大语言模型外,也要对ChatGPT等欧美主导的大语言模型秉持开放的态度。如果ChatGPT能够深度学习更大规模的中文语料库,尽可能掌握中文的语法、词汇、语义,更多地熟悉中国的历史文化、当代理论和前沿动态,充分理解中华文化的价值观、伦理观和道德观,则将显著提升ChatGPT语料库的全球代表性。此外,要引导中国用户理性地看待和使用ChatGPT,中国用户与ChatGPT之间的深度交互实际上也是对ChatGPT的持续训练,有助于帮助其更好地理解中国主流的文化价值,矫正其对中华文化的认知偏差。这既有利于提升中华文化在西方大语言模型中的认知度、接受度和传播力,也有助于推动ChatGPT等欧美主流大语言模型逐渐成为开放包容、兼收并蓄的文化新空间。
四是要加强人工智能研究中的伦理建设和价值引领。要清醒认识和及时研判人工智能与社会科学融合中的伦理问题,提出基本的伦理原则和规范,及时应对人工智能可能引发的伦理风险。首先,要认清生成式人工智能创作内容的实质,坚持人在社会科学研究中的主体地位,不过度、盲目追求自动化,确保人工智能研究符合人类的基本价值。其次,要及时制定使用规范和指南,积极回应人工智能大模型中的道德和伦理问题,如数据隐私、算法歧视、环境成本以及结果滥用等。最后,要充分预估和有效控制人工智能在社会科学领域应用中的风险和不确定性,防止误用和滥用,确保其理论创新和知识创造符合学术规范和科研诚信。
总之,人工智能的发展和在社会科学领域的广泛应用,显著提升了学者理解和认知人类社会的能力,也为探索人类社会数字文明的走向提供了可能。但同时我们必须深刻地认识到,人工智能变革了社会科学发展的范式,但并不会根本改变社会科学学者认知和揭示人类社会规律的根本使命,尤其是对“真理”的追求,这可能是超越传统范式与人工智能新范式的根本价值所在。发展人工智能驱动的社会科学研究,必须立足人的主体性,以价值理性驾驭工具理性,让人工智能研究在符合人类基本价值和伦理的前提下,实现与社会科学的深度融合,不断推动社会科学的创新性发展,提升人类认知社会和改造社会的能力,让人工智能技术点亮人类文明的美好未来。
注释
[1][8]《〈时代〉专访ChatGPT:我还有很多局限,但人类应准备好应对AI》,2022年12月11日,https://www.ctdsb.net/c1673_202212/1595016.html。
[2]谢宇在复旦大学人工智能与社会研究(2023)学术研讨会上的主旨演讲,《“AI+”为人文社科研究带来全新范式》,《文汇报》,2023年10月27日。
[3][9]洪永淼在2023年春季首届中国数字经济发展和治理学术年会上的主旨演讲,《人工智能新近发展及其对经济学研究范式的影响》,2023年2月18日。
[4]参见《教育部办公厅关于公布首批教育部哲学社会科学实验室名单的通知》(教社科厅函〔2021〕22号)。
[5]转引自高奇琦等:《人工智能时代的社会科学研究》,《中国社会科学报》,2023年12月22日。
[6]关于这方面的更多论述,可参阅杨永恒:《文化数字化与数字文化化:对数字文化发展再审视》,《人民论坛·学术前沿》,2023年第1期。
[7]陈振明在复旦大学人工智能与社会研究(2023)学术研讨会上的主旨演讲,2023年10月26日。
[10]大型语言模型(LLM)是在具有大量参数的大型未标记数据集上进行训练的,GPT-3经过超过1750亿个参数的训练,而GPT-4的模型参数在1.8万亿左右,13万亿训练数据、一次训练成本6300万美元。参见https://www.semianalysis.com/p/gpt-4-architecture-infrastructure?nthPub=11。
[11]转引自雷环捷,《人工智能与人文社会科学携手共进》,《中国社会科学报》,2023年7月25日。
参考文献
刘石、李飞跃,2021,《大数据技术与传统文献学的现代转型》,《中国社会科学》,第2期。
郦全民,2019,《当人工智能“遇见”计算社会科学》,《人民论坛·学术前沿》,第10期。
洪永淼、汪寿阳,2023,《人工智能新近发展及其对经济学研究范式的影响》,《中国科学院院刊》,第3期。
杨永恒,2023,《文化数字化与数字文化化:对数字文化发展再审视》,《人民论坛·学术前沿》,第1期。
桑基韬、于剑,2023,《从ChatGPT看AI未来趋势和挑战》,《计算机研究与发展》,第6期。
政光景、吕鹏,2023,《生成式人工智能与哲学社会科学新范式的涌现》,《江海学刊》,第4期。
A. Abid; M. Farooqi and J. Zou, 2021, "Large Language Models Associate Muslims with Violence," Nature Machine Intelligence, 3, pp. 461-463.
G. Pennycook; J. McPhetres; Y. Zhang; J. G. Lu and D. G. Rand, 2020, "Fighting COVID-19 Misinformation on Social Media: Experimental Evidence for a Scalable Accuracy-Nudge Intervention," Psychological Science, 31(7), pp. 770-780.
I. Grossmann; M. Feinberg; D. C. Parker; N. A. Christakis; P. E. Tetlock and W. A. Cunningham, 2023, "AI and the Transformation of Social Science Research," Science, 380(6650), pp. 1108-1109.
J. S. Park; J. C. O'Brien; C. J. Cai; M. R. Morris; P. Liang and M. S. Bernstein, 2023, "Generative Agents: Interactive Simulacra of Human Behavior," https://arxiv.org/abs/2304.03442.
J. Hartmann; J. Schwenzow and M. Witte, 2023, "The Political Ideology of Conversational AI: Converging Evidence on ChatGPT's Pro-environmental, Left-libertarian Orientation," https://arxiv.org/abs/2301.01768.
L. P. Argyle; E. C. Busby, N; Fulda, J. R. Gubler; C. Rytting and D. Wingate, 2023, "Out of One, Many: Using Language Models to Simulate Human Samples," Political Analysis, 31(3), pp. 337-351.
L. Weidinger; J. Uesato and M. Rauh et al., 2022, "Taxonomy of Risks Posed by Language Models," in 2022 ACM Conference on Fairness, Accountability, and Transparency (ACM, 2022), pp. 214-229.
N. Breznau; E. M. Rinke and A. Wuttke et al., 2022, "Observing Many Researchers Using the Same Data and Hypothesis Reveals a Hidden Universe of Uncertainty," Proceedings of the National Academy of Sciences, 119(44).
P. E. Tetlock; C. B. McGuire and G. Mitchell, 1991, "Psychological Perspectives on Nuclear Deterrence," Annual Review of Psychology, 42(1), pp. 239-276.
Q. Luo; M. J. Puett and M. D. Smith, 2023, "A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube," https://arxiv.org/abs/2303.16281.
S. Bubeck; V. Chandrasekaran and R. Eldan et al., 2023, "Sparks of Artificial General Intelligence: Early Experiments with GPT-4," https://arxiv.org/abs/2303.12712v2.
Y. Bai; S. Kadavath and S. Kundu et al., 2022, "Constitutional AI: Harmlessness from AI Feedback," https://arxiv.org/abs/2212.08073.
The Changed and Unchanged: Social Science Research in the Era of Artificial Intelligence
Yang Yongheng
Abstract: The development of Artificial Intelligence(AI) has facilitated a qualitative leap in the breadth and depth of social science research. Basic research and knowledge creation in social science is expected to exhibit a more interdisciplinary trend with a paradigm shift promoted by AI, which has a revolutionary impact on the knowledge production and dissemination of social science. On one hand, AI comprehensively empowers social science with powerful data and algorithms, on the other hand, it also significantly changes human behavior and decision-making patterns, triggers such new societal issues of morality, ethics, privacy, norms, etc. Consequently, AI governance becomes a new research focus of social science. This article analyzed the change and invariance of social science through interpreting the underlying mechanisms that AI empowers social science, and proposed measures and suggestions to the further integration between AI and social science.
Keywords: artificial intelligence, social science, empowerment mechanism, AI governance, future prospects
责 编∕桂 琰 美 编∕梁丽琛