作者:中国社会科学院大学新闻传播学院教授、中国社会科学院新闻与传播研究所研究员 雷 霞
近年来人工智能技术在新闻传媒行业的应用越来越广泛,并带来了诸多变革,但同时也为谣言信息的生产和传播提供了新的手段。在人工智能Deepfake(深度伪造)等技术助力下,谣言生产与传播有三个重要特征:一是人工智能合成和伪造的视频,不仅“有图有真相”,而且有“声情并茂”的声音和“场景”,普通用户难辨真假;二是技术制造的“新闻”或信息是虚拟的,辟谣总是滞后的,而现实的影响是即时产生的;三是谣言的产生有一定的社会根源,并与现实有一定程度的关联。就像Deepfake伪造马斯克鼓动粉丝购买特定加密代币的视频谣言,有其产生的社会背景,即马斯克本人从2019年起对比特币和狗狗币的推崇及其对市场波动的影响。那么,人工智能为谣言信息监管带来哪些挑战?人工智能技术如何赋能谣言治理等问题?值得深入探究。
人工智能为谣言信息监管带来的挑战
传统媒体时代,媒体传播的信息都是经由专门的人、机构和部门审核,也就是经由把关人把关之后才被传播。社交媒体时代,UGC(用户生成内容)越来越多地被制造和传播,而且平台提供了多样化的传播途径,使得个人生产制作和传播信息变得越来越普遍。大量的不确定性也因此增加,其中虚假信息和包含不确定性的谣言信息也越来越多。
第一,UGC(用户生成内容)+AIGC(生成式人工智能内容):多元创造与表达带来信息监管压力。人工智能技术的赋能使更多的用户参与信息的制作和创造,并且虚假的信息UGC(用户生成内容)一旦经由区块链技术完整地记录下便很难被更改。
AIGC(生成式人工智能内容)离不开虚实相融的场景建构能力和新奇的时空创意思维以及异空间建构和转换能力。AIGC(生成式人工智能内容)与虚实共融共生的多样文化表达更是会带来新的监管压力。首先,AIGC(生成式人工智能内容)本来就是现实世界与虚拟孪生场景、虚拟原生场景或虚实共生场景的叠加与融合,而谣言也是基于一定的事实基础之上的杜撰、增添、删减,包含不确定性信息,两者有着天然的契合性,这将为谣言的监管和防范带来巨大的挑战,也将带来更大的信息立法压力和监管挑战;其次,如何判断用户自创内容和文化、观念的传播可能带来的现实社会影响,本就是难题,在AIGC(生成式人工智能内容)虚实共融共生的建构体系中,成为更加难以辨别的难题;最后,用户过度依赖虚拟场景的沉浸感可能带来理性探求的缺失,也更容易陷入被设置的议题陷阱,不良信息的传播与渗透也更加难以监管。
第二,短视频+直播升级谣言传播问题。随着5G时代的到来,视频传播将越来越普及,抖音、快手等短视频平台成为谣言传播的新渠道,并且因其有声、有图、有场景、有影像,有故事,极易诱导用户信以为真。同时,如果用户将短视频平台上的谣言信息进行转发或加工传播到其他社交媒体平台,将产生更大的聚合效应,为谣言甄别与监管带来新的挑战。
第三,人工智能对谣言无法精准判别。目前人工智能在特定的模式化写作、基于算法的结构化数据处理等方面比较占优势,但是在非结构化数据的处理和复杂性信息方面,其整合能力还远远不够。人工智能很难区分它接收到的数据是否真实,如果它采纳的数据是虚假数据,那么以此产出的信息也可能是虚假的。复杂情况下人工智能的信息处理能力有限,这是共识。人工智能技术对谣言无法精准识别,尤其是缺少数据的、算法无法描述的领域,以及跨界的、复杂的、不规则的状况,都容易产生误读,对信息容易引起误判。数据质量是人工智能技术面临的挑战之一,而在海量信息中甄别谣言、区分信息的真实性,对人工智能来说是更大的挑战。
人工智能技术应用于谣言治理的展望
人工智能技术能够高效生成文本、图像、音频乃至视频内容,在新闻传媒领域具有巨大潜力,但同时也被用来制造和传播谣言。如果训练数据包含谣言或虚假信息,人工智能生成的内容可能会进一步放大这些谣言或虚假信息的影响,误导公众。然而,人工智能技术也为治理虚假信息提供了新的可能。
第一,完善法律法规,利用人工智能技术为监管赋能。智能媒体技术是具有革新意义的全息媒介化,将产生新的逻辑、模式和规则,同时,其本身具有强大的场景连接力,并与现实世界有着高度联动性,因此制定符合行业发展规范的法规,使其在不同的圈层之间发挥调和作用,将有助于促进社会共识的建立,在节约社会治理成本的同时提升社会治理能力。
第二,提升技术安全保障,加强对谣言及高敏感度信息的研判和预警。人工智能技术在传媒业的应用,是对虚拟现实、混合现实、云计算、区块链、人工智能、人机交互、数据可视化、电子游戏、分身数字人设计技术及物联网等技术的全面融合与重组,加强底层核心技术的提升和发展,能在有效保障安全数据、安全智能和安全通信的同时,有效利用大数据挖掘分析等技术,实现对信息制作、分享和传播赋能,并提高对谣言及高敏感度信息的研判和预警作用。人工智能作为信息处理工具,可以辅助进行大数据分析、文本比对、图像识别等,通过机器学习和自然语言处理等技术,对海量信息进行自动化辨识,快速、高效地识别和筛选出可能存在的虚假信息,提高新闻审核的效率和准确性。同时,还可以开发专门的工具和平台,如事实核查网站、辟谣数据库等,帮助用户快速查询以验证信息的真实性。
第三,强化场景化数字人对辟谣信息的传播和舆论引导能力。人工智能技术提供了更加灵活多样的社会实践方式,并打破了时空和关系的限制,可以充分利用该价值推进媒体融合深度发展,同时加强社会主义核心价值观的引领作用,以社会主义核心价值观与文化的全息在场有效进行价值引领。加强虚拟新闻信息场景的搭建及切换,加强虚拟主持人、数字化身信息解读人、虚拟信息宣讲员的沉浸式导引,以及深化感知便携交互型信息终端等技术的开发和研制。一方面加强用户对主流媒体权威信息的接收和感知,另一方面加强场景化数字新闻人对辟谣信息的传播和舆论引导能力。
第四,打造便捷高效的智能信息检索和生成服务体系。利用开放数据资源,结合区块链等技术,可以创建不可篡改的新闻来源记录,增加新闻的透明度和可信度。在此基础上,媒体机构可以充分利用人工智能技术打造便捷高效的智能信息检索和生成服务体系,以智能化方式提供服务。人工智能系统可以根据用户使用习惯及其数据来为用户画像,推测出用户需要和喜好的信息,也可以根据用户提供的筛选条件迅速检索出相关信息。其中,在海量信息中做到对信息真实性的辨识,对人工智能来说还是一个难题。但在一定的编程模式中,引入人工智能来辨识信息的真伪,已有成功的尝试。路透社为了解决真假信息辨识的问题,使用名为News Tracer的新闻追踪系统,针对每天5亿则Twitter信息进行演算,从假新闻、不合理的新闻、广告、杂音中找到真实新闻事件,在算法的辅助下,记者可以从社交媒体众多信息中脱身,把更重要的时间用来挖掘故事。未来,人工智能有望达到更加自主性和人性化的信息辨识,以提供更加智能化的信息检索与生成服务。
第五,建立人工智能信息发布安全监管和评估体系。通过内在与外在两种方式建立人工智能信息发布安全监管和评估体系来避免可能造成的触犯法律、法规和影响新闻伦理的内容的发布与传播。内在的监管和评估体系可以引入诸如“抑制器”和“审查员”这样的人工智能程序。“抑制器”程序是人工智能在想到某个“坏主意”的时候出现抑制,以阻止做出相应的不当行为;“审查员”程序是人工智能尽早采取拦截,不需要等到“坏主意”形成后才有所行动。外在的监管和评估体系需要人类专家确定监管目标、选择合适的技术方案、设计算法逻辑并制定数据处理规则等,在智能监管的实施过程中,确保技术应用符合法律法规和伦理标准,包括保护个人隐私、确保数据安全、避免歧视性决策等,以确保技术服务于社会公共利益。
第六,智能技术融入新闻内容生产,助力主流媒体提升“四力”(脚力、眼力、脑力和笔力)。伴随新媒体技术及移动终端信息平台的发展,用户的行为逐渐趋向移动化、碎片化、情绪化。但是专业的新闻机构,作为与谣言相对立的确定性信息的生产者和输送者,与自媒体时代“人人都是记者”的“全民新闻”相比,主流媒体的优势就在于“四力”。人工智能技术与新闻产品和信息传播平台的结合,将彻底改变新闻生产的全程,推动媒体融合进一步深化,新闻生产的智能化变革也将逐步影响整个产业生态及其与用户之间的互动关系,有望提升主流媒体“四力”。主流媒体生产和传播的内容,也为人工智能的高质量数据投喂提供了保障,从而形成数据层面的良性循环。
第七,依托信息数据库和专业人员专业技术的积累,提供定制化的新闻信息服务。美国学者保罗·布拉德肖(Paul Bradshaw)曾提出一个21世纪新闻编辑室的“钻石模型”。依据此模型,新闻生产将包括快讯、草稿、报道、背景、分析/反思、互动、定制等步骤。21世纪先以快讯、草稿实现“快传播”,再以报道、分析和背景提供“深解析”,同时要在新闻生产全过程考虑让公众参与、为用户定制信息。人工智能大数据分析技术不仅可以根据用户对于新闻内容本身的需求和对于信息传播的不同媒介的需求,实现内容的定制化及其与用户的互动性,从而实现不同媒介平台之间的互通互联和分享,还可以根据用户的兴趣、偏好和历史行为,精准刻画用户画像,为其提供个性化的辟谣信息推送,帮助其更加准确地获取信息,降低其受谣言影响的可能性。
【注:本文系中国社会科学院2024年度重大经济社会调查项目“中国网络民意和舆情指数调查(2024-2026)”(项目编号:2024ZDDC006)阶段性成果】