【摘要】信任是人机互动和人际互动的基石。然而,由于算法黑箱的不透明性和不可解释性,人工智能系统及其服务在赋权和便利一部分人的同时,算法滥用、算法误用和算法垄断也在侵蚀、排斥和边缘化另外一部分人的利益。就此而言,算法即重构、程序即政治,在智能化环境中,信任被破坏和侵蚀不仅存在于人机互动之间,人与人之间的传统信任关系也因在线匿名和算法驱动而陷入衰退。正是考虑到人工智能带来的种种社会信任挑战,以算法规制为核心的人工智能治理首先应着眼于以人为本构建可信赖人工智能生态体系,并基于技术秉性和道德法律框架重建人机信任关系和人际信任关系。
【关键词】算法黑箱 人机信任 人际信任 计算政治
【中图分类号】TP301.6 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2024.16.008
【作者简介】董青岭,对外经济贸易大学国际关系学院教授、博导,国家安全计算实验室(CLNS)主任。研究方向为大数据海外舆情监测与冲突预警、国际关系自然语言处理与社会情感挖掘、机器学习与国际关系智能分析。主要著作有《大数据与机器学习:复杂社会的政治分析》《复合建构主义:进化冲突与进化合作》等。
长期以来,信任一直是人类互动的基石,是社会、经济和政府赖以建立的基础。伴随着人工智能技术的日臻成熟和应用普及,现实世界事实上已经演变成为一个被各种算法所包裹的社会计算空间。在这样一个计算空间中,人人皆为算法使用者,同时又皆为算法对象,不停地被各种算法所影响和操控。作为一种新质生产力、新的权力类型和新的认知工具,人工智能正逐步渗入个人感知、商业交易甚至政府决策之中,由此导致的算法无处不在已然成为当下智能社会建构的重要技术特征。然而,在现实生活中,算法从来就不是客观中立的,至少不是像人们所想象的那样“公正无私”,算法在赋权和便利一部分人的同时,算法滥用、算法误用和算法垄断也在排斥和边缘化另外一部分人,并使之日趋沦落为“算法难民”[1]或“人工智能的奴役对象”。由此可见,算法在改善治理、提升效率和创新服务的同时,也带来了算法歧视、技术霸凌和社会信任侵蚀等问题。
智能系统及其服务的信任危机:从不信任到过度信任
毫无疑问,智能技术的进步及其应用正在给人类社会带来前所未有的改变。由数据和算法所驱动的人工智能究竟是促进了社会信任还是使得社会信任变得更为脆弱?2023年12月22日,美国华盛顿邮报与乔治·梅森大学政府与政策学院联合发布了一项关于民众对社交媒体信任度的调查报告,结果显示:近四分之三的美国人不信任Facebook、WhatsApp、Instagram、YouTube等平台;约70%的美国人表示,他们怀疑自己的智能手机等数字设备会在未经允许的情况下监听他们的谈话,因为在他们与朋友谈论某件事之后,再次登录Facebook等平台时就会收到相关主题的商品或服务推荐。虽然科技巨头们都对此予以否认,但许多美国人还是感到不安。与此同时,约82%的受调民众对人工智能算法下的定向广告推送持负面看法。[2]信任是网络秩序的基石,是数字交互的基础和前提。然而,频繁的网络攻击、数据泄露、数据滥用和隐私侵害等安全风险会严重削弱社会主体的安全感,进而破坏人机之间乃至人与人之间的社会信任关系。
首先,社会对人工智能系统及其所承载服务的不信任在很大程度上源自不完整数据和错误数据的使用。仅就算法模型产生过程而言,人工智能算法是由人类生成的数据集所塑造的,算法在训练过程中不可避免地会继承数据固有的偏见和成见。如果输入的数据受到数据源不准确、样本偏差或社会偏见的影响,那么人工智能的输出结果很可能会反映这些缺陷,并加剧和放大诸如种族、肤色、性别、宗教、学历和地域歧视等社会争议话题。就此而言,算法本身就是社会偏见和数据缺陷的产物,任何一种算法都不是完美的,因其自带的偏见所产生的算法歧视在实践中更是难以消除。在此情形下,信任人工智能系统及其所提供的服务意味着人们相信数据的真实性和可靠性,而如果数据本身是残缺或错误的,那么由算法逻辑所驱动的人工智能应用就会给用户带来焦虑、怀疑和不安,进而破坏人机之间的信任和交互。
其次,人工智能算法黑箱的不透明性使得社会信任问题正变得越来越复杂。如果算法流程和算法工作原理是不透明的,那么人机之间的交互就会变得异常脆弱而不可信。因为用户如果不知道数据是如何被收集、使用和处理的,那么他们就无从确定涉及自身利益和隐私的数据会不会被误用、滥用或被泄露给第三方,基于人工智能算法的服务也就变得不安全。这种因黑箱问题而导致的透明度匮乏很容易引起怀疑和不信任,特别是当人工智能驱动的决策会对现实世界产生重大影响时,人们会愈加担心算法工具失去控制并造成难以挽回的损失,由此,要求监管人工智能的呼声日益高涨,监管机构和游说团体也如雨后春笋般出现。但如果外部监督者本身不值得信任,则外部审查也无法促进信任。此时,在不信任的情况下披露信息可能会引发社会群体对人工智能系统及其服务更大的误解。换言之,当算法黑箱不透明或难以透明时,即便是监管,也难以落到实处。此时,不可靠或无法评估人工智能算法的可靠性便成为人机之间不信任的来源。
再次,算法泛滥和人工智能应用的过度部署正在威胁个人隐私安全。在数字时代,国家通常会为信息的传播建立一系列法律和技术屏障,算法则是其中的关键技术环节。借助于算法,政府可以在网络平台中限制危害社会公共安全的不良信息传播,从而在减少网络犯罪现象的同时,又能对公民进行有效监视与管理。然而,随处可见的智能探头、移动端APP和各种传感设备在提升公共安全时,算法也正在打着风险管控的旗号广泛参与人们的生活,以至于人们在享受智能化便利的同时也在承担着隐私泄露的风险。批评者和支持者都认为,算法监视可能会限制沟通与表达自由,人工智能的过量部署可能会给人类生活带来意想不到的严重后果,譬如隐私泄露会导致电子欺诈、网络勒索、关系破坏和社会混乱,特别是在社会矛盾积聚、人们对政府和组织机构信任度下降的背景下,这些担忧就会更加尖锐和突出。
最后,数据垄断和算法垄断会进一步强化社会利益分配的不均并助长平台的数字话语霸权。一般情况下,高质量的数据很难获得或获取成本较高,数据资源的垄断会使一些算法模型只服务于政府和某些公司的利益,在此情形下,算法拥有者和使用者会出于利益最大化对算法模型进行技术控制,进而出现参数调整型偏差修正,这些修改动因诸如公司裁员、形象维护和过失遮蔽等,以至于一些人的利益在特定算法规则下被漠视和牺牲,而另外一些人的利益则被算法控制性强化和放大,典型操作如流量明星的影响力排名、产品的竞争力排行榜以及基于算法的荐房、荐股等投资推荐行为等。至此,算法本身已不能简单地被视之为“价值中立”的技术发明,它是利益垄断的产物,在应用推广中又不断强化本就不公平的利益分配格局,并通过强势的话语霸权进一步侵犯了弱势群体的利益。随着公司和政府越来越多地依赖人工智能开展服务和业务,不信任会随着利益分配的不均匀性显著增加。以此观之,算法是智能服务的承载,更是利益分配的工具,社交媒体平台上因算法应用而损害和违背用户利益的例子比比皆是。此时,公司利益与用户利益存在系统性分歧,不信任及其引起的警惕本身就是为了防止被剥削或免遭不公平对待。
此外,人工智能算法应用有时还会引发一种被称之为“盖尔曼失忆症”的过度信任现象,这指的是用户即使看到人工智能算法模块在某些熟悉的话题上犯了令人尴尬的错误,却依然倾向于信任人工智能系统在其他问题上的服务。其逻辑类同于防盗摄像头可以拍到每一个敲门人,但并非每个敲门人都是小偷,只要漏报和误报在精确度范围内就可接受。这也就是说,人工智能只要成功抓住一次小偷就可以弥补多次失败所造成的信任缺失。另外,在很多人类本身无法触及或难以完成任务的领域,人们往往更信任人工智能所产生的解题结果,如购物推荐等。如果系统提供了推荐性操作,人们更愿意尝试相信系统推荐的方案而不是长期保持怀疑。
计算政治的崛起:被算法化的人际互动与在线虚假宣传
在信任问题上,伴随着大数据和人工智能技术的应用,现代政治运行愈发朝向一种前所未有的“算法”政治生态演进。人工智能不仅仅是一场新的技术革命,更是一场社会生活革命和信任革命,它所带来的不仅仅是技术的创新和社会生活的便利,同时还有各种智能化风险和政治力量的重新分化组合,算法的嵌入式应用不仅正在改变人与机器之间的信任关系,同时更在重塑人与人之间的社会信任关系。在数字空间中,人们已不再盲目相信所谓的“权威信息来源”和“机构发布”,任何一条信息在网络发酵之后都会被反复地交叉验证、否证和辟谣,即便当事人亲自出面澄清,人们也不再相信所谓的“还原事实真相”。就此而言,算法即重构、程序即政治,信任被破坏和侵蚀不仅存在于人机互动之间,人与人之间的传统信任关系也因在线匿名和算法驱动而陷入衰退。依托于现代社交网络和数字基础设施,政治机器人已经成为在线政治沟通的重要工具,在政治咨询领域有些政治机器人将代替人工职员发挥无人值守、无人巡航甚至自动应答的作用,但在另外一些方面,一些政客也可以利用机器人所生成的虚假账号和虚假信息转移斗争视线、抹黑对手形象、逃避政治责任或争取民心支持,使自己尽快摆脱政治困境。
放眼未来,随着时间的推移和技术的进步,由智能算法所驱动的计算政治操作将变得越来越复杂,其对社会信任的影响也将越来越难以控制。概括而言,这些变化中的挑战包括如下几个方面。
第一,政治机器人的应用正在将政治运行带入虚实之间。政治机器人通常使用虚假账户或盗窃他人身份发布信息,为了看起来像是一个人类行为体,它会虚构自己的个人资料照片、曾经发布的帖子,同时生成大量的粉丝关注者,以此伪装成人类行为体来分发政治声明、传播虚假信息或伪造政治议题,通过自动点赞或自动转发来扩大社会影响,甚至以发帖子或回复评论等形式来虚构政治互动。此外,通过调用编程接口(API),社交机器人还可以假装人类操作员访问社交网络,并接收和发送信息,甚至就某些选中的话题以预先设定的自然语言进行政治交流,进而给人一种置身人机互动情景中的错觉。
第二,大模型和深度伪造正在急剧模糊真假信息的边界。在过去的几年里,由于生成式人工智能技术的进步特别是ChatGPT和深度伪造技术的盛行,假新闻现象出现得越来越频繁。为了辟谣和降低假新闻的负面影响,事实核查人员需要夜以继日地分析政治人物的在线演讲、新闻报道、出版物和政府统计数据等。但鉴于虚假信息的庞大数量,以及虚假信息在各种社交平台像病毒一样的繁殖和变异能力,只有极少数有争议的文章能够在时间、人力、物力和技术的承受范围内得到彻底的事实核查。据报道,在美国人工智能研究领域,识别假新闻的研究所受到的关注和支持要远比创建假新闻的研究少得多。[3]有学者为此慨叹道:“与检测假新闻相比,深度伪造方面的研究人数是100比1。我们检测的能力被造假的能力远远超过。”[4]正因如此,在社交媒体上创建和传播假新闻越来越成为一个难以遏制的现象,在某些国家和地区假新闻肆虐猖獗甚至已经开始影响当地的政治选举进程和国际关系状态。
第三,在线有组织地协同网络攻击和舆论压制越来越频繁。[5]这突出的表现为世界各地的政府和政治组织正在花费大量资源来组建“网络宣传队”和“数字水军”,意图在数字空间中有目的地运用计算宣传技术开展虚假宣传和政治抹黑活动,这些参与者依靠自动化、算法和大数据分析来影响或欺骗数字用户。与黑客团体或其他非国家行为体不同,尽管都使用计算宣传技术进行网络动员和政治沟通,“网络数字水军”通常由国家财政资金支持、设有严密的组织机构并配合专业的技能培训,以便能够步调一致地展开在线宣传并制造虚假共识。这些有组织的计算宣传活动形式多样、目标不一,有的目的在于歪曲事件真相,有的意图转移视线,还有的试图制造热点、吸引公众注意力。事实上,国家行为体和非国家行为体都正在试图利用算法驱动在数字时代行使权力,甚至有不少国家将计算宣传特别是网络数字水军列为“网络战武器库”中重要的战略手段。
第四,由计算宣传所导致的政治不信任扩散效应越来越明显。通过社交媒体平台操纵舆论、表达政治诉求并寻求实现政治意愿,已经成为当代数字社会的一个普遍现象。鉴于计算宣传在政治领域中所展示出来的在线“吸粉”与网络动员效应,越来越多的计算宣传技术正在从政治领域扩散到其他领域。譬如,在医疗保健和公共卫生治理领域,社交机器人一度被用于放大围绕疫苗的种种在线辩论的传播效果,以求唤起公众对某些观点和政策的响应支持;在自然灾害和恐怖袭击事件中,各种虚假信息频出,深度伪造正成为各类谣言滋生的“技术温床”;在科学研究和娱乐领域,内容推荐正被用来创建大量相关主题链接,社交机器人产生的各种虚假评论正在营造虚假的文章引用和电影好评。
综上所述,伴随着社会生活“网络化”和“智能化”趋势的加速发展,一方面,由算法驱动的计算宣传正在成为数字政治沟通的常态操作;另一方面,算法又存在着被别有用心的个人、机构和国家滥用的风险,算法恐惧的阴霾可能无处不在。放眼未来,无论是在国际政治还是在国内政治中,公众对于计算宣传威胁个人决策自由和机器人账户主导政治对话的担心都在与日俱增,由计算宣传所导致的社会信任风险治理和防范迫在眉睫。
朝向可信人工智能:在不信任的世界里重建信任关系
显而易见,人工智能已成为我们生活的一部分,它是一项正在进行的伟大技术突破,其深远影响尚未真正显现。但由于其算法黑箱的非解释性和不透明性,人机关系连带人际关系都在遭受信任侵蚀。大量的算法实践表明,未经审查、不受限制和未经许可的算法应用不仅会侵犯个人隐私、泄露商业机密和危害国家安全,而且不公平、不透明和不受约束的算法应用还极易引发并放大种族主义、性别歧视、地域歧视和其他社会偏见,进而使其演化为政治怀疑并激发社会冲突。譬如,2024年2月,美国新罕布什尔州民主党选民的自动电话通话中就出现了模仿美国总统拜登声音的深度伪造音频,敦促选民不要在该州共和党初选中投票。此类人工智能工具的应用引发了人们对在线信息来源的不信任。为此,美国政府正在起草新的法律,以禁止生产和传播冒充个人的深度伪造内容。[6]除此以外,欧盟就《人工智能法案》已达成一致,预计2026年生效;东盟则希望尽快完善《人工智能道德和治理指南》。
总体而言,人工智能应该尊重隐私和数据保护法规,以安全可靠、透明和负责任的方式运行,并尽力减少偏见和歧视,如此,智能化方能更好地促进创新并带动社会经济增长。一言以蔽之,在智能化的社会中,我们需要透明、可信赖的人工智能。为此,2019年4月8日,人工智能高级别专家组提出了《可信人工智能道德准则》,认为人工智能系统应满足以下至少七项关键要求,才能被认为是值得信赖的。这些要求大体可归结为:其一,人工智能应该赋能人类决策,在使人们能够作出明智的决定、维护人类基本权利的同时,还需要确保在过程中始终存在适当的人类监督;其二,人工智能需要具备技术稳健性和安全性,在出现安全问题时要有后备计划并确保最大限度地减少和预防意外伤害;其三,在尊重隐私保护的同时,还必须建立健全数据治理机制,既要考虑数据的完整性和质量,也要确保数据的合法访问;其四,人工智能系统及商业模式应该透明可解释,要确保用户充分了解系统的功能和局限,且因人工智能使用所产生的后果责任应该可追溯;其五,人工智能算法应具有非歧视性和公平性,其使用要向所有人开放并全力避免弱势群体的边缘化,其监督和管理应遵循利益相关者参与的多样性原则;其六,人工智能系统应该是可持续的和环境友好的,要造福全人类包括子孙后代,同时也要关照环境和其他生物需求;其七,人工智能系统应该具有可审计性,以评估算法、数据和设计流程中的责任并以此设立问责机制和补救措施。[7]
综上所述,每一项伟大的技术变革背后都隐藏着难以预见的风险。首先,我们要构建可解释的人工智能。目前,即使是数据科学家也难以解释人工智能模型的全部工作原理,以至于在人机关系中,算法服务要么被接受、要么被强制接受。如果不能解释这些模型或这些模型不具有“可解释性”,则人机关系就会处于紧张的不被信任状态。正是考虑到这一点,欧盟《通用数据保护条例》(GDPR)明确要求数据处理须透明且流程要清晰。模型解释对于增进机器及其服务的可接受性至关重要。在最近的一项美国专利申请中,英特尔提出了一种神经网络可理解技术,该技术可识别在机器学习训练阶段观察到的结果与在操作过程中获得的结果之间的差异,但从算法可理解到算法可解释仍有很长的路要走。为此,无论是学界和业界都要加强算法从“全黑箱”到“白箱”的努力,以使算法在可解释的前提下作出可信决策。当然,这种解释权目前仅仅归于开发者和运营者是远远不够的,用户有权要求获得相关算法决策的基本原理并了解其中的安全风险。
其次,要增强人工智能的透明度。用户需要了解AI系统是如何作出决策的,以及背后的依据是什么,通过揭示人工智能算法的内部运作原理并揭示影响其决策的因素,人们不仅可以塑造一个符合自身价值观、愿望和尊严的人工智能赋能系统,而且还可以识别人工智能算法中隐藏的偏见。因此,研究人员需致力于开发可解释性模型,以使决策过程能够被理解和验证。有关这一点,学界和产业界是有共识的。譬如,2022年,由59位世界级学者共同撰写的《迈向可信赖的人工智能:可验证声明的支持机制》报告,详细阐述了可信赖人工智能应该涵盖的透明机制。整个报告由OpenAI牵头,涉及机构多达30多家,谷歌大脑、图灵研究所和很多欧美大学都有参与。由此,人工智能的数据收集和训练应遵循合规性和透明度原则,并通过加密、去标识化等手段确保数据的安全性。只有加强透明度、遵循道德准则、确保数据隐私和防止恶意攻击,人工智能才能最大程度释放潜力为社会创造更多价值。
再次,建立算法模型伦理指南与监管问责机制。考虑到人工智能技术惊人的进步与迭代速度,监管协调与监管协作已成为人工智能治理领域的一个热点话题。2024年3月13日,欧洲议会高票通过《人工智能法》,旨在针对快速发展的人工智能领域制定全面的监管措施。2024年3月21日,联合国大会通过了一项决议,呼吁抓住“安全、可靠和值得信赖的”人工智能系统带来的机遇,让人工智能给人类带来“惠益”,并以此促进可持续发展。而在此前,2017年7月,我国就发布了《新一代人工智能发展规划》,规划呼吁要确保人工智能安全、可靠、可控发展;2019年2月,科技部在北京召开新一代人工智能发展规划暨重大科技项目启动会,成立了新一代人工智能治理专业委员会;同年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则》;2021年9月,《新一代人工智能伦理规范》正式发布,细化落实《新一代人工智能治理原则》,将伦理道德融入人工智能全生命周期;2023年4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,拟对生成式人工智能在我国的开发及应用进行规范。
可以看出,正是考虑到人工智能的不可解释性和不透明性所带来的种种社会信任挑战,以算法为驱动的人工智能服务才需要在设计之初就充分考虑信任、透明度和容错性等问题,并基于前叙规则和规范受到监管,如此方能向善、造福人类社会。当然,目前由于数字鸿沟的存在,各国对人工智能风险的理解也不尽相同,各国需要在技术上兼容、在认知上交流、在监管上协调、在开发应用上协作。
结论
在一个由技术创新和全球互联互通驱动的世界中,一方面,人们正在寻求值得信赖的人工智能;另一方面,社会对政府、机构、媒体和人际关系的信任正在遭受威胁。在这场信任危机中,人工智能正处于信任对话的中心。当人们越来越多地求助人工智能系统来帮助决策、提供建议并分析信息时,人工智能在很多时候不仅没有消解人类固有的偏见和错误,反而因其算法黑箱的不可解释性和不透明性固化并放大了社会歧视。未来,对智能社会的信任关系维护,必须在全球层面建立相关机构以监测和报告人工智能系统的脆弱性,并对人工智能系统应用所带来的社会稳定破坏给出及时且有效的应对。为此,我们可以考虑在算法开发者、应用者、销售者、传播者以及管理者之间建立起沟通桥梁,并以国际规范为基础设立问责和管控机制,定期评估人工智能的风险和影响,以便重建人机互信关系和人际互信关系,形成一个公平、公正、智能化、可信赖的社会生态体系。
注释
[1]B. Combes, “Digital Natives or Digital Refugees? Why We Have Failed Gen Y?“ 2021, https://www.researchgate.net/publication/238050945_Digital_Natives_or_Digital_Refugees_Why_we_have_failed_Gen_Y.
[2]H. Kelly and E. Guskin, “Americans Widely Distrust Facebook, TikTok and Instagram with Their Data, Poll Finds,“ 2021, https://www.washingtonpost.com/technology/2021/12/22/tech-trust-survey/.
[3]J. Vincent, “Deepfake Detection Algorithms Will Never Be Enough,“ 2019, https://www.theverge.com/2019/6/27/18715235/deepfake-detection-ai-algorithms-accuracy-will-they-ever-work.
[4]A. Engler, “Fighting Deepfakes When Detection Fails,“ 2019, https://www.brookings.edu/research/fighting-deepfakes-when-detection-fails/.
[5]S. Bradshaw and P. N. Howard, “The Global Disinformation Order 2019 Global Inventory of Organised Social Media Manipulation,“ 2019, https://demtech.oii.ox.ac.uk/wp-content/uploads/sites/12/2019/09/CyberTroop-Report19.pdf.
[6]S. Torkington, “The US is Drafting New Laws to Protect Against AI-Generated Deepfakes,“ 2024, https://www.weforum.org/agenda/2024/02/ai-deepfakes-legislation-trust/.
[7]The High-Level Expert Group, “Ethics Guidelines for Trustworthy AI,“ 2019, https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.
Algorithmic Black Box and Trust Reconstruction in the Era of Artificial Intelligence
Dong Qingling
Abstract: Trust is the cornerstone of both human-machine interaction and interpersonal interaction. However, due to the opacity and non-interpretability of the algorithmic black box, AI systems and their services, while empowering and facilitating some individuals, are also eroding, excluding, and marginalizing the interests of others through algorithmic abuse, misuse, and monopolization. In this sense, algorithms are reconstructions, and programs are politics. In intelligent environments, trust is undermined and eroded not only in human-machine interactions but also in traditional interpersonal relationships, which are declining due to online anonymity and algorithm-driven. Considering the various social trust challenges brought by AI, AI governance centered on algorithmic regulation should firstly focus on constructing a trustworthy AI ecosystem with a people-oriented approach and rebuild human-machine and interpersonal trust based on technological nature and ethical and legal frameworks.
Keywords: algorithmic black box, human-machine trust, interpersonal trust, computational politics