摘 要:算法的设计或许可以在数学逻辑上做到完美,但缺乏对人性和社会环境的综合考虑,从“真空”环境中诞生的算法本身带有机械性。一味追求效率、不断压缩配送时间的外卖配送算法,即体现了算法程序的不尽合理之处。面对算法缺陷及其产生的问题,应将算法嵌入到整个社会体系中评估,分析算法运行所牵涉的各个环节,以体系化的思维为算法向善提供解决方案。
关键词:人工智能 大数据 算法治理
【中图分类号】D630 【文献标识码】A
法缺陷及其产生的问题
以外卖配送系统为例,外卖平台利用大数据分析计算最优配送路径,极大缩短了骑手的配送时间,提高了配送效率。但也存在诸多问题,有些是算法本身缺陷所导致的,有些则因其他社会问题与算法相伴而产生。
算法程序中可能存在不尽合理之处。算法中的程序几乎是算法控制者单方设定的,即使程序中可能有不尽合理之处,算法相对方也只能被动接受。例如,外卖配送系统中设定了骑手等级,骑手需要通过每日登录APP、分享邀请有礼活动链接、上传健康证、完成各种订单配送等方式获取晋升等级所需要的积分。其中也有减分项目,比如配送超时减3分,获得一星差评或不满意评价减5分等,甚至一个差评或延时会直接扣除骑手工资。在这种规则之下,配送时间成为非常重要的考核指标,骑手面临很大压力。尽管这些规则在人性化、合理性上还值得商榷,但骑手只能被动适应,接受算法规则的约束,甚至对算法产生依赖。
算法容易使个体失去自主性。自泰勒提出标准化管理模式之后,工作逐渐被标准化和简单化,工人操作的自由度降低了,简单重复的动作让人越来越像机器。正如媒体曾经报道的富士康工厂的情况一样,在高度标准化的生产中,工人的工作效率以秒来计算,工人往往处于高度疲态和枯燥之中。算法的运行与此相似,算法具有隐蔽性和高度专业性的特征,每个参与算法的个体就是一个数据节点,在算法高速运转中,个体只能被动接受信息并执行算法命令。骑手属于劳动密集型职业,工作中需要耗费大量精力,若只受算法支配而丧失自主性,他们作为劳动者的休息权则无法得到保障。同时,骑手与社会其他群体具有紧密联系,一旦发生事故不仅会伤害自己,还会伤及他人。从这一点来看,保障骑手休息的权利也在一定程度上意味着保护社会公共利益。
仅靠算法的自我迭代难以有效解决问题。算法的设计或许可以在数学逻辑上做到完美,但缺乏对人性和社会环境的综合考虑,从“真空”环境中诞生的算法本身带有机械性。在外卖配送算法中,为了追求效率,可以对所有阻碍因素进行优化,把配送时间不断压缩。但如果因为计算最优路径而忽视了实际道路状况、实时天气状况和小区管理情况等影响因素,计算结果往往就会不准确,算法不断迭代的过程也就可能演变成了加大骑手困难的过程。实际上,其他社会因素会深刻影响算法的运转情况。现实中经常可以看到,由于城市交通违章查处、电动车限速标准执行不够严格,大量违章、超速外卖骑手电动车上路等现象。除了交通规则外,一些小区的管理也需要调整,如一些商务楼、医院、小区等不允许骑手进入,骑手只能在外等待或者步行送餐,最后导致送餐延迟。如果忽视这些问题,单靠算法本身的迭代是无法有效解决问题的。
算法治理的路径
为应对上述算法的缺陷,可以从内部的算法自我优化与外部的监督规范中找到解决路径。
设计算法应该走出“真空”接受社会实验。算法背后是代码,代码是“冰冷”的,没有人文温度,忽视人性的算法无法为人类带来福祉。在现行外卖配送算法中,如果骑手因偶然因素实现了快速送餐,算法就会提供奖励,让骑手接到更多订单。这样一来,骑手出于利益最大化的动机,肯定会追求速度越快越好,订单越多越好,由此陷入恶性循环。为了避免速度成为唯一的考量因素,算法评价机制中也应该引入其他考量因素,比如为从来没有发生交通事故的骑手提供奖励,引导骑手更加注意安全。
制定算法规则需要多方参与尽量避免不合理之处。基于机器学习的算法具有“黑箱”特征,算法相对方无法就算法规则提出建议或意见,只能被迫“追赶”算法设定的目标。多方参与规则制定是正当程序的必然要求,比如一些电商平台推出“规则众议院”,平台上的买卖双方都可以通过众议院机制就规则制定发表意见。也有学者提出算法解释权,即赋予主体知晓及理解算法运行逻辑的权利。该观点认为,受到自动化决策不利影响的人应有权知晓决定的内容与理由,并拥有申诉和申辩的机会。算法解释权是赋予个体对抗“算法权力”的重要武器,因为个体知悉算法规则后才能就其不合理之处提出建议,并参与到规则的制定之中。
应对算法的负外部性需要多种公共政策相互补充。算法实际是嵌入在社会的多样应用场景中的,各个场景所牵涉的主体、外部因素和行为规范都不相同。因此,不能将算法视为单纯的技术问题进行治理,而要匹配不同政策工具进行综合治理。对于“困在系统”中的骑手,国家应该重视对这部分人群劳动权益的保障,特别是休息、薪酬、安全等合法权益。外卖平台应该参照其他平台的举措,设置强制骑手休息的规则,保障骑手安全,进而维护社会安全。为了应对骑手闯红灯、超速等问题,交通管理部门也应该严格制定和执行交管规则,对骑手进行外部约束。社区管理部门也应参与其中,对外卖、快递进社区等管理规范进行完善细化,如允许骑手安全送餐,或者配置取餐柜等,缓解骑手“最后一公里”送餐难的问题。
为算法建立法律监管与道德约束机制。2017年1月,美国计算机协会专门发布了算法治理伦理原则,涵盖利益相关者责任、救济机制、算法使用机构责任、鼓励可解释算法研发、数据治理、算法审查要求、实时检查责任等七个方面的内容。2019年4月,美国参议员提出《2019年算法问责法案》,要求美国联邦贸易委员会对企业进行算法审查。欧盟也在《人工智能时代:确立以人为本的欧盟人工智能战略》《通用数据保护条例》和《人工智能道德准则》等多个文件中,强调以价值观引导人工智能技术的发展。需要从外部规范的角度为算法制定伦理标准,并建立相应的伦理审查制度。特别是在算法设计和研发的标准、规则和透明度等方面出台法律规范,并建立算法问责机制,保障个体权利,包括算法解释的权利、更正或修改数据的权利、退出算法决策的选择权等。
算法治理的理念
治理算法需要以基本原则和理念为指导,并根据情况的变化适时调整算法治理的具体方法。
算法治理应坚持利益平衡原则。利益平衡既包括算法内部所涉主体之间的利益平衡,也包括算法使用者与社会公众之间的利益平衡。通常外卖平台将消费者置于首位,而商家次之。在这种机制下,平台为了消费者的满意只能“压迫”骑手。算法使用者应该平衡好这三方的利益,对算法的治理也应该平衡好企业与社会公众之间的利益,在尊重企业逐利天性的基础上为算法立规矩,保证算法在正确的轨道上运行,只有这样才不会因噎废食。
算法治理应坚持人本主义。在算法时代,尊重个体主体性、自治性和人格尊严始终是发展底线,算法治理也应该注重保护人类尊严、公民权利以及社会公平。特别是要加大对弱势群体的关注,避免“数字鸿沟”,实现实质公平。可以通过强化企业社会责任的方式在算法治理中体现人文主义,比如从社会福利的角度评估企业在关怀弱势群体、保护用户隐私、尊重个体人格以及劳动者休息权利等方面作出的努力。
总之,算法治理是一项长期工程,算法在不断演进,对算法的治理也应该不断迭代,其中算法问责机制、算法评估机制、算法监督机制都是需要继续讨论的重要话题。对算法的治理不应局限于算法本身,而是需要将算法嵌入到整个社会体系中评估,分析算法运行所牵涉的各个环节,以体系化的思维为算法向善提供解决方案。
【本文作者为清华大学公共管理学院教授、清华大学人工智能国际治理研究院副院长;清华大学公共管理学院博士后曾雄对本文亦有贡献】
责编:罗 婷 / 司文君
声明:本文为《国家治理》周刊原创内容,任何单位或个人转载请回复国家治理周刊微信号获得授权,转载时务必标明来源及作者,否则追究法律责任。