本次人民智库与旷视AI治理研究院成立联合课题组,共同开展了“2020年度全球十大人工智能治理事件”评选活动。这次的评选从四大维度:AI与人类福祉、AI与公平正义、AI政府(企业)治理、AI系统安全性与数据隐私安全对候选事件进行了筛选,旨在以更全面、更中立的视角为各界提供一份AI治理问题优先级的排序,这是一次非常有意义的尝试。
旷视作为一家人工智能企业,在这次评选中更多的是站在企业的角度从相关度和落地实践来思考问题。具体来说,主要考虑了三个原则:一是看事件是否具有普遍性。这个普遍性不但指行业普遍性,还有地域与文化的普遍性。虽然伦理与文化高度相关,但是背后折射出来的底层逻辑在海内外都是相通的,此类具有共通性的重要问题应该被特别关注。二是看影响力。有些治理事件是单点事件,而且适用范围窄,对于企业来说,其影响是有限的;但是有些治理事件具有广泛性、系统性和动态性的特点,对企业来说更具借鉴意义。三是看紧迫性。随着AI治理研究的不断深化,大家已经达成一个共识,即对于人工智能这样的产业,我们不能延续过去“先发展,后治理”的传统技术治理道路,而是要开创“边发展,边治理”的方法。但在此过程中,如何平衡好发展与治理之间的关系,考量的标准之一就是紧迫性,当有些伦理担忧已经上升到伦理风险的高度,各界应该尽快行动。对于企业来说,对短期风险的提前合规准备和对长期风险的战略调整应该并行。我们在这次梳理重大事件的过程中也对紧迫性高的事件给予了更多关注。
人工智能技术作为推动社会可持续发展的使能技术,在使社会效率提升、促进企业发展、释放人类更多潜能的同时,也因为它的广泛性和不可解释性,引发了争议和思考。本次评选出的十大事件中,有些案例就体现了新的技术突破可能会引起的AI伦理风险。因此,我们需要在人工智能技术还处于早期探索的时侯,就通过企业内部的监督和审核机制,对技术的发展方向加以研究和控制,让其朝着对社会有益的、正确的方向发展。
在技术发展过程中,我们通常会遇到三个挑战:一是大众对于人工智能的技术和产品效用存在严重的信息不对称,如果此时又缺少充分的沟通,很容易产生负面认知,从而对人工智能产业的发展造成不利影响。二是人工智能的伦理问题在企业语境下要成为可执行的企业治理行动,这个过程属于典型的交叉学科应用,其中涉及技术,哲学,经济,法律,社会学等多门学科的综合知识。在一个多元语境下,如何以多方参与的形式、运用综合手段来推动企业的发展,对于企业来说是个巨大考验。三是我们发现许多新产生的问题目前还没有得到人们的普遍重视,更缺少专门的深度研究。这造成了在AI治理的领域,问题远远多于答案。这也是旷视成立AI治理研究院的初衷,希望通过十大事件反映出来的痛点、难点,与研究机构和专家联手聚焦,用深度调研和实证研究的方式,寻找各方认可的共识。
综上所述,在企业内部落实AI治理需要一手拿着“望远镜”,一手拿着“显微镜”。“望远镜”帮助企业看到技术演进的过去与未来,在思考问题时能够捕捉中外文化与思维方式的差异,在解决问题时能够广泛运用各个学科的综合知识,因此“广”和“远”很重要。而“显微镜”是指,虽然所有的问题及其影响都在演进,但演进的速度是不一样的,有些话题更具紧迫性。这就需要我们用“显微镜”将这些紧迫的问题加以放大,仔细研究,厘清问题中盘根错节的关系,尽快形成高效的应对机制或共识,为人工智能技术的发展和社会矛盾的解决积累宝贵的经验财富。人工智能治理中,企业只有一手拿好“望远镜”,一手拿好“显微镜”,才能把握正确的发展方向,真正实现用人工智能技术造福大众。
【本文作者为旷视首席发展官、旷视 AI 治理研究院院长;根据作者在2021年1月14日“2020全球十大人工智能治理事件专家内部研讨会”上的发言整理】
责编:李 懿 / 贺胜兰
声明:本文为《国家治理》周刊原创内容,任何单位或个人转载请回复国家治理周刊微信号获得授权,转载时务必标明来源及作者,否则追究法律责任。