网站首页 | 网站地图

大国新村
首页 > 人民智库 > 专题调研 > 正文

2020年度全球十大人工智能治理事件(7)

6. 美国科技巨头依据自身道德判断,加强企业自律及对人工智能技术的监管

得票率:49.55%

案例描述:

据外媒消息,IBM将不再提供、开发或研究面部识别技术,并表示“IBM坚决反对并且不会容忍将任何面部识别技术用于大规模监视、侵犯基本人权和自由或与我们的宗旨不符的任何行为。”此外,亚马逊、微软也均表态要支持种族平等,叫停人脸识别:亚马逊声明暂停向警方提供人脸识别技术一年时间;微软也表态停止向警方销售人脸识别软件,直到有相关国家法律出台。

欧盟有关方面和微软、IBM等科技巨头共同签署了《人工智能伦理罗马宣言》,讨论如何规范人工智能的社会影响,这是欧盟推动全球数字经济监管新标准的最新举措。与美国不同,在数字经济和人工智能领域,欧盟采取的是先规范后发展的路径。《人工智能伦理罗马宣言》指出,人工智能技术应尊重个人隐私,以可靠而无偏见的方式工作,考虑所有人的需求,并以透明方式运作。这些表述显示欧盟担忧人工智能的负面影响,认为人工智能系统尚处于研究阶段,其做出的决定往往难以预测。

Google启动了800多名员工的初始“技术道德”培训,并还针对AI原则问题发现了新的培训。Google最近发布了此培训的一个版本,作为面向客户的Cloud团队的必修课程,已有5,000名Cloud员工参加了该培训。这些员工提出了一些关键问题来发现潜在的道德问题,例如AI应用程序是否会导致经济或教育上的排斥或造成身体、心理、社会或环境伤害。(来源:综合人民网等

专家点评:

卢瑞昌 北京大学光华管理学院金融学助理教授

我们需要思考AI与企业治理的关系,AI伦理如何嵌入到商业运行之中。谁来做企业开发AI算法时的最后判断者?我们应该从哪个环节切入,思考人工智能所导致的结果。从防卫意义上讲,谷歌提供“技术道德培训”是很重要的,谷歌的培训能否应对AI道德伦理的挑战,力度够不够、能否完成,这都是一个争论点。IBM等公司不再提供、开发或研究面部识别技术也值得关注。算法在某种意义上会提升商业利益,但也要注意它所带来的歧视问题。我们需要去思考,如何判断当人工智能以明确的目标制定出来,为最大化实现某个目标时所导致的歧视问题。

季卫东 上海交通大学文科资深教授、中国法与社会研究院院长

谷歌提供“技术道德培训”的案例涉及到软法问题。软法主要指道德,我们可以看到美国的企业已经从道德入手,制定企业内部规则或是技术操作规则。这个案例的研究意义不在于这种现象,而在于其反映的软法的管理。

孙明俊 中关村智用人工智能研究院执行院长、中视科技CEO

2016年6月,欧盟生效了个人数据保护规范《一般数据保护规则》,该《规则》具体规定了个人数据处理的操作规范以及欧盟公民的个人数据流出欧盟的基本条件。其中第22条专门规定了基于个人数据自动化决策和分析(Profiling)的条件。根据该《规则》,任何第三国,作为欧盟公民数据流出的目的地,的个人数据保护标准应等于或者高于欧盟标准。这也是美国科技巨头不断提高人工智能隐私保护标准的原因之一。

一方面,对于跨国数字企业,自我规范在企业合规中极为重要。欧盟在《一般数据保护规则》中规定了数据控制方,也即处理数据的责任方需要证明其业务遵守了《规则》中的相关义务。而且欧盟在《一般数据保护规则》中要求在欧盟成员国有业务的企业都应建立组织架构,包括独立的数据保护官员以及相关机制,确保自我规范的有效性。考虑到欧盟市场是美国科技巨头利润的重要来源,美国科技巨头确保自身业务在《一般数据规则》下的合规极为重要。

另一方面,企业社会责任报告是实现可持续发展目标(Sustainable Development Goals)的重要机制,这种企业自愿报告工具正在逐渐普及。企业社会责任报告是由全球报告计划(Global Report Initiative)等非盈利组织推动的一种技术工具,报告公司业务对社会、经济、人权的影响。积极的自我规范在可持续发展目标投资框架下也能够为企业争取到更多的公共投资。

上一页 1... 56789...11下一页
[责任编辑:王博]
标签: AI治理   人工智能