网站首页 | 网站地图

人民论坛网·国家治理网> 前沿理论> 正文

前沿科技领域治理应警惕科技伦理法律陷阱

摘 要:科技伦理法律在条件不具备时并不能有效防控科技风险,目前的科技伦理热潮似乎认为只要加强科技伦理法律的建设与实施,科技风险与伦理问题就可以迎刃而解,这种只注重科技伦理法律而忽视科技转型等其他重要措施的认识误区即为“科技伦理法律陷阱”。要用底线思维和系统思维构建“底线—整体伦理学”,从而应对前沿科技治理的巨大挑战。

关键词:科技伦理法律陷阱 科技重大风险 科技治理 底线—整体伦理学

中图分类号G3 文献标识码A

近年来,新兴科技发展迅速,呈现出科技大爆发态势,科技风险与伦理问题日益凸显,国内国际对此高度重视,形成一股科技伦理热潮。但只要加强科技伦理法律建设与实施,科技风险和伦理问题就可以迎刃而解吗?答案是否定的,前沿科技领域治理仍然任重道远。应当认识到这一“科技伦理法律陷阱”,构建“底线—整体伦理学”,并对科技发展模式进行系统性变革,这才是解决科技风险和伦理问题的根本性措施。

科技伦理法律陷阱:着力点错位,难以解决科技风险与伦理问题

加强科技伦理法律至关重要,但是其发挥应有作用是需要一定条件的,当条件不具备时,科技伦理法律就不能有效解决科技风险与伦理问题,更不能有效防控科技重大风险。目前科技伦理热潮对此有所忽视,似乎认为加强科技伦理法律的建设与实施,问题就可以迎刃而解,但实际上在现有条件和西方主流科技发展模式下,答案是否定的。对此,笔者提出“科技伦理法律陷阱”予以说明。

科技伦理法律陷阱包括两层含义:一是指从直观上看科技伦理法律可以解决问题,实际上在目前条件下却不能有效解决问题,不能有效防控科技重大风险;二是由于误认为找到了解决问题的关键,找到了着力点,而忽视了科技伦理法律发挥应有作用是有条件的,忽视了相应的条件关系分析,忽视了探寻真正的问题解决之道,而只注重科技伦理法律的建设与实施,错失扭转局面、纠正重大错误的机会。具体而言,科技伦理法律陷阱主要有以下六方面表现。

科技伦理法律主要是对科技工作者的表层约束而非深层约束

项目申请、验收、成果发表是科研的表层活动,科研探索、钻研思考、科学实验、实验室生活、交流合作是科研的深层活动,科技伦理法律主要是对科研表层活动的约束,而几乎无法约束科研的深层活动。探索未知、科学无禁区是科研活动的核心原则,正如“原子弹之父”奥本海默所指出:“一个深刻而必要的真理是,深藏在科学中的事物并非由于它们有用而被发现,它们被发现是由于有可能发现它们。”尽管目前科技伦理热潮汹涌,但据观察了解,科学家的科研探索活动几乎没有任何改变。成果(包括最终成果、阶段性成果、研究过程记录、实验数据等)的发表和传播有正式和非正式、主动和被动、合法或非法等多种方式,存在被一些情报机构、军方、黑客、疯狂科学家以及恐怖分子所利用的可能性。可见,无力实施深层约束的科技伦理法律不能有效解决科技风险与伦理问题,尤其不能防控科技重大风险。

科技伦理法律只是对世界的局部约束而非全面约束

科技伦理和科技法律不能约束世界上所有实验室和科技专家。世界上有233个国家和地区,科技伦理、法律各异,伦理和法律空白和漏洞很多,公海和荒岛更难监控,有三类人很难受到约束:一是疯狂科学家、黑客、恐怖分子和钻伦理法律漏洞的科学家;二是军方的武器研发,往往以防御为名;三是企业研发机构,即使其某些技术和产品容易转化而被恐怖分子利用,企业也不会束手束脚。例如,美国禁止基因编辑“三父母”婴儿技术,美国科学家团队就在不限制该技术的墨西哥进行操作并取得成功。

在人工智能领域,科技伦理失灵的情况也很严重,例如,在禁止“致命性自主武器”问题上无法落实。2018年国际人工智能联合会议上,来自90个国家、160多家人工智能企业或机构的2400多位专家学者共同签署了《禁止致命性自主武器宣言》,呼吁立法者颁布正式的国际协议,但是在同年举办的联合国日内瓦会议上,美国、俄罗斯、韩国、以色列、澳大利亚等国都反对将“完全自主武器”纳入正式谈判议题框架之中,仅达成一系列非约束性建议,联合国秘书长安东尼奥·古特雷斯强调“必须保留人类对使用武器系统的决定的责任,因为问责制无法转移到机器上”。[1]但是在“2019年政府专家组关于致命自主武器系统新兴领域会议报告草案”中,并没有强调完全禁止“致命性自主武器的研发与使用”。在2019年欧盟发布的《可信人工智能伦理指南草案》中也没有涉及致命性自主武器的禁止问题。对于显然应当予以禁止的人工智能武器,在现实中都无法形成政府文件,表面文章都做不了(何况明令禁止也不容易真正落实),人工智能伦理中的其他约束条款还有多少意义呢?对于科学发现与技术发明而言,做出1次和做出100次是一样的,在知识极易扩散的互联网时代,加强科技伦理法律和安全监管至关重要,但是也应该清楚其本身存在的局限和漏洞。[2]

科技伦理是软约束而非硬约束

由于科研活动非常复杂,成果也有多种应用,各种具体研究与应用都有相应的理由,即使是具有巨大破坏力的两用技术(Dual-use),也有其发展的正当理由。两用技术通常是指既能民用又能军用的技术,基因编辑技术就是两用技术。2016年美国国家情报总监詹姆斯·克拉珀在美国情报界年度全球威胁评估报告中,将基因编辑技术列入“大规模杀伤性与扩散性武器”威胁清单。如此危险和极具争议的技术,出于经济和军事竞争的考虑,不少国家仍然争先恐后地发展。2014年病毒学教授河冈义裕,利用H1N1流感病毒研制出一种能“绕过”人体免疫系统的新变种,该病毒或制造病毒的知识一旦泄漏,后果不堪设想。尽管这些高风险的研究饱受争议,但河冈义裕在2011—2016年间至少四次获得日本和国际的科学奖。由此可见,科技伦理只是软约束,而非强制性的硬约束,无论科研活动及成果有多危险都可以因为这样或那样的原因无法禁止,导致科技伦理形同虚设。

以约束人为核心的科技伦理法律并不能有效解决科技风险与伦理问题

众所周知,科技伦理是针对人的,它规定了科技工作者及其共同体应恪守的价值观念、社会责任和行为规范及准则。通过约束人、约束科技工作者来解决科技风险与伦理问题符合人们的直观经验。“国外学者尽管研究科学技术负面效应问题的观点和角度不同,但最终都落在人的问题上。这是不难理解的,因为人是科学技术负面效应问题的焦点,所有科学技术负面效应问题都是由于人对科学技术把握的水平、思维方式以及道德动机落后于现实等原因造成的。提高人的素质,挖掘人的潜力是解决科学技术负面效应问题的关键。”[3]因此人们把加强科技伦理法律建设与实施当作解决科技治理问题的关键。但是科技活动极为复杂,防控科技风险,特别是防控科技重大风险涉及的因素众多,在好奇心、利益和竞争压力驱使下,人们往往会身不由己,所以仅仅约束人是不够的。更重要的是,决定科技风险和伦理问题生成的是整个科技系统,是主流科技发展模式,而不仅仅是科技工作者。科技伦理法律能否发挥应有的作用主要取决于当时的科技发展模式,在目前西方主流的粗放式创新科技发展模式下(包括科学无禁区、优先权奖励体系、科技与资本的粗放式结合等),科技伦理法律确实难以发挥应有的作用。

科技伦理研究薄弱,科技治理体系过于单薄

科技伦理学是新兴交叉学科,产生于20世纪70年代。近年来新兴科技的发展冲击着现有的伦理规范,德裔美籍哲学家尤纳斯(H. Jonas)指出,建立在个体伦理基础上的传统伦理学已不能应对现代科技活动中出现的伦理问题,人类面对“伦理学的真空”,尤纳斯主张构建“一种通过调节人的行为,确保人类长久续存的伦理学”,这样的伦理学应该是以责任为中心的责任伦理学。[4]尤纳斯的责任伦理学是当代伦理学的代表作,它对“未来责任”伦理进行了出色的理论建构。在笔者看来,以责任为中心、以处理人与人之间关系为中心的责任伦理学并不能解决科技伦理问题,因为对科技活动而言,对“负责任”的理解非常复杂,可以“各取所需”,更糟糕的是,只要少数人、个别人或机器人不负责任,多数人的恪尽职责就无济于事。从20世纪90年代开始的伦理法律与社会问题研究(ELSI)并没有取得应有的进展,批评者认为ELSI的目标就是为了排除公众干扰,使科学家坦然地认为——我们已经对这些问题思考过了,可以无忧无虑地做研究了。[2]

防控科技风险、解决科技伦理问题依靠的是科技治理体系的增强与健全,但是与巨大经济利益驱动下的庞大科技创新体系相比,科技治理体系太过薄弱,科技伦理热潮掩盖了力量对比的悬殊。有效解决问题需要双管齐下:正确可行的思想与对策+人多势众,两者缺一不可。显然目前科技伦理法律等科技治理体系还势单力薄,任重道远。

限时原则缺位,忽视了科技风险和伦理问题的严峻性与紧迫性

科技伦理法律研究薄弱还表现为许多研究都没有考虑“限时原则”,没有考虑在限定时间内解决问题,这与缺乏上述关于科技伦理法律失灵的认识、缺乏对科技重大风险严峻性紧迫性的认识有关,也与以往学术研究缺乏“限时原则”的意识和传统有关,例如约翰·罗尔斯的《正义论》等许多伦理学名著都缺乏对限时原则的重视。[5]又如,建构性技术评估(CTA)是国际上著名的技术管理和政策分析工具,它也没有考虑“限时原则”,解决问题的思路难以成立。责任伦理也有类似的情况。应该创建限时科技伦理、限时科技法律、限时科技治理、限时科技重大风险治理等。[6]

底线—整体伦理学:用底线思维和系统思维构建新型科技伦理学

综上所述,目前的科技伦理法律失灵,因为在现行条件下,其不能约束深层科研活动、不能约束世界上所有科研活动、不能对高风险科研活动实施强制性硬约束、只强调规范人的行为而忽视了体制机制与科技发展模式的关键作用,忽视了科技伦理法律发挥应有作用是需要特定条件的,忽视了科技治理体系过于薄弱,以及限时原则缺位等,形成了科技伦理法律陷阱,让人们误认为,只要加强科技伦理法律建设与实施,科技风险与伦理问题就能够迎刃而解。上述分析表明,实际情况绝非如此。科技伦理法律热潮根本没有改变高风险科技在争议中快速发展的现状,根本不能有效防控科技重大风险,形势极为严峻和紧迫。警惕科技伦理法律陷阱,认清前沿科技领域治理的困境,是前沿科技领域治理的当务之急。

基于上述分析,笔者初步提出“底线—整体伦理学”,以超越难堪重任的责任伦理学等,以底线思维、系统思维和以往伦理学精华来构建“底线—整体伦理学”,它与现行的科技伦理学有四点区别:

第一,直面科技伦理法律失灵,并以此为前提建构新型科技伦理学予以纠正。

第二,解决科技风险与伦理问题是一个系统工程,仅仅规范人的行为远远不够,还需要系统解决科技工作者和包括体制机制、科研管理等在内的科技发展模式问题。尤其是尽快转变科技粗放式发展模式,在“现象—分析”二维平面的科学中引入价值维,转型为“现象—分析—价值”三维空间,实现从“平面”科学到“立体”科学的转型。[7]伦理法律将作为价值维的必要组成部分嵌入科学内部,以改变目前伦理法律作为辅助因素,外在于科学而难以发挥应有作用的状况,形成“科技创新、伦理先行”的底线安全的新型科技发展模式,不走西方“先污染后治理、先创新后伦理”的老路、弯路。

第三,科技治理与科技创新同等重要,协调两者关系是重中之重。

第四,恪守限时原则。由于科技风险和伦理问题愈演愈烈,要尽快实现有效防控,这是“底线—整体伦理学”最具挑战性的任务。

“底线—整体伦理学”特征鲜明,以克服科技伦理失灵为底线目标,抛砖引玉,希望新一代科技伦理学尽快问世。笔者长期研究科技重大风险治理,深知目前人类面临前所未有的双重巨大挑战:随着新兴科技爆发式发展,科技风险和伦理问题愈演愈烈,而人类防控科技重大风险的多道安全防线都存在严重漏洞,难堪重任,急需通过转变科技发展方式、加强新型科技伦理法律建设与实施予以应对。

【本文作者为中国科学院自然科学史研究所研究员、科技与社会研究中心主任】

注释

[1]Autonomous weapons that kill must be banned, insists UN chief. UN News. https://news.un.org/en/story/2019/03/1035381. 25 March 2019.

[2]刘益东:《致毁知识与科技伦理失灵:科技危机及其引发的智业革命》,《山东科技大学学报(社会科学版)》,2018年第6期,第1—15页。

[3]徐飞、张秉伦等:《科技文明的代价》,济南:山东教育出版社,1999年,第26—27页。

[4]王国豫:《推进新时代科技伦理学新发展》,《中国社会科学报》,2020年1月14日,第6版。

[5]刘益东:《开放式评价与前沿学者负责制:胜出机制变革引发的云科学革命》,《未来与发展》,2013年第12期,第2—11页。

[6]刘益东:《挑战与机遇:人类面临的四大困境与最大危机及其引发的科技革命》,《科技创新导报》,2016年第35期,第221—230页。

[7]刘益东:《人类面临的最大挑战与科学转型》,《自然辩证法研究》,2000年第4期,第50—55+75页。

责编:董惠敏 / 司文君

声明:本文为《国家治理》周刊原创内容,任何单位或个人转载请回复国家治理周刊微信号获得授权,转载时务必标明来源及作者,否则追究法律责任。

责任编辑:luotingP