生成式人工智能的治理是今年两会上代表委员们热议的一个重要话题。生成式人工智能既带来了人工智能技术的“奇点时刻”,也带来了人工智能治理的“关键时刻”。生成式人工智能技术是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。加快对生成式人工智能领域的立法,既是防范生成式人工智能服务风险的现实需要,也是促进生成式人工智能健康发展的长远需要。前不久,欧洲议会、欧盟委员会和27个成员国的谈判代表就《人工智能法案》达成协议,这成为全球首部人工智能领域的全面监管法规,为用法律监督ChatGPT等生成式人工智能服务的发展提供了一定借鉴。在该领域,我国也进行了不少探索,2023年已正式施行的《生成式人工智能服务管理暂行办法》(以下简称《办法》)从价值规范、行为规制和过程监管等方面对生成式人工智能加强了治理。随着技术的广泛应用和不断演进,生成式人工智能服务的开发者、提供者、使用者、监管者在未来实践中都还将面临不少的法律挑战,法律上也仍有诸多可填补的空间。这些也是我国下一步针对生成式人工智能立法立规应重点关注的问题。
首先,生成式人工智能生成内容的准确性和可靠性该如何认定是一个突出的问题。人工智能准确性不仅是生成式人工智能部署和运行的重要底线,也是构建可信赖人工智能的重要前提。以目前生成式人工智能的技术水平,其技术和应用局限仍非常明显,存在生成内容准确率不高、可信性不强、文本生搬硬凑、缺乏逻辑性等问题,有时甚至出现一些脱离现实、啼笑皆非的低级错误。对此,《办法》要求,提供和使用生成式人工智能服务应当“提高生成内容的准确性和可靠性”。要落实这一要求,尚需进一步的法律规则细化。一方面,要求服务提供者使用具有合法来源的数据和基础模型;另一方面,要求其采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。同时,应正视人工智能的风险阈值,继续深入探索同生成式人工智能技术特性与产业特点相匹配的数据准确性、算法模型准确性、输出准确性和解释准确性标准,构建科学精准的风险治理框架。
其次,生成式人工智能带来了个人信息保护的相关问题。大数据和人工智能技术的结合,改变了以往单一的个人信息收集和处理方式。生成式人工智能通常需要大量数据进行训练,并且,随着生成式人工智能的广泛使用,个人数据的收集、存储和处理变得非常普遍,加强数据管理和隐私保护至关重要,以尽量保证生成式人工智能服务提供的透明性和可控性。一方面,生成式人工智能的开发应该时刻注重确保个人对自身数据的控制权。根据《办法》,生成式人工智能服务的提供者应当依法履行对用户个人信息保护义务。涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形。其实这项义务并非新增,而是个人信息保护法等法律在生成式人工智能领域的细化。但是,这些规定大都有赖于产品研发者、服务提供者进行自我审查和自我履行,还缺乏独立第三方对算法进行有效论证和监管的具体设计,需要适时填补这一空白,细化数据采集、存储、使用和共享的规则,确保数据的合法性与安全性。
再次,生成式人工智能面临知识产权认定的问题。一方面,生成式人工智能运用未被授权的数据生成的内容可能被指控侵犯知识产权;另一方面,其生成的独创性内容是否应该受到知识产权保护?又该如何保护?《办法》坚持尊重知识产权的导向,宏观地作出规定:“涉及知识产权的,不得侵害他人依法享有的知识产权。”面对生成式人工智能涉嫌侵权的行为,用户可以依据相关法律规定对服务开发者和提供者提起诉讼,进行维权。根据我国著作权法的规定,享有著作权的作者,主要包括创作作品的自然人,和其他依照本法享有著作权的法人或者非法人组织。只有“人”能够成为知识产权法律关系的主体,可以对智力成果进行创作并享有权利,而人工智能模型不具备自由意志,不是法律上的主体,不能成为我国著作权法上的“作者”,且人工智能的设计者、研发者、投资者、管理者、实际操控者等在作品的创作过程中均发挥着重要作用,权利的归属如何,目前也尚无明确规定,如何进行产权保护,还需要相关法律法规加紧跟上。
最后,生成式人工智能还面临法律监管不充分的问题。对于具有超大规模、千亿参数量、极易扩展性和大量应用场景的生成式人工智能而言,以事后启动、分散推进为特征的传统监管面临应对迟滞、弹性不足、监管尺度不清、跨域协调成本高企的挑战。人工智能生成内容技术因其快速反应能力、丰富知识输出、多元应用场景等,对监管者的监管能力也提出极大挑战。因此,应积极打造“以AI治理AI、以算法规制算法”的智能监管体系,深入探究技术模型在人工智能监管层面的有效性,将伦理规范和合规要点转化为程序语言,以内部伦理技术约束嵌入人工智能设计和运行全过程,探索智慧化监管模式。同时,充分吸纳专业技术人才充实监管队伍,转变监管思维,创建监管机构间高效的信息共享机制,提升与人工智能技术创新相匹配、相适应的应对能力和管理能力,确保技术的研发与使用符合法律法规和道德规范。(胡建淼专家工作室供稿)