网站首页 | 网站地图

大国新村
首页 > 原创精品 > 成果首发 > 正文

大语言模型司法应用的安全困境与治理路径

【摘要】在数字中国与法治中国协同推进的战略背景下,大语言模型司法应用正面临技术黑箱性、数据治理短板与内容价值失范三重安全困局。须以总体国家安全观为统领,在技术应用中嵌入社会主义核心价值观,通过构建“技术防御-数据治理-可信体系”三位一体的安全体系,在制度创新中将《新一代人工智能发展规划》与司法改革实践有机衔接,走出一条技术赋能与风险防控并重的中国式司法智能化治理新路,为全球数字时代司法治理贡献中国智慧。

【关键词】智能司法 大语言模型 法律人工智能 可信可控

【中图分类号】D916 【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2025.07.013

【作者简介】中国人民公安大学法学院 山东警察学院  李非燕

在数字中国战略纵深推进的背景下,《最高人民法院关于规范和加强人工智能司法应用的意见》提出,“到2025年,基本建成较为完备的司法人工智能技术应用体系,为司法为民、公正司法提供全方位智能辅助支持”。近年来,最高人民法院大力推进人工智能技术在司法领域的广泛应用,智慧法院建设取得显著成效,全国法院已全面完成人民法院信息化3.0版建设,向信息化4.0版迈进。例如,深圳市中级人民法院于2024年6月上线人工智能辅助审判系统,审判效率显著提升,上线半年,深圳市中级人民法院民商事案件平均结案时间同比缩短25.6%,[1]彰显出司法智能化转型的战略必要性。这一转型既源于“案多人少”的现实压力和“同案不同判”等风险,也得益于司法审判垂直领域大模型在法律条文解析中展现出的强大自我学习和反馈能力,为破解司法标准化难题提供了技术支撑。

在此背景下,大语言模型加速推动司法效率的提升和司法应用的范式变革。深圳市中级人民法院率先构建全国首个司法专用大模型,覆盖立案审查、电子卷宗解析、争议焦点提炼、裁判文书生成等85项核心审判环节,该系统通过嵌入最高人民法院裁判规则库,创新实现“类案强制检索”功能,试运行期间已辅助立案29.1万件,裁判文书初稿生成准确率达92%。浙江省杭州市中级人民法院开发的建设工程纠纷智慧审判模型,通过工程造价、施工日志、监理报告的智能分析模块,自动核算工程款利息和工期延误损失等专业数据,实现类案审理效率提升65%,裁判自动履行率提至89%。[2]最高人民法院通过整合1.4亿份裁判文书和200万部法律法规,构建了全球最大的中文法律知识图谱,该系统可智能审查证据链,自动标注证据瑕疵与法律适用冲突点。试点法院的单案办理时效缩短40%,二审改判率下降15个百分点,推动司法生产力迈上智能跃升新台阶。

然而,技术创新与制度供给之间的张力也日益凸显。技术层面,大模型参数规模呈现指数级增长,但我国《最高人民法院关于规范和加强人工智能司法应用的意见》的指导意见的修订周期通常长达2~3年,难以匹配技术变革速度;制度层面,《中华人民共和国网络安全法》《中华人民共和国数据安全法》尚未针对生成式人工智能设立专门条款,可能导致“人工智能伪造证据”等新型违法行为缺乏明确的规制依据;国际竞争维度,相较于欧盟《人工智能法案》确立的四级风险分类体系,我国司法人工智能领域尚未建立分级准入制度,在数字司法治理规则制定权争夺中面临话语权挑战。这种“技术领跑”与“制度跟跑”的错位格局,已成为智能司法深化发展的重要掣肘。

大语言模型司法应用的安全困境

大语言模型在司法领域的深度应用,本质上是技术逻辑与法律逻辑的深度融合过程。这种融合并非简单的功能叠加,而是算法权力与司法权在数字空间的系统性重构。

技术原生的结构性风险。大语言模型的技术特性与司法活动的规范性要求之间,存在着三重难以调和的深层矛盾。其一,算法黑箱性与司法透明性的冲突。神经网络“输入-输出”的不可解释性导致模型生成判决建议时无法完整呈现法律推理的逻辑链条,这违背了《最高人民法院关于进一步深化司法公开的意见》中“推动实现司法信息自动生成、智能分析、全程留痕、永久可追溯等功能”的规范性要求。其二,动态学习机制与司法确定性的张力。大语言模型的持续进化能力可能导致相同案件在不同时间节点产生差异化结论,这不仅挑战“同案同判”的司法原则,还可能动摇司法公信力的根基。其三,技术工具理性与司法伦理的价值错位。当模型将法律条文简化为概率计算时,可能消解裁判文书中“公平”“合理”等价值要素的衡量空间,导致裁判文书变为语法正确但缺乏人文关怀的文字堆砌。

以对抗攻击为例,攻击者可通过对输入文本进行微小的语义扰动来误导大语言模型的输出。例如,将“正当防卫”替换为“防卫行为”,这种微小改动在语义上看似相近,但可能对模型的判断产生显著影响。这种“算法手术刀”式的攻击手段,暴露出大语言模型在技术层面的结构性缺陷。更值得关注的是,深度学习框架的安全漏洞呈现典型的“木桶效应”。例如,2022年,PyTorch的预发布版本软件包遭到“依赖混淆”攻击,攻击者‌将恶意软件包传到PyPI代码库中,导致受影响的计算机的敏感数据被泄露。这表明即使模型本身没有直接漏洞,供应链漏洞仍可能引发系统性安全风险。

数据治理的制度性短板。司法数据的特殊性在于其兼具公共属性与私权边界的特征,因而对大语言模型的数据治理提出了双重挑战。从技术维度看,数据生命周期管理的碎片化易导致敏感信息保护层层失守。司法数据包含采集、存储、处理和应用涉及大量敏感信息,如个人身份信息、案件细节、证人证言等。这些信息在数据生命周期的不同阶段都可能因管理碎片化而面临泄露风险。从制度维度看,《中华人民共和国个人信息保护法》确立的“删除权”面临技术性应用难题。尽管该法第四十七条明确规定了个人信息处理者在特定情形下删除个人信息的义务,但在实际操作中,某些企业可能因技术架构复杂、数据存储分散等原因,无法及时有效地删除用户信息。

更深层的矛盾在于,数据流动性与司法确定性的悖论。大语言模型依赖海量数据持续优化,但司法活动要求裁判依据的稳定性。例如,当大语言模型用于辅助司法裁判时,其训练数据可能包含最新的社会观念、政策变化或技术发展,这可能导致生成的裁判建议与现有法律框架或司法实践产生偏差,这种偏差暴露出技术系统与法律制度演进间的适配难题。这种“数据进化”与“法律安定”的张力,亟须建立动态平衡机制。

内容生成的规范性危机。生成式人工智能的技术特性正在重塑司法活动的价值坐标。其一,法律解释的算法僭越风险。当大语言模型将法律中“公序良俗”原则量化为词向量时,实质是将价值判断异化为特征权重计算,这可能导致输出内容突破司法解释设定的规范边界。其二,文书生成的合规性风险。在司法系统中,任何由模型生成的法律文本、判决或建议都必须符合现行的法律规范和司法惯例。然而,由于大语言模型的生成机制基于大规模的语料库和学习算法,这些模型可能在没有明确法律监管的情况下,生成违反法律规定的内容。例如,模型可能依赖不准确或已过时的法律信息,或是对法律条文的解释偏离本意,导致生成误导性的法律建议。这不仅会直接影响案件结果,甚至可能损害司法公信力。

这种技术应用与司法本质的冲突,在价值层面体现为效率至上与司法谦抑性的对立。人工智能在司法领域的应用中,往往以提高效率为目标,这种效率导向可能忽视司法活动对个案差异和法律灵活性的需求。而司法谦抑性要求法官在法律框架内谨慎进行价值判断和解释,避免过度依赖技术手段,以确保司法决策的公正性和合法性。

大语言模型司法应用的安全治理之道

大语言模型的司法应用正深刻重塑司法权力运行模式,其安全风险亟待系统性应对。大语言模型在司法场景的应用安全,本质上是技术防御能力与攻击手段的动态博弈过程。面对算法权力扩张与司法公信力的张力,需构建涵盖技术防御、数据治理与可信体系的三维安全治理框架,实现从被动防护向主动进化的范式转型,在保障技术效能的同时筑牢司法安全的制度防线。

构建主动免疫的技术防御体系。在司法场景中,大语言模型的应用面临着对抗攻击与数据投毒等传统技术挑战。攻击者利用精心设计的语义陷阱,如虚构法律条文或扭曲案件事实,能够诱使模型生成错误的裁决建议,这种隐蔽性特征凸显了构建主动免疫的技术防御体系的重要性。为此,司法领域的相关研究应聚焦“动态对抗训练”机制的建立。通过引入法律逻辑验证模块,不断自动生成包含虚构法条(如创设“虚拟物权”概念)和事实矛盾(如时间线冲突)的对抗样本库,持续优化模型的法律推理鲁棒性,从而提高模型应对对抗攻击和复杂法律的能力。浙江法院系统上线的“凤凰金融智审”3.0为这种防御体系提供了可复制的实践范本。该系统通过法律知识图谱和智能算法,将法律规范转化为符号语言,这一做法既确保了裁判文书生成和裁判结果预测的透明性与可解释性,也为法院决策提供了充分数据支持,让法律条文在模型应用中得以精准体现。

此外,司法大语言模型还应具备自动校对功能,确保文书格式规范、要素完整、逻辑合理。这种主动校对机制可有效降低因技术缺陷、数据质量问题或模式识别失误引发的误判风险,在快速发展的技术环境中兼顾质量与效率,提升对抗潜在安全威胁的能力,为大语言模型的安全应用奠定基础,也为未来法律智能化方向的研究与实践提供重要参考。

筑牢司法数据主权的安全屏障。在数字化和智能化迅速发展的背景下,司法数据的战略性地位愈发凸显。为有效应对数据安全风险,推动法律与科技的深度融合,需构建中国特色司法数据治理体系,确保数据的安全性、完整性与保密性,特别是防范训练数据污染的风险。为此,必须严格执行《中华人民共和国数据安全法》的数据分类分级制度,对涉及国家秘密和个人隐私的司法数据进行物理隔离,防止数据在使用过程中遭受泄露。对公开裁判文书应进行深度脱敏,确保数据共享与使用时,当事人及相关人员的隐私与权益得到保护。可推行“司法数据沙箱”机制,引入区块链技术确保数据使用全流程的留痕,保护训练数据的“可用不可见”特性,进而降低数据滥用和泄露的风险,同时能为技术研发与应用提供必要的支撑。

在强化司法数据安全的同时,亦需防范技术公司垄断司法数据形成“算法权力寻租”。2022年修订的《中华人民共和国反垄断法》已新增数字经济反垄断专条,明确经营者不得利用数据和算法等从事法律禁止的垄断行为,在此基础上可借鉴欧盟《数字市场法》的经验,增设“关键数据设施”条款,精准规制数字经济垄断行为,守护司法数据的独立性与权威性。

培育可信属性角度的安全防护策略。司法智能化转型的本质,是技术工具理性与司法价值理性的深度融合过程,必须坚守“可信可控”的伦理底线,在算法权力与司法权之间构建动态平衡机制。依据《生成式人工智能服务管理暂行办法》,生成式人工智能服务提供者需要接受安全评估,并对算法进行备案,以提高算法的透明度和可问责性。这要求算法开发者提供包含决策逻辑、法律依据分析、偏见检测报告的“算法说明书”,并由法官、技术专家、伦理学者组成的联合审查委员会进行“穿透式审查”。这种“技术透明化”改革与“算法问责双轨制”理论形成实践呼应,通过内部合规和外部监管相结合确保算法合规,既在模型架构中嵌入合规性验证模块,实时监控法律推理路径的规范性,又通过外部监管力量建立“算法决策-司法审查”的反馈闭环,保障技术运行始终符合法治要求。

在全球数字治理规则加速重构的背景下,中国司法智能化的安全治理需坚持自主创新与开放借鉴相结合的发展道路。欧盟《人工智能法案》确立的“风险分级监管”框架,虽为我国构建司法大语言模型准入标准提供了参照,但其难以契合我国司法实际。因此,必须将《新一代人工智能发展规划》中“安全可控”的技术路线与《最高人民法院关于规范和加强人工智能司法应用的意见》和《最高人民法院关于以高质量审判服务保障科技创新的意见》提出的“科技赋能司法”目标有机衔接,形成具有中国特色的治理范式,这种范式创新体现在三个维度:技术研发层面,推动司法专用大模型的国产化替代,突破TensorFlow、PyTorch等国外框架的技术依赖;标准制定层面,建立融合民法典价值导向与GB/T 35273-2020版《信息安全技术个人信息安全规范》的技术合规体系;制度保障层面,完善从算法备案、运行监测到责任追溯的全链条监管制度。这种“技术-标准-制度”的三维治理架构既借鉴了国际经验中的有益内容,又植根于中国特色社会主义法治实践,为全球司法智能化治理贡献了中国方案。

更深层次的治理创新,在于将总体国家安全观贯穿技术应用全过程。当前,某些境外大语言模型系统的价值渗透风险警示我们:智能司法的算法是技术工具,更是意识形态载体。这要求我们在技术治理中强化主权意识,建立司法大语言模型系统的价值观过滤机制,将社会主义核心价值观转化为可量化的算法约束条件,在类案推荐、文书生成等环节设置“红色基线”,确保技术应用始终服务于社会主义法治建设。这种治理逻辑的确立,不仅关乎技术安全,更是维护司法主权、塑造数字时代国家法治竞争力的战略抉择。

注释

[1]《上线半年平均结案时间同比缩短25.6%!深圳法院AI辅助审判系统助力提质增效》,2025年1月13日,https://www.dutenews.com/n/article/8636504。

[2]《AI赋能司法革新:全国法院十大AI大模型典型案例盘点》,2025年2月22日,https://www.53ai.com/news/zhishiguanli/2025022275391.html。

Security Dilemmas and Governance Approaches for Large Language Models

in Judicial Applications

Li Feiyan

Abstract: Under the strategic background of coordinated advancement of Digital China and Rule of Law China, the judicial application of large language models is currently confronted with triple security dilemmas: technical opacity, shortcomings in data governance, and value deviations in content. It is imperative to adhere to the holistic approach to national security as the overarching principle, integrate Socialist Core Values into technological applications, and establish a trinity security system encompassing "technical defense-data governance-trustworthy mechanisms". Through institutional innovation that synergizes the "New Generation Artificial Intelligence Development Plan" with judicial reform practices, China can forge a new path of intelligent judicial governance that equally emphasizes technological empowerment and risk prevention. This Chinese-style approach will contribute China's wisdom to global judicial governance in the digital era, achieving a balanced development model where technological advancement coexists with security safeguards while maintaining distinctive national characteristics.

Keywords: intelligent justice, large language models, legal artificial intelligence, trustworthy and controllable

责 编∕邓楚韵 美 编∕梁丽琛

[责任编辑:邓楚韵]