破解刑事司法人工智能应用的法理难题
我国刑事司法人工智能应用走在世界前列。目前已经落地的刑事司法人工智能应用已经达到数百个之多。
各级各地司法实务机关积极研发、应用刑事司法人工智能,涵盖刑事审前程序、定罪程序及量刑程序,几乎实现对刑事诉讼流程的全覆盖,逐渐发展出四种类型的刑事司法人工智能应用:(1)智能辅助决策应用系统;(2)智能辅助支持系统;(3)案件管理应用系统;(4)诉讼服务应用系统。迅速发展的刑事司法人工智能应用,也逐渐暴露出数据垄断、算法黑箱以及场景设置随意等问题。实证调研亦充分显示,刑事案件智能辅助办案系统作为刑事司法人工智能的集大成者,在推广、试点过程中运行并不尽如人意。
刑事司法人工智能应用过程中存在的问题表明,其只是现代科技融入刑事司法的一种技术进步力量,应当以促进司法正义实现的工具或辅助手段形式存在,其背后的价值基础是司法正义。为此,刑事司法人工智能应用不仅需要具备法律层面的合法性,更需要法理层面的正当性,以克服潜在的伦理风险。从刑事诉讼法律规范层面对刑事司法人工智能应用进行合法性检验,从刑事诉讼法理层面进行正当性评析,从刑事司法正义结构层面进行整体性评估,方可发展出契合中国刑事司法正义目标的人工智能应用。
(一)面临的合法性挑战
首先,事实认定领域的刑事司法人工智能应用会侵犯事实认定者的法定权力。根据刑事诉讼法相关条文,特别是第3条、第183条、第184条、第185条、第198条、第200条及第203条的规定,审判权由人民法院行使,事实认定者只能为法官和人民陪审员。在既往刑事司法实践中,庭审虚化现象严重,以审判为中心的刑事诉讼制度改革着力推进庭审实质化,力图真正实现“让审理者裁判、由裁判者负责”,法官和人民陪审员作为事实认定者的身份更加凸显。在这一背景下,应用于事实认定领域,特别是具备“证据标准指引、单一证据校验、证据链和全案证据审查判断”功能的刑事司法人工智能应用,是否会侵犯法律规定的事实认定者权力,是否会导致庭审空心化,阻碍庭审实质化改革目标顺利实现,值得深入反思。
有论者认为,刑事司法人工智能只是辅助工具,有助于准确认定事实、能够促进法律统一适用。现实的问题在于,通过证据数据化、法律规则代码化对审判人员进行裁判指引,无异于通过层层嵌套的技术实现对司法人员裁判权力的削弱,一定程度上会产生决策让渡现象。并且,在案件数量剧增、审理时间严格受限的压力之下,加之刑事司法人工智能具备判断效率上的比较优势,运用人工智能的法官难免会形成依赖惯性甚至惰性,长此以往势必会形成过度依赖人工智能的现象。如此一来,司法实践中的事实认定者将不再只有法律规定的法官,而演变为数据分析师、人工智能工程师、软件工程师与法官的集合体,裁判权也将异化为计算能力和裁判能力的融合运用,这无疑会侵蚀现行法律授予法官的事实认定权,亦会侵犯法律赋予人民法院独享的审判权。
其次,刑事司法人工智能应用的引入可能会侵犯被追诉人的诸多法定权利。预测性警务等犯罪预测工具的引入,不仅会使得追诉活动开始于正式的刑事立案之前,而且人工智能加持下的海量信息汇总、分析产生的犯罪画像,会加剧侦查人员形成有罪推定的判断,并使得这一判断通过互联互通的刑事案件智能辅助办案平台传递至法官,导致法官形成未审先判的预断,庭审实质化流于形式,构成对被追诉人无罪推定权利的实质侵犯。根据刑事诉讼法规定,当事人有知悉诉讼进程、参与诉讼过程、参与举证、质证以及法庭辩论的一系列诉讼权利,但刑事案件智能辅助办案系统的引入,使得原先当事人具有的针对审判人员或者对方当事人的诉讼权利都难以适用于人工智能裁决系统,导致当事人诉讼权利的实质受损。
再次,风险评估类刑事案件智能辅助办案系统可能会加剧已有的偏见。在刑事司法领域引入人工智能对被追诉人的社会危险性、再次犯罪的可能性进行风险评估,以准确作出是否逮捕、是否继续羁押的决定时,看似只是所运用技术的迭代升级,但域外实践已充分证明,风险评估工具的运用会造成对特定群体的歧视,导致其被羁押、被从重量刑的概率显著增加。进而言之,刑事司法人工智能应用存在加剧或者强化已有偏见、歧视的副作用。刑事司法人工智能的研发需要依托司法大数据,但当底层数据存在问题或偏见时,据此研发的刑事司法人工智能应用便会放大这一效应。
最后,刑事案件智能辅助办案系统可能会对审级制度形成严重冲击,损害当事人的上诉权。审级制度存在的重要价值在于赋予当事人救济机会,通过程序吸收当事人的不满,达到消弭纠纷的目的。但刑事案件智能辅助办案系统被应用于上诉机制后,无论上下级法院对刑事司法人工智能的辅助工具属性如何强调,只要上下级法院运用相同的刑事司法人工智能应用处理同一案件,就会出现完全相同的事实认定或者法律适用结论,这无疑会削弱审级制度的意义和价值。
(二)存在的正当性隐忧
在刑事司法人工智能的基本要素中,数据垄断、黑箱算法及应用场景缺乏规制,充分表明,我们的刑事司法人工智能基础薄弱。当上述不足集合于具体的刑事司法人工智能应用时,会对既有的刑事诉讼法律关系、刑事诉讼结构、刑事诉讼原则造成冲击。
首先,刑事案件智能辅助办案系统的应用将强化公检法三机关之间“配合有余,制约不足”的关系。宪法、刑事诉讼法确立了公检法三机关“分工负责、互相配合、互相制约”原则,但实践中存在“配合有余,制约不足”现象。如果运用相同的刑事司法人工智能系统办理案件,可能会使侦控审更加流水线化。既有的刑事案件智能辅助办案系统以统一证据标准为主轴进行建构,力图通过引入人工智能,实现对刑事证据的统一指引、校验、提示、把关和监督。这种思路无疑会提高办案效率,但会引发刑事诉讼流程异化,强化后续刑事诉讼流程对前续阶段的机械性认同,使三机关办案思路同质化,分工、制约关系进一步受阻。
其次,刑事案件智能辅助办案系统的应用可能会加剧本已失衡的控辩关系、辩审关系。实现控辩平衡是诉讼现代化的一项重要指标,但囿于种种限制,控辩力量对比很难达致平衡。在人工智能加持下,本已处于优势地位的侦控机关在数据获取方面天然优位,如其继续不加限制地利用数据优势和黑箱算法,将使得本已处于弱势地位的辩方更难进行有效抗辩。另外,将刑事案件智能辅助办案系统应用于事实认定阶段和量刑阶段,会导致决策权让渡,但由于辩护方对人工智能是否参与以及发挥作用程度大小并不知晓,当对结果有异议时,会不可避免地归因于审判人员,加剧辩审冲突。
再次,刑事案件智能辅助办案系统的透明度有待提升。数据、算法是刑事司法人工智能的核心要素,但数据垄断和算法黑箱的存在,导致刑事司法人工智能缺乏透明度,使被追诉人处于数据不对称地位和算法信息劣势。缺乏透明度的刑事司法人工智能应用不仅剥夺被追诉人的知情权、减损其抗辩权,还使得“研究人员和外部专家难以评估和审核算法,从而难以测试算法的准确性和偏差值”。由此会带来对刑事司法人工智能公信力的疑虑,最终影响应用实效。
最后,难以建立针对刑事司法人工智能的监督与问责机制。司法责任制被视为本轮司法改革的“牛鼻子”,完善司法责任制,是建立权责统一、权责明晰、权力制约的司法权运行机制的关键。“让审理者裁判,由裁判者负责”,既是改革的共识,也是改革的努力方向。但当下,如果因刑事司法人工智能应用造成冤错案件,监督和问责将变得困难重重。当案件裁决者由单一化走向多元化和复数化时,审理者的角色将不再确定、明晰,导致难以有效问责,会使得正在着力推进的司法责任制改革难以获得真正落实。
(三)潜在的伦理性风险
刑事司法人工智能是一把双刃剑,其“有可能提高刑事司法系统的审判准确性,并降低人为错误和偏见的风险,但它们也有可能强化或加剧现有的偏见,并破坏基本的司法正义原则”。刑事案件智能辅助办案系统在提高诉讼效率的同时,也对刑事司法领域的伦理范式、正义观念造成冲击和挑战。
刑事司法人工智能应用过程中,由人工智能自动生成判决、根据大数据矫正法律决定的偏差,特别是让人工智能参与事实认定导致决策让渡,使得法官定位发生极大动摇,甚至造成审判系统乃至司法权的全面解构,从而在事实上形成审判主体的双重结构。并且,随着机器学习的迭代升级,机器正从被动工具、辅助者转变为具有自主意识、自主决策能力的能动者。就刑事案件智能辅助办案系统而言,其具有的自动生成判决、裁判偏离度预警等功能,已经具有自动化决策功能,自主性和能动性的具备使其不再只是法官的辅助工具,而成为法官事实上的代理者甚至替代者,对既有刑事司法领域伦理范式构成重大挑战。
刑事司法人工智能中算法决策的深度应用,还对既有的司法正义结构形成冲击。司法改革中,刑事司法人工智能的限度并没有被充分考量,算法决策已经被应用于事实认定甚至复杂案件决策中,这实质上是对算法决策的过度迷信。既有的刑事司法人工智能设计认为利用海量数据和算法,并辅之以超强算力,就可以破解刑事诉讼中的难题,防范冤假错案,促进司法公正。但问题在于,司法正义特别是实质正义难以通过具体的算法实现,毕竟“司法人工智能不会计算情感,不能与人进行心灵互动,自然不可能有人文关怀,难以根据具体场景灵活地、创造性地维护正义价值”。但司法实践中,诸如犯罪预测、风险评估工具在内的刑事司法人工智能应用,已经在将公平问题算法化。问题在于,刑事司法人工智能中的算法决策依据的是通过数据、算法、建模构建的“计算正义”,而非人本、人文层面的正义。
刑事司法人工智能面临的合法性挑战、存在的正当性隐忧以及潜在的伦理性风险表明,刑事司法人工智能亟待规制。但同时,上述问题的复杂性也表明,规制难度巨大。全球刑事司法人工智能改革的代表性国家都没有形成体系化的监管制度,这既有刑事司法人工智能技术发展不成熟的原因,也有政策制定者无法全面认知刑事司法人工智能风险的因素。但在我国刑事司法人工智能应用已经获得长足发展、问题已经充分显现时,跨越技术规制的“科林格里奇困境”,已经迫在眉睫。
对于人工智能在刑事司法领域的应用,欧美国家司法实务机关普遍持相对保守态度。美国将刑事司法人工智能的应用场景限定于预测性警务、人脸识别以及审前程序、量刑程序中的风险评估。英国在审前程序中的预测性警务、风险评估、移动设备信息提取、数字取证等领域进行刑事司法人工智能应用试点。德国警方除曾试用人脸识别、在个别地区使用预测性警务外,基本没有引入刑事司法人工智能应用;法国禁止将基于人工智能技术的法律服务软件应用于刑事案件,并且通过立法禁止基于法官和书记官处成员的身份进行的人工智能裁判指引。总体而言,欧洲主要国家只是在审前程序有个别刑事司法人工智能应用,审判阶段几乎不存在刑事司法人工智能应用。
对刑事司法人工智能的规制,各国都处于起步阶段,都在探索适合本国国情的规制路径,形成发展优位的中国模式、严格监管的欧盟模式和渐进规制的美国模式,呈现刑事司法人工智能规制的国际竞争格局。域外国家刑事司法人工智能监管领域的严格规制模式和渐进规制模式对我国具有一定启示意义,但由于我国刑事司法的独特诉讼文化和诉讼构造,加之我国处于全球刑事司法人工智能的无人区,要求通过自身探索,创制契合我国刑事司法正义体系的规制方案。未来应按照习近平总书记提出的“推动大数据、人工智能等科技创新成果同司法工作深度融合”“让人民群众在每一个司法案件中感受到公平正义”的法治思想,改进发展优位的规制模式,构建专门针对刑事司法人工智能的规制原则、规制框架和规制规范,防范、化解可能存在的风险和挑战,通过激励发展与合理监管相协调实现包容性规制。
(作者单位:中国政法大学证据科学研究院。原题《刑事司法人工智能的包容性规制》。《中国社会科学》2021年第2期。中国社会科学网 张征/摘)
转载请注明来源:中国社会科学网(责编:张文齐)
评论排行