韩振文:数据运用场景下司法认知模式转型|防范自动化决策的权力异化风险
【ZiDongHua之人文化天下关键词摘要:韩振文 法与自动化 自动化科技 自动化决策 人工智能 信息处理自动化 】
数据运用场景下司法认知模式转型
数字法治的发展促使司法认知模式发生相应转型。这里的司法认知模式是从宽泛意义上指称司法决策的认知模式,不同于诉讼法学中专门概念“司法认知”(Judicial Notice)。它主要指裁判者对案情信息的加工处理裁剪整合与内在心理的计算表征,因而可以运用认知心理学、认知神经科学等知识来深度描述和解释这种认知思维决策活动。在大数据运用场景下,传统的司法认知与诉讼证明过程中主体性认知,逐渐由单一的法官主体认知演变为人机混合协同式认知主体。简言之,由法官独立决策模式向智审辅助决策模式转变,或由单一人脑决策转向聚合智脑决策,这种认知决策模式在保有相对确定性的同时,也愈加显现出可预测(见)性的附加特质。同时,由于大数据技术在司法主体认知决策领域的深度融合应用,司法认知越来越受智能化、自动化决策的辅助影响,甚至在某些标准化、格式化的简单民商事案件中,不再是人机混合式的主体认知,而是人工智能司法直接取代了法官的认知裁量。正在全球兴起的ChatGPT技术代表了自动化决策的新趋势。这种转型的认知模式尤其强调数据信息的安全合规管理与可信高效流通使用。
借助认知科学控制认知偏差
为关切回应包括以上司法认知模式在内的数字法治转型的强烈需求,学术界提出人工智能法学、认知法学、数字法学、互联网法学、大数据法学、网络法学、计算法学、信息法学、数据法学、未来法学等新概念。数据信息本身是流动的、动态的,信息智能革命的本质就是算法、数据和算力的系统融贯应用。对司法认知活动而言,无论是人机交互还是算法自动化决策,大都涉及数据信息的加工处理分析、流动共享、计算表征,因而都可用具有“硬科学”属性的认知科学视角来加以描述解释。严格来说,认知科学并非一门独立学科,而是学科深度交叉融合后形成的新兴学科群或“领域”科学。它主要包括六个分支学科,即认知心理学、认知神经科学、哲学、语言学、人类学及计算机科学(人工智能)。认知科学旨在全面揭示心智图式与算法黑箱,实现对“思维的阅读观测”,并破解意识难题与跨越解释鸿沟。
具体到司法认知活动领域,法官建构事实、适用法律的认知过程受到各种主客观因素影响。司法决策中裁判思维的影响因素错综复杂,受多种动机激励,追求多个目标,裁判思维始终运作在激励与抑制并存的联结主义认知网络之中,受其规范性、个体性、情境性等因素的有效约束。借助认知科学的分析工具,有助于把握裁判者的认知结构与认知规律,认清决策中有意掩盖的不相关法外因素,从而控制、消减决策中的认知偏见、偏差,逐步达至程序公正与实体公正相统一的裁判。在认知科学视角下对大数据运用的司法认知模式转型进行理论阐释,主要探究司法决策的法官认知过程以及人工智能模拟人脑的认知计算、证据推理,对此司法认知活动的受众发生何种微妙的心理变化,更进一步,这种转型的司法认知模式伴随的是算法权力以自动化决策方式渗入正当程序各个环节,可能产生各种公共安全风险,又如何通过重塑(算法)技术程序正义进行有效识别、防控与化解。
法官不可过于依赖智能预测
目前,全域数字法院建设中认知决策愈加呈现出可预测性的特质,也就是愈加注重法官对个案裁判结果预测评估的掌控力,而且随着司法人工智能辅助系统作出的预测推送越来越高效精准,法官对其依赖程度也越深。当然,域外法院早已开始利用人工智能产品实现对立案后案件结果的预测、诉讼的风险评估、辅助对专家证言的采信等。问题是,这种强调法官事前对案件预判掌控力背后兴起的协商性或合作式司法程序(理念),还存在很多立法论、解释论上的巨大质疑,以及在看到智能预测更具精密化的同时,更应谨慎对待它的作用限度与一些难以化解司法实践核心需求的困局,而不应在学理上过度夸大甚至神化其功用,防止算法(计算)思维无度介入司法认知决策,导致算法技术权力的异化或滥用。
对此过高奢望或盲目依赖的情况,左卫民教授提出深刻警示,目前由于未结合专门司法需求,所投入的资金与人才资源远远不足,使得大部分司法人工智能产品难以发挥作用,未来应降低对司法人工智能的盲目期待,将研发中心从通用领域转向司法专用领域,转变司法人工智能的投入模式,大力培养既懂法律又懂技术的专门化、复合型人才。法官进行事实认定、法律适用的认知决策必须是理性的,且服从相关的法律程序约束,而智能自动化预测存在算法黑箱、偏误、歧视等问题,很难受到理性法律程序约束。更重要的是,对法官来说智能预测推送的并不是“标准答案”而只是相关性的概率预测,只能作为辅助性的参考建议,根本无法全面诠释确定事实与规范匹配中的法律意义。2022年12月,最高人民法院发布的《关于规范和加强人工智能司法应用的意见》就对此辅助审判的限度与可能产生伦理风险的防范作出了明确规定,人工智能辅助结果仅可作为审判工作或审判监督管理的参考,确保司法裁判始终由审判人员作出;并要求其应用不得违背公序良俗,健全风险管控、应急处置和责任查究机制,防范化解其应用中可能产生的伦理道德风险。
培育公众对人工智能司法的信任
大数据运用场景下司法认知模式转型还会涉及公众的心理态度变化,必然冲击到公众对司法决策活动的认知感受。反过来,这种主观态度的变化也会影响到公众日常行为模式与守法意识。其中,一种较普遍的心理变化是引发公众对智能司法的广泛担忧与不信任,特别来自数字弱势群体对此的主观感知正义匮乏、自主意志权利被“压抑剥夺”问题。由此,这种不接受、不信任的心态会导致智能司法应用面临正当性危机,使其无法在实践中发挥应有优势。对此特别要培育提升公众对人工智能司法的信任,应在确保疑难、复杂案件始终由司法裁判者作出的前提下,注重发挥智能司法的普惠便民赋能作用,将其触角真正深入到基层群众家门口,从源头上增强民众对感知正义的体验感、获得感。
防范自动化决策的权力异化风险
大数据运用场景下司法认知模式转型,不能忽视转型中蕴含的技术性风险愈发严重的问题,因而亟须从程序机制上进行有效规制。从深层次讲,这种技术性风险的本质是算法自动化决策的权力异化风险,它侵蚀消解着传统程序正义的参与性、公开性、交涉性、自治性等内在价值,贬损着人的人格伦理尊严。对此如何进行新的程序性机制设计,来防控化解传统程序正义所面临的技术性风险,就显得尤为必要。其中,在“以人为本”智能伦理观基础上建构数字化的算法程序正义,可作为一种重要规制路径与纾解方式。对此,郭春镇教授指出,以正当程序的要求来介入算法,对算法的程序正义进行相应的法治构造,通过价值注入与制度安排实现算法的程序正义。一方面,注重以风险预防为导向的多元主体协同治理,对算法依赖的数据要素进行协同衔接式合规审查监管,侦查、监察、检察、法院等机关进行透明坦诚的风险沟通交流,确保程序正义供给来源的安全合法。另一方面,提高算法的可解释性、可问责性、可信赖性,使算法的程序正义与传统程序正义的内在价值契合贯通。
(本文系浙江工商大学“数字+”学科建设重点项目“数字时代‘认知法学’创新研究”(SZJ2022B019)阶段性成果)
(作者单位:浙江工商大学法学院)
评论排行