徐伟琨|自动化行政中相对人算法决策拒绝权的实现路径
【ZiDongHua 之人文化天下收录关键词: 徐伟琨 自动化行政 人工智能 】
徐伟琨|自动化行政中相对人算法决策拒绝权的实现路径
徐伟琨
广西民族大学法学院硕士研究生
要目
一、问题的提出
二、算法决策应用于自动化行政面临的现实问题三、自动化行政中相对人免受算法决策法律保护的既有路径及反思四、自动化行政中算法决策拒绝权的实现路径
人工智能技术嵌入政府行政管理活动中,互动促成“自动化行政”的诞生。自动化行政通过算法决策程序处理海量数据并作出替代性决策来优化行政效能。算法正在逐步超越工具角色,成为执行资源配置的基本准则,但算法歧视、算法偏差、算法“黑箱”等固有局限侵蚀相对人的知情权、听证权、救济权等程序权利,对传统行政正当程序发起挑战,造成“权力——权利”格局的严重失衡,相对人算法决策拒绝权的构建变得尤为重要。通过剖析当前个人免受算法决策既有路径发现,禁令路径和权利路径两种路径在保护目标、方式、限度等方面截然不同,在一定程度上两种路径都忽视了相对人个人利益和公共利益之间的平衡。为保障相对人在自动化行政中权利的实现,必须从地位厘定、立法跟进、程序保障、责任倒追角度出发,全方面构建行政法意义上的算法决策拒绝权实现路径。
一、问题的提出
随着图像识别等人工智能技术的发展,算法决策应用场景得到了极大的提升和拓展。2022年1月,国务院办公厅印发了《“十四五”数字经济发展规划》,明确要求“加快构建算力、算法、数据、应用资源协同的全国一体化大数据中心体系”。这为算法决策嵌入政府公共行政提供了有力支持和方向指引。
自动化行政,系人工智能技术在行政机关日常行政活动中的具体应用。在“算法时代即将来临”的背景下,行政机关借助算法决策深度学习、大数据分析等技术以辅助行政裁量、预测调配资源等行政活动。有别于外生技术在政府活动中移植应用的电子政务时期,算法决策在行政领域的应用是在数字技术与政府体系深层次融合适应数字政府时期技术应用的进一步发展,算法在不断超越工具角色,逐渐成为执行资源配置的基本准则。然而,算法决策本身具有的内生性风险以及同传统行政正当程序相背离的风险最终会影响到自动化行政决策的准确性,进而对行政相对人合法权益造成损害。
为了应对算法决策所引发的风险,诸多国家或地区都对算法决策进行了法律规制,如欧盟通用数据保护条例(General Data Protection Regulation,以下简称GDPR)第22条第1款规定了数据主体享有“反自动化决策权”,即数据主体在特定情形下,对其有关的个人数据处理与分析享有拒绝权。我国个人信息保护法第24条第3款明确了“自动化决策拒绝权”的请求权基础,该条款同样适用于自动化行政领域,但在权利的实现上缺乏制度支持、程序保障等困境。
行政法围绕具体行政行为对行政问责和相对人权益保护提供了框架,所建构的相关原则和程序是由人作出决策为预设前提而非计算机。在以算法决策为中心的自动化行政背景下,由计算机作出行政决策与传统行政法上的原则和程序不相兼容,那么本文所提出的问题是:算法决策应用于自动化行政对行政程序法治带来了怎样的挑战?相对人参与自动化行政时,其权利如何得到实现与保障才能回应这样的挑战?基于此,本文首先对当下算法决策应用于自动化行政面临的主要问题进行分析;其次,对目前国际上主流的免受算法决策法律保护的两条路径进行阐释并反思;最后,在充分考虑相对人利益和公共利益平衡基础上,构建自动化行政领域科学可行的算法决策拒绝权实现路径,以提升算法决策的正当性和自动化行政的可靠性。
二、算法决策应用于自动化行政面临的现实问题一方面,算法决策是基于算法和计算机技术收集整理数据,并在此基础上通过深度学习或神经网络等技术处理分析相关数据,然后作出决策的活动。可见,算法决策排除了人为干预,自动分析、评估数据主体各项情况,成为决策的主体。但算法决策终究是通过算法和计算机技术相结合建构起的一套程序,本身就具有算法设计者的印记,因此存在设计者主观倾向甚至歧视的可能性,所作出决策的过程也并非绝对中立和客观。另一方面,上文提到传统行政程序的建构是以人的行为出发并非机器,算法决策的自发性与传统行政程序产生冲突。金无足赤,算法基于海量数据处理和运算效率优势,帮助政府提高行政效能,但算法决策简化了行政程序,以内部决策参与到行政活动中,对行政正当程序发起挑战,影响相对人知情权、听证权、救济权等程序权利的实现,导致行政权力增强与相对人权利式微的失衡局面,产生算法决策在自动化行政领域应用的现实问题。
算法决策应用于自动化行政存在的障碍
任何一项技术都无法确保绝对的准确和安全,同样,算法决策技术即便在不断发展和完善的现如今,其准确性和可靠性仍然存在问题,这也是算法决策应用于自动化行政陷入质疑危机的内在原因。
1.算法歧视导致决策公平性缺失
算法决策是计算机程序的一种,依赖于设计者提前将既定规则编写进代码。一方面,算法的设计、目的、标准、数据处理等也有赖于设计者、开发者主观选择,他们可能会将偏见嵌入算法系统,或者疏忽某些重要的指标,这都会对算法决策的公平性产生影响,造成结果偏差。另一方面,当编程人员将既定规则写进代码时,不可避免会对规则进行调整,但对这一环节,公众、政府人员、法官无从知晓,算法决策规则的透明性、准确性无法被审查。如果规则在编译过程中被过度解读,甚至错误解读,亦会导致算法决策结果偏差,造成决策不公。更重要的是,算法并不具有能力自主排除歧视,反而倾向于将歧视固化甚至放大,使歧视长存于算法决策中。究其原因,算法是用过去预测未来,而过去的歧视在算法中巩固并在未来得到加强,因为错误的输入得到的只会是错误的输出,最终形成“自我实现的歧视性反馈循环”。在这种情形下,以算法决策为中心的自动化行政也会遭受到算法歧视导致决策公平性缺失的现实困境,其运作结果的准确性也难以保障。
2.数据的有效性、准确性偏差影响决策的准确性由于算法是深度学习的产物,数据的优劣对算法决策的准确性起着着决定性因素,以数据采集为关键步骤的算法所作出的决策不可避免地受到数据质量的影响。数据样本质量越高,算法决策的准确性也相应提高。相反,当数据样本失准、不全,或缺乏代表性、均衡性,算法决策的结果很可能存在不同程度的歧视。算法决策的设计者可以利用数据对目标人群进行分类,从而脱离各种反歧视要求的约束。数据采集和记录的过程中存在的归类、标记等偏差也会产生算法歧视的结果,同样也会成为算法决策准确性保障的障碍。
3.算法决策本身具有不透明性
由于算法技术具有门槛,导致信息不对称,很多时候出现问题都难以追责,算法创造的信息优势形成强大的算法权力,也引发了社会公众的担忧。算法决策固有的不透明特性形成了算法“黑箱”,即人们无法感知和理解算法自主作出决策的过程和结果。有学者将算法的不透明性分为三种:(1)故意不透明,是指算法决策的内部运作过程被刻意隐藏,可能是基于商业秘密,也可能是基于操控他人;(2)内在不透明,是指算法本身具有难以向公众解释的技术壁垒,随着算法深度学习和大数据分析等技术发展使得人类干预越发捉襟见肘,即便是专业技术人员也难以全面解释算法决策过程;(3)外行不透明,是指算法技术中的一些即便是可以被专业技术人员解释的部分,社会公众也难以完全理解。算法决策的不透明特性利用不对称信息在算法主体与受众之间产生“规训的权力”,成为滋生算法歧视的“温床”。
算法决策与行政正当程序制度的冲突
行政正当程序是行政法的基本要求,其要义在于,作出任何使他人遭受不利影响的行使权力的决定前,应当听取当事人的意见。正当程序是裁决争端的基本原则和最低的公正标准,是现代民主政治的表现形式之一。行政正当程序基本理念已经成为检验权力运行的重要指标,在平衡“权力——权利”格局中发挥着重要作用。算法决策应用于自动化行政意味着行政机关可以凭借数据和计算机程序进行简单重复流水线工作达到降本增效的效果。这种排除人工干预的完全自动化决策对传统行政程序带来了诸多挑战,如:(1)有别于一般程序规定,作出行政行为不需要领导签字;(2)不需要说明理由;(3)不需要提前组织听证。正因为自动化行政行为免去了听证、调查或阅卷程序,导致当事人的程序性权利实质性限缩。在自动化行政中,算法决策模块化、程序化处理行政事务,在提升行政效率的同时却有着不利于个案正义实现的隐患,再加上算法本身具有的“黑箱”特征,使得算法决策应用于自动化行政面临质疑。
1.算法不透明影响相对人的知情权
在知情权体系中,行政知情权是公民政治权利的基础。所谓行政知情权,是指公民依法通过各种途径和形式获取行政活动宗旨、目的、原则、依据、程序及其结果的权利。该项权利目的在于当行政信息涉及相对人切身利益时,相对人用以打破与行政主体之间信息不对称状态,从而实质上起到防止行政专断和保障正当程序的作用。行政知情权的实现,一方面有助于相对人保障自己的权利,另一方面也是人民群众管理国家事务权利实现的重要方式之一。然而,在算法不透明的情况下,相对人因与行政主体之间基于信息不对称而建立起的“数字鸿沟”难以参与行政活动,更谈不上对设计自身利益的具体行政行为提出异议。因此,如何解决算法决策应用于自动化行政情形下相对人知情权实现成为即将面临的现实问题。且先不论行政主体公开复杂、专业的自动化决策程序的运作流程、决策依据在实践中操作极其困难。即便是公开了,缺乏专业技术知识的相对人无法理解,也难以实现知情权的保障。在传统行政程序中,行政主体与相对人通过简单的面对面交流,用通俗易懂的语言对决策的依据和过程进行说理,这在自动化行政中,解释冰冷的算法决策难以实现。此外,当下一些行政机关内部因缺乏算法专业技术人员无法满足自动化行政需求,而将算法决策的研发和设计外包给市场上投入算法技术研发更多以及掌握专业技术人员丰富的私营企业的情况不在少数。这些企业往往会以商业秘密为由拒绝向他人公开自己所设计的程序代码,这也让相对人的知情权实现进一步受阻。
2.技术垄断架空相对人的听证权
行政听证权的实现是行政正当程序中公众参与原则遵循的程序保障,指行政机关作出影响相对人权利义务决定前,相对人或利害关系人享有的就有关事实或法律问题表达意见、陈述辩解的权利。行政听证权的有效实现要求行政主体必须要设置专门的程序确保相对人能够参与,并且保障参与各方信息对称。然而,听证权的实现受到了私营企业技术垄断的阻碍。技术垄断变相回避了公众参与的听证环节,公众没有机会在行政活动中主张自身权利,更无法为行政正当提供程序性保障。
3.算法“黑箱”侵蚀相对人的救济权
行政法赋予了相对人以行政复议和行政诉讼提起权为内容的救济权,然而,算法决策不透明特性所形成的算法“黑箱”使相对人无法理解或难以理解算法自主作出决策的原因,最终导致救济权难以实现。正是算法决策的“黑箱”特征导致相对人反制能力的弱化。不仅如此,算法决策系统出错所涉及的当事人群体范围更广,情形更为复杂,此时传统行政救济措施就力有不逮。作出细微的算法偏差让相对人难以认识到具体行政行为的违法性,只能成为被迫接受错误算法决策的受害者。再者,由于算法决策程序化、批量化处理行政事务,错误决策往往涉及人数众多,损害可能很大,行政正当程序更加难以保证。
三、自动化行政中相对人免受算法决策法律保护的既有路径及反思我国行政诉讼法赋予了行政相对人拒绝权,规定行政行为作出主体、依据、内容有重大且明显违法情形的,相对人可以行使拒绝权,请求法院确认该行政行为自始不生效。由此看出,相对人主动行使行政拒绝权的前提是对“作出决策的行政主体是否具有资格、作出决策的依据是否合法、重大且明显违法情形是否存在”知情。但在算法决策嵌入行政活动时,算法成为作出决策的主体,并且由于算法的不透明特性致使相对人不能得知或无法理解算法决策作出的依据以及运作规则,这让行政拒绝权难以实现。因此,探索相对人免受算法决策法律保护新路径,使自动化行政中新型行政主体与相对人的“权力-权利”格局再平衡变得尤为重要。在实践中,各国也产生了大量个人免受算法决策判例。归纳总结,可以将这些保护措施分为禁令路径和权利路径。
禁令路径
所谓禁令路径,是指除有合法处理基础外,禁止对数据主体使用算法决策。该路径对算法决策采取了审慎使用的态度,以禁止使用为原则,以有限使用为例外。例如1998年比利时数据保护法和2009年德国联邦数据法均采用禁令路径。欧盟GDPR第22条中虽然列出了三种可以使用算法决策的例外情形,但对数据主体的自动化决策仍被普遍禁止。深度剖析,禁令路径具有以下特点:第一,这种路径侧重于法律的事前规制理念,即在立法阶段就要求禁止使用自动化决策技术或者设置严格的使用条件。第二,这种路径倾向于保护数据主体一方的利益。欧盟GDPR规定对数据主体使用完全自动化决策必须事先有法律授权或合同约定为基础,并且要数据主体明确同意。第三,这种路径目的在于解决个体怠于履行权利或行权力量弱小的困境。在实践中数据控制者与数据主体往往实力悬殊,禁令路径有利于通过约束数据控制者,达到数据主体权益获得实质保护的最终目的。
权利路径
所谓权利路径,是指法律赋予数据主体免受算法决策权,数据主体可以行使该权利保障自身权益。该路径则对算法决策采取宽容态度,更倾向于把接受自动化决策的决定权交给数据主体。我国个人信息保护法便采取了权利路径对个人免受算法决策法律保护体系进行构建,相较欧盟GDPR第22条第1款“有权不受约束”这样的模糊表述而言,个人信息保护法第24条第3款“有权拒绝”更为直观地表现为一项权利。深度剖析,权利路径具有以下特点:第一,这种路径侧重于法律的事后规制理念。个人信息保护法规定算法决策拒绝权行使的前提是该决策是“对个人权益有重大影响的决定”,侧面体现了权利保护的事后性。第二,这种路径倾向于鼓励算法决策技术的利用。数据控制者只要不违反法律强制性规定,就可以使用算法对数据主体进行自动化决策。第三,这种路径目的在于在保护数据主体权益的同时平衡人工智能科技的发展。
对两种路径的反思
基于以上分析不难看出,禁令路径和权利路径均为个人免受算法决策提供了法律保护,均认同法律介入算法决策程序的正当性。但两种路径的保护目标、方式、限度等方面截然不同。禁令路径侧重于从数据主体角度出发,围绕个人权益保护构建以事前规制为主的算法决策规制体系。权利进路则从数字产业和国民经济角度出发,在尊重个体主观意愿的前提下,构建以事后规制为主的算法决策规制体系。虽然两种路径都提供了免受算法决策法律保护,但仍有问题存在。重于保护数据主体权益的禁令路径忽略了算法决策技术被广泛应用在当前社会的客观现实。在人工智能技术迅猛发展的当下,禁止使用算法决策显然会阻碍人工智能产业的良性发展。而权利路径虽然在尊重数据主体主观意愿的基础上平衡了人工智能产业发展,但忽视了算法技术的自身局限性以及对正当程序的冲击。尤其是在自动化行政场景下,算法不透明、技术垄断等原因给以赋权救济为核心的传统法律制度带来了功能性危机。因此,构建自动化行政中算法决策拒绝权的实现路径时不能简单采用禁令路径或权利路径,应当从人工智能行业发展以及相对人权益保障衡平角度出发,构建一套遵循行政正当程序、保障公众参与原则、提高相对人救济能力的算法决策拒绝权实现机制。
四、自动化行政中算法决策拒绝权的实现路径
自动化行政是现代人工智能技术与政府行政管理的结晶,是科学技术融合发展应用综合作用的体现,正日益成为社会管理的新型力量。从自动化行政发展与相对人权益保护平衡角度出发,寻求构建个人免受算法决策法律保护体系新方式变得尤为重要。因此,融合目前现有的禁令路径和权利路径,结合自动化行政实际,形成一套多元的贯穿于事前、事中、事后全过程的相对人算法决策拒绝权制度才能解决当下算法决策应用于自动化行政产生的现实问题。在构建相对人算法决策拒绝权制度法律框架下,至少应当从地位厘定、立法跟进、程序保障和责任倒追角度出发。
地位厘定:明确行政机关主体地位与算法工具属性如前文所述,算法决策正在逐渐超越工具属性,有超越、替代行政机关成为新型决策主体的趋势。算法决策自身具有的局限性在自动化行政中被放大,逐步侵蚀相对人的各项权利,因此重申行政机关主体地位和明确算法决策技术工具属性是实现相对人算法决策拒绝权的首要任务。
1.明确行政机关的主体地位
算法歧视造成的决策不公仍是当下难以解决的现实问题之一,解决公权力中算法歧视问题的关键不在于通过技术手段的革新避免或根治算法中的歧视性因素,在于如何从权力层面防止算法歧视直接作用于相对人。换句话说,行政主体必须直接介入算法决策过程之中并且掌握对算法决策的质疑权和否定权,防止歧视性算法决策上升为算法权力,就能预先防止算法歧视对相对人权益的侵害。欧洲委员会以及欧盟专家组在针对算法决策应用进行讨论时采用了“人在环路”的设计理念,强调算法决策应用下的场景中也不能完全切断人与人之间的联系。随着欧盟路径在国际上影响力的扩大,“人在环路”理念也逐渐体现在各国立法之中。“人在环路”理念要求数据控制者必须参与进算法决策的过程中进行有效干预,解决算法决策自身存在的局限性。因此,基于“人在环路”理念必须明确行政机关主体地位,即行政主体人工干预算法决策以弥补算法决策技术的局限性。
2.明确算法决策技术的工具属性
算法决策技术作为辅助工具在自动化行政应用中呈现多种样态,例如在部分自动化行政中,算法决策通过收集和处理海量数据进行分析得出初步结论供行政机关作出最终决策。在完全自动化行政中,算法决策技术虽然可以全过程自主处理,但相应的行政主管机关仍应保持监督和否定的能力。因此,不论是算法决策技术辅助决策还是自主决策,都应明确其辅助工具地位。
立法跟进:构建行政法上的算法决策拒绝权制度在传统行政中,相对人可以基于自身判断决定是否申请行政主体回避,以避免因行政主体个人偏好以及利益相关所带来的行政不公。例如行政许可法第48条第3款和行政处罚法第43条均对“申请回避”作出了规定。算法设计者、开发者本身带有的偏好以及数据样本偏差所带来的算法歧视等因素也能成为相对人申请回避的原因,但算法决策的不透明所产生的算法“黑箱”令相对人难以进行回避判断,导致在自动化行政中,相对人申请回避制度略显滞后。因此,为了维护相对人在自动化行政中主体地位,保证自动化行政符合行政程序正当性要求,构建自动化行政中相对人对算法决策的回避制度,即算法决策拒绝权制度。上文所述的自动化行政中相对人免受算法决策法律保护的禁令路径和权利路径均有其不足之处,需要引入平衡论理念,在充分考虑相对人个人利益和公共利益之间平衡的基础上,按场景划分,在立法层面上构建相对人算法决策拒绝权分级实施路径,采取相对实用主义来设计制度解决方案。当一项权利对相对人来说极为重要时,也意味着这项权利有着很强的人身关联性,法律就应当防止算法决策对相对人的侵害。相反,当算法决策应用在某些场景中可以带来更大的社会效益,在符合比例原则的前提下,可以对相对人行使算法决策拒绝权作出限制。
近年来,实务界也在探究算法决策拒绝权分级实施路径的实现办法。加拿大在2019年颁布《自动化决策指令》,从个人权利、社会治理、社会经济发展、环境生态的可持续性等几个场景出发将算法决策后果划分为可逆且暂时的影响、可逆的短期影响、难以逆转的持续性影响和不可逆的永久性影响四类,从而对算法决策作出规制,这一思路对我国制定该规则有一定的参考价值,但仍需进一步深化。本文将算法决策拒绝权分级实施路径按场景分为三类。第一类,在算法作出决策会对相对人生命权、人身自由等重大权利或对社会经济发展、生态环境的可持续性产生重大影响的场景中,所谓重大影响是指该决策可能产生不可逆转或难以逆转的永久性或长期影响,此时相对人有权直接行使算法决策拒绝权。对生命权、人身自由等权利的处分和限制必须要有人的参与,作出这种决策不仅要严格依据法律,还要结合情理,要求决策者具有高度的同理心,而算法程序难以作出人情国法相统一的决策。此外,对社会经济发展、生态环境的可持续性产生重大影响的事项复杂且涉及利益广泛,稍有不慎就产生不可逆转的后果。第二类,对相对人权利或者社会治理产生一般影响,所谓一般影响是指该决策可能产生可以逆转的短期影响,此时相对人可以有条件地行使算法决策拒绝权。即相对人在行政主体履行告知和解释说明义务之后,可以基于自身判断通过申请的方式行使拒绝权。第三类,对于不涉及价值判断的行政事宜,如事实性问题识别、证据固定等,对相对人的相关权益造成的影响较小,并且可以很大程度上提高行政事务的处理速度,此时相对人的权利应让渡于公共利益的实现。在个案中相对人因此受到损害的,仍可以通过行政复议或行政诉讼等传统方式获得救济。
程序保障:深化自动化行政行为的正当程序要求行政程序的正当性是推动国家法治发展和保障公民合法权益的前提,算法决策应用在自动化行政中依然要符合正当程序的要求。如前所述,算法的不透明性、算法决策技术垄断以及算法“黑箱”等因素很大程度上阻碍相对人权利的实现,传统行政正当程序的要求已经束缚不了算法决策技术。因此,与时俱进地深化自动化行政行为的正当程序要求以规制算法决策应用是重中之重。
1.公开透明,打破算法“黑箱”,保障行政相对人的知情权算法“黑箱”所导致的关键问题就是公众无法观察理解算法的内容和运行程序,打破算法“黑箱”的首要条件就是主动公开,推动算法决策技术的透明化。从过程角度来看,算法决策技术嵌入行政活动是一个动态的、持续性的过程,构建公开透明的政府算法治理形态必须要实现全过程的算法透明。第一,算法决策治理的透明化。它包括以下两个方面:一是算法决策治理的政策透明。算法决策技术与政府管理活动的耦合所产生的新风险促使政府算法决策治理政策出台。政府在制定政策时应考虑透明性价值,主动公开算法决策治理政策制定过程及成果,让公众了解政府算法决策治理中应遵守的权责规范。二是算法决策技术委托透明化。如上文所述,算法决策技术的专业性使得政府倾向于委托专业技术企业开发设计,在此过程中,政府必须公开所委托企业的名称、资质等信息,方便公众对该企业了解和监督。第二,算法决策研发的透明化。算法程序设计、数据采集等技术过程构成了算法决策研发,该研发的透明化也应按过程展开。一是算法程序设计透明化。算法程序设计是算法决策运行程序的规划,具体包括决策主体、目的、流程、结果预期等,公布这些信息也有利于公众对算法决策的了解和监督。二是政府数据采集的透明化。政府必须保障公众对自身数据如何被采集和利用的知情权,向社会公开算法决策中的数据来源、类型和安全管理规范。第三,算法决策应用的透明化。一方面,政府必须公开算法决策场景应用及服务主体。算法决策技术嵌入税务、交通、教育、健康等领域,其服务的主体、设施、规则、技术标准等信息应当被公众所获悉。另一方面,算法决策应用的结果透明化。算法决策的结果往往关涉到个人的切身利益,必须向相对人公开,保障其知情权。
2.听取陈述、申辩,引入算法决策评估程序,保障行政相对人的听证权算法程序所作出的决策也应当允许提出质疑和挑战。在当下人工智能技术条件下,算法程序也会产生许多错误甚至让人无法理解的决策,歧视性代码、数据偏差等因素都会成为算法决策错误的原因。算法的“黑箱”特征让相对人难以理解甚至知晓算法决策程序错误的原因,更重要的是,具有深度学习能力的算法程序会让一个很小的错误在之后的决策程序中逐步放大。因此,必须深化自动化行政中的行政正当程序要求,保障相对人听取陈述、申辩的权利在算法时代也能顺利实现,必须允许相对人对算法程序所作出的决策提出质疑挑战。
鉴于算法决策程序作出决策的整套流程运转时间可能在毫秒甚至在微秒内,这意味着不存在采取事前听证可能性,只有事后听证才属于算法决策应用场景下的一般模式,这样一来反而缩小了相对人听证权的实现途径。为了弥补相对人行政权的限缩,可以引入算法决策评估程序,事先预防算法决策可能带来的风险。所谓算法决策评估程序,是指对算法决策程序的有效性和准确性进行事先研判,排除有瑕疵的数据以及分析算法决策使用场景的可行性,之后结合比例原则对决策过程进行风险评估的一套流程。该评估程序结合比例原则可以按以下三种评估标准进行判断:第一,适当性标准。主要是判断算法决策程序是否能够最大程度上降低歧视性代码、数据偏差等因素的影响,是否能够帮助政府实现预期目的;第二,必要性判断。政府应当研判算法决策程序适用的必要性,选择对相对人权益侵害最小的程序,最大程度上减小算法决策带来的风险;第三,平衡性判断。对算法决策程序适用将会带来的消极影响和积极影响进行预测,只有后者明显高于前者时,才投入使用。只有同时满足以上三种评估标准的算法决策程序才能被投入使用,算法决策评估程序的引入也符合欧盟所采用的“人在环路”理念,采用人为干预的方式解决算法决策程序的局限性。
3.说明理由,强调算法的可解释性,保障行政相对人的救济权算法决策程序公开透明十分重要,但是实现算法程序透明化仅仅只是创造了实现公众参与算法决策程序的条件,算法透明化本身不是目的,是通往算法可理解化的阶梯。前文所述,相对人由于算法的“黑箱”特征难以理解算法决策程序的运转模式,行使算法决策拒绝权等救济权难度增大,因此,需要强调算法的可解释性,增强算法的可理解程度。个人信息保护法第24条第3款前半句规定了个人有要求算法决策使用者针对算法决策运行规则和逻辑进行解释的义务,该项权利与算法决策拒绝权应是并列的关系。该条款同样适用于自动化行政场景下,也即相对人既可以选择要求行政主体解释算法决策程序,也可以选择行使算法决策拒绝权,这从某种程度上来说,增加了相对人行使救济权的途径。
为保障自动化行政算法解释规则的实现,必须要从规则上构建行政主体解释算法决策程序的义务和解释程序。首先,行政主体是算法决策程序解释的直接承担者,即便在算法外包的情况下,也不得以商业秘密为由来对抗相对人。其次,算法解释规则的实现程序是:先由相对人对算法决策过程或结果提出异议,再由行政主体采取启动事后监督的模式对程序进行解释。行政主体应对算法决策程序的输入端和输出端均进行监督并解释。最后,行政主体应当提供算法决策程序的追踪记录,追踪记录中包含了算法决策的运转规则和依据,以及评估程序等数据,确保算法决策程序具有可追溯性,也是算法解释规则实现的重要保障。
责任倒追:确立自动化行政算法决策的责任规则算法决策过程中的公开、告知、解释说明、听取陈述申辩等程序的不履行或不正当履行以及错误决策后果均会引发责任承担问题,但算法决策应用于自动化行政带来了巨大的问责漏洞,当前的责任规则难以确定责任主体和划分责任范围。一方面,技术外包成为行政机关逃避责任承担的借口。前文介绍过由于算法决策技术的复杂性和专业性,多数行政机关将其外包给一些技术性企业完成程序的开发与设计,在追责时,行政机关倾向于将责任推卸给企业,甚至是算法技术本身。另一方面,技术垄断成为追责时难以突破的“高墙”。企业往往会以“技术中立”或商业秘密等理由拒绝承担算法决策过程中所应当承担的各项责任。基于此,法律应当对算法决策所产生的责任重新分配,确立自动化行政算法决策的责任规则,使其适应算法时代的发展。
1.明确算法决策技术外包情况下的责任主体界定在技术外包的背景下,极易发生责任主体界定模糊的情况,自动化行政算法决策责任规则的确立,首要任务是确定算法决策技术应用的政府和算法决策技术开发的企业之间的责任关系,只有先正确界定责任主体才能划清责任范围。在实践中,政府可以与企业协商共同研发,也可以直接向企业采购成熟的技术试运行后便投入使用,事实上后者是政府更倾向于采用的方式方法,这样可以将潜在的责任一并外包出去,达到责任转移的目的,这一行为也被称之为“算法卸责”。但“算法卸责”所引发的责任缺失和问责落空等的消极影响遭受到学界质疑,有学者建议引入政府行为理论,并提出三个判断标准:第一,职能标准。当算法决策完全承担了传统政府履行的职能时,程序的开发、设计者应当成为责任主体;第二,强制性标准。算法决策技术的开发、设计是否受到国家的强制性规定约束,若有强制性规定,便以此规定确定责任主体;第三,联合参与标准。在算法决策程序开发与设计过程中,政府与企业的行为是否普遍地结合,结合则可视为共同行为者。以上三个判断标准目的在于将影响政府决策的开发者、设计者界定为责任主体,政府也因此难以将责任完全推卸给企业。裴亚楠、马颜昕等学者认为算法决策行为法律意义上的主体仍然是公权力机关,开发、涉及算法决策程序的企业只不过是起着便利公权力机关完成行政管理等事务的辅助作用。因此,在算法决策技术应用于自动化行政的情况下,责任主体仍然应以行政机关为主。当然,要求政府承担起算法决策技术外包情况下的责任还需要制定法律法规,将算法决策技术应用于自动化行政中的权责和义务明确界定。2.明确算法决策程序运转过程中的责任范围划分责任主体界定之后,具体的责任范围还需要明确划分。第一,行政机关有实现算法决策程序公开透明,保障相对人知情权实现的义务。算法决策程序从一开始的设计、开发到最终的投入使用,行政机关应保障其全过程的公开透明。第二,行政机关负有算法解释责任,保障相对人救济权的实现。算法的专业性和复杂性让行政机关倾向于采用外包的形式开发,但这并不意味着行政机关可以逃避解释说明的义务。第三,行政机关负有算法决策程序评估、便利相对人在自动化行政中听证权实现的责任。自动化行政对政机关履行事前、事中、事后监督提出了更高程度的要求。第四,行政机关作为算法决策程序的直接责任主体,负有接受相对人算法决策拒绝权的责任。相对人拒绝行政机关采用算法决策程序作出决策,行政机关应当及时派专人干涉算法决策。
结语
以算法决策为代表的新一代人工智能技术日新月异,在政府管理、社会治理和公共服务中产生了深远的影响。尽管当前政府对算法决策技术的使用尚处于早期发展阶段,但从长远来看,先进且复杂的算法决策技术嵌入更多行政管理活动成为一种必然的趋势。在此背景下,我国自动化行政建设进程持续提速,公权力的运行和个人权利的行使间的平衡被打破,新的平衡格局终会形成。当公权力因为算法技术的应用而得到扩张的时候,个人权利的行使也应当受到加强和保障,公民有权利期待政府采取更加信赖的方式方法进行行政管理活动,也有权利参与行政管理活动中,由此,个人脱离算法决策的权利必须得到实现。行政机关应当在自动化行政发展进程中保持守正创新,一方面,深化行政正当程序要求,始终坚持行政法治的价值理念;另一方面,推动公众参与在自动化行政中创新发展。只有这样,数据法治政府建设才能不断推进。
我要收藏
个赞
评论排行