林睿尧丨论算法自动化决策中“不合理的差别待遇”的认定|以大数据为基础的算法自动化决策逐步融入生活的方方面面
【ZiDongHua 之人文化天下收录关键词:林睿尧 算法自动化决策 算法 自动化决策 个人信息保护法 智能决策 】
林睿尧丨论算法自动化决策中“不合理的差别待遇”的认定
林睿尧
中央财经大学法学院硕士研究生
要目
一、问题的提出
二、不合理差别待遇规则的基本构造及主要问题
三、不合理差别待遇概念的厘清
四、不合理差别待遇的具体认定方法
结论
个人信息保护法第24条第1款规定了禁止不合理差别待遇规则,但是该款没有厘清不合理差别待遇概念的具体内涵外延,同时也缺少具体的判断标准,在实践中一方面导致当事人举证困难而难以得到救济,另一方面导致该条款难以适用而被架空。对此,应在区分其他近似概念与不合理差别待遇概念的基础上,将其界定为“以自动化决策为前提、以‘合理’为衡量标准、以算法个性化定价为典型表现形式且无涉身份权的算法偏见”。在此基础上,可以通过透明度标准和公平性标准共同作用于不合理差别待遇的认定,通过动态体系论对透明程度、选择其它信息处理者的难度和信息偏在程度、是否符合行业惯例、产生的风险大小等诸要素进行考量,综合认定不合理差别待遇,以求降低当事人举证难度、平衡保护数据提供者和数据处理者的合法权益。
一、问题的提出
近年来,我国数字经济发展迅猛,以大数据为基础的算法自动化决策逐步融入生活的方方面面。其在带来便利的同时也产生了不合理差别待遇、算法偏见、大数据杀熟等诸多争议。根据北京市消协发布的大数据“杀熟”调查结果来看,高达88.32%的被调查者认为大数据“杀熟”现象普遍存在,有82.54%的被调查者认为“杀熟”会透支消费者信任,而仅有1.16%的被调查者认为会提升用户消费体验。因此,法律应当及时对不合理差别待遇、大数据杀熟进行规制,以在个人信息的保护与合理利用之间形成适当的平衡。
虽然我国学理上对不合理差别待遇、大数据杀熟的概念、性质等内容仍存在较大争议而未形成普遍共识。但在司法实践中,我国已经相继出台了不少规制“不合理的差别待遇”的指导性文件和规范性文件,前者包括《国务院反垄断委员会关于平台经济领域的反垄断指南》《浙江省平台企业竞争合规指引》等,后者包括《在线旅游经营服务管理暂行规定》《关于加强网络预约出租汽车行业事前事中事后全链条联合监管有关工作的通知》《互联网信息服务算法推荐管理规定》及价格法、反垄断法等。在此基础上,个人信息保护法第24条第1款明确规定禁止不合理差别待遇规则,将之前的法律实践经验予以了合理吸收和承认,整体上有利于对基于个人信息的自动化决策进行必要规制。这些规范性文件虽然从不同的角度对不合理的差别待遇进行了规制,但整体上都缺乏对“不合理差别待遇”概念的内涵及外延的明晰界定,导致司法实务中难以统一认定何谓不合理的差别待遇,实务上通常只能进行个案分析进行认定,但这一做法在实践中经常存在不适当提高交易相对人的举证难度,并降低法律适用的确定性的问题,难谓合理。在个人信息保护法适用的大背景下,下文拟在归纳整理禁止不合理差别待遇规则基本构造及其主要问题的基础上,对个人信息保护法第24条第1款规定的“不合理的差别待遇”展开研究,并将讨论的问题聚焦于两方面:一是厘清“不合理差别待遇”的具体内涵;二是明确“不合理差别待遇”的判断标准、考量因素及其作用方式,希冀以此推动关于不合理差别待遇认定标准的共识的形成,从而增强第24条的可适用性。
二、不合理差别待遇规则的基本构造及主要问题
数字时代算法自动化决策导致的差别待遇并不鲜见。对此,价格歧视说认为,个性化定价属于经济学意义上的价格歧视,本身并无贬义。该说认为,一般情况下应当由市场进行调节,如果过度强调运用“有形的手”进行规制而忽视市场作用,那么政府失灵可能成为一种成本高昂的替代。在此意义上,《反垄断指南》第17条规定了数种豁免情形,体现了对市场自我调节的尊重。但在“不合理”价格歧视的语境之下,经营者能够通过价格歧视掠夺消费者,由于消费者对经营者的信任,这种不合理的差别待遇带来的不公平感会极大地增加对经营者的反感,透支消费者的信任并引发信任危机。与价格歧视说不同,算法权力滥用说认为,作为差别待遇核心的算法体现的是设计者和运行者的个人意志和私人利益,经营者利用数字鸿沟所产生的信息不对称的绝对优势精准识别用户画像,并利用消费者对平台的信任和信息的缺乏,对消费者进行掠夺。
从两种学说的共性来看,不论是价格歧视说还是算法权力滥用说,一方面都承认算法自动化决策差别待遇存在的合理性,另一方面也都认为在“不合理”的情况之下,消费者会被掠夺并产生信任危机,对市场经济产生负面影响,因此需要对不合理的差别待遇进行规制。也正是在此背景下,我国个人信息保护法第24条第1款对算法自动化决策的不合理差别待遇作了明确规定。
个人信息保护法中不合理差别待遇规则的基本构造
如前所述,个人信息保护法第24条第1款明确禁止自动化决策领域不合理的差别待遇。在该条的制定过程中,对于究竟应当如何具体表述,曾存在争议。例如,个人信息保护法(一次审议稿)及个人信息保护法(二次审议稿)中均将之表述为“利用个人信息进行自动化决策,应当保证决策的透明度和处理结果的公平合理”,将算法领域的自动化决策与决策的公平合理联系起来,有助于保护个人信息权人特别是消费者,但这种表述是否会影响个人信息处理者的行为自由,导致对个人信息利用的过度负担,使利用与保护二者的平衡关系被破坏,在理论与实务上存在分歧。因此,个人信息保护法第24条第1款在保持之前审议稿条文内容的基础上,增加了“不得对个人在交易价格等交易条件上实行不合理的差别待遇”。这一方面承认个人信息处理者在利用个人信息进行自动化决策时可以进行合理的差别待遇,有利于数字时代对个人信息进行合理利用的主题,也与个人信息保护法第1条追求的个人信息的保护与利用应予平衡的目标相一致。另一方面,个人信息保护法第24条增加禁止不合理的差别待遇的表述,在现行个人信息保护法律体系中,与《在线旅游经营服务管理暂行规定》、《关于加强网络预约出租汽车行业事前事中事后全链条联合监管有关工作的通知》、《互联网信息服务算法推荐管理规定》、反垄断法、价格法等规范性文件中关于禁止不合理差别待遇的规则一致,具有体系上的协调性,符合现行法秩序关于外在体系应衔接一致而无冲突矛盾之虞的基本要求,应予肯定。
从个人信息保护法第24条第1款的具体内容来看,该款规定属于义务性规则,其中前半句明确了个人信息处理者的应为事项,属于命令性规则,后半句禁止个人信息处理从事不合理的差别待遇行为,属于禁止性规则。这种正面要求与反面禁止,双向结合的义务性规则,从内容上划定了个人信息处理者利用个人信息进行自动化决策的自由限度,即其可以利用个人信息进行自动化决策,但此种利用应当符合法律的要求,并且禁止为特定行为。因此,从第24条第1款的具体内容出发,可以将本条的内在结构区分为“一体两面”:
所谓“一体”即“个人信息处理者利用个人信息进行自动化决策”,明确个人信息处理者可以利用个人信息进行自动化决策,赋予了个人信息处理者利用个人信息的自由,并且明确了该款调整对象为利用个人信息进行自动化决策的行为,即利用个人信息形成数据画像以“分析、评估、并进行决策”的行为,不属于该行为的不在本款的涵摄范围;所谓“两面”,包括正面命令与反面禁令,为个人信息处理者处理个人信息的行为自由设定限制,从而在个人信息的利用与保护之间实现平衡。其中,正面命令即“应当保证决策的透明度和结果公平、公正”,规定了个人信息处理者的当为内容,要求个人信息处理者利用个人信息进行自动化决策时,必须满足法律明确规定的关于决策过程与结果的基本要求,具体表现为过程透明,结果公平、公正;反面禁令即“不得对个人在交易价格等交易条件上实行不合理的差别待遇”明确了个人信息处理者在利用个人信息进行自动化决策时的自由界限,强化对个人信息的保护。
从个人信息保护法第24条第1款规定的前述内容及其基本构造来看,其主要是关于个人信息处理者利用个人信息进行自动化决策的规定,在法律规则的具体构造上表现为行为模式,因此该款要发挥对相关行为展开法律效果评价的规范作用,还应当与其他规定法律效果的条款相结合,共同发挥创设法效果的作用。
不合理差别待遇规则理解与适用中存在的主要问题
从个人信息保护法第24条第1款的具体内容及相应的核心概念使用来看,由于不合理差别待遇规则理解与适用的核心判断标准即过程方面的要求与结果方面的要求都具有抽象性而缺乏具体的内涵,导致不合理差别待遇规则在实践中适用标准难以统一,既影响司法裁判的权威性,也不利于个人信息保护法第1条所追求的个人信息保护与利用的平衡。
1.不合理差别待遇规则过于抽象导致的缺乏现实可操行问题
除个人信息保护法第24条第1款外,现行法秩序下还有其他规范性文件对不合理差别待遇进行了规定,如2020年出台的《在线旅游经营服务管理暂行规定》第15条对不合理差别待遇做了比较明确的规定,2022年8月新修订的反垄断法第9条以及第22条第2款等将对算法、大数据运用领域的自动化决策问题作了概括性规定,体现了现行法秩序下个人信息保护法律规则对于利用个人信息进行自动化决策领域的不合理差别待遇现象的关注,整体值得肯定。存在的问题是,这些规范性法律文件虽然在关于自动化决策领域的不合理差别待遇规定上采用了类似的表述,即将不合理差别待遇表述为“利用算法自动化决策对交易价格等交易条件上实施不合理的差别待遇”。但对于该规则具体适用所涉及的核心概念,即个人信息保护法第24条第1款命令性规则中的“决策透明度”“结果公平、公正”的判断,却缺乏具体的可操作的标准,“决策透明度”具体到什么程度,如何判断,“结果公平、公正”涉及的考量因素为何,如何使这些考量因素相互作用以展开相应的法律效果判断,都需要进一步明确。
2.不合理差别待遇规则的适用范围有限或不清晰问题
在现行法秩序下,关于利用个人信息进行自动化决策的法律规范,除个人信息保护法第24条外,还散见于其他规范性法律文件,但这些规范性法律文件中的规定普遍存在适用范围有限或不清晰的问题。例如,《在线旅游经营服务管理暂行规定》《关于加强网络预约出租汽车行业事前事中事后全链条联合监管有关工作的通知》《互联网信息服务算法推荐管理规定》等规范性文件虽然明确禁止不合理差别待遇,但是其适用范围仅集中在“旅游经营”“网约车”“算法推荐”等领域。新修订的反垄断法第17条以及相应的反垄断指南第17条则要求受不合理差别待遇规则调整的主体是“具有市场支配地位的平台经济领域经营者”。个人信息保护法虽然可以作为利用个人信息进行自动化决策领域关于禁止不合理差别待遇的一般规则,但其将适用对象限制为个人信息的处理者,这是否会导致该条的适用范围受限,同样存在疑问。
3.不合理差别待遇规则适用中存在的举证难及其被架空的问题
在司法实践中,“算法黑箱”的存在导致对不合理差别待遇判断困难,集中体现在个人信息权人难以证明不合理差别待遇的存在。例如,在“携某机票重搜贵1500元案”中,当事人预订机票之后又取消了预定,但是在航空公司官网显示机票充足的情况下,作为第三方交易平台的携某却显示没票、只能以加价1500元的价格购买。经用户反馈后携某发布了“致歉及情况声明”,但其不承认“杀熟”,而是声称是“由于程序BUG”所导致。在“刘某诉北京某某科技有限公司”案中,原告声称“在同一时间、同一骑手手中取得外卖,但是却多支付了1元配送费”,因此主张被告利用大数据对其实行不合理的差别对待,应当进行道歉、赔偿。法院认为,原告负有对差别待遇行为的举证责任,然而原告仅提出“多出1元的证据”,且法院认为“关键的下单时间不一致、被告对配送费动态调整是正常经营行为”,因此驳回了原告的诉讼请求。从此类案件可以看出,由于自动决策的算法具有高度专业性及秘密性,当事人难以接触到算法本身,并且也很难通过算法举证存在不合理差别待遇的行为,导致当事人陷入举证不能的境地。同时,处于优势地位的商业平台往往采用保护商业秘密、程序本身BUG、交易成本浮动导致售价不同等理由进行抗辩,使当事人主张的“不合理差别待遇”事实处于真伪不明的状态。
在“胡女士诉携某APP”一案中,原告多次通过携某预订酒店酒店,在通过携程支付某酒店的价款时发现该价款为2889元,为该酒店官方网站价格的两倍,因此以“大数据杀熟”为由诉至法院要求赔偿。法院经审理认为,携某APP自动收集用户的个人信息包括用户的其他订单信息形成用户画像,对于“预定酒店”的行为并不具有必要性,因此以侵犯个人信息为由支持了原告的诉讼请求。从本案可以看出,虽然被告存在“大数据杀熟”的行为,但由于该行为原告举证难度较大、法院认定难度较高,法院并没有直接对该行为进行认定,而是通过民法典第1034条以及个人信息保护法第6条认定被告不合理收集个人信息进而对原告的主张进行支持。换言之,法院主要运用“信息采集”环节的规定即“最小化原则”对不合理差别待遇进行规制,虽然在个案中也能起到保护交易相对人的作用,但是此类规定与第24条第1款所处的“算法定价歧视”环节不同,绕开了对不合理差别待遇的判断,可能会导致该条款在司法实践中被架空。
小结
从个人信息保护法第24条第1款的表述来看,在利用个人信息进行自动化决策时,应当区分对待因此产生的差别待遇。其中,合理的差别待遇可能提高社会福利,很多情况下差别定价是有益的,同时算法也涉及企业的商业秘密等合法权益的保护问题,因此不应当对自动化决策领域的差别待遇采取“一刀切”的方法禁止。个人信息保护法第24条第1款事实上对此亦予承认。但不合理的差别待遇会使消费者合法权利受到贬损,并导致消费者与经营者之间的信任危机。因此,个人信息保护法第24条第1款禁止不合理的差别待遇。从个人信息保护法第24条第1款对差别待遇采取的区别处理的立场出发,对于该条确立的不合理差别待遇规则的认定标准应当围绕“合理”与“不合理”的认定展开。另外,从不合理差别待遇的涉及的主体看,主要涉及经营者以及终端消费者,因此在设计不合理的差别待遇的认定标准时,应当平衡经营者的商业秘密保护、增进商业利益以及终端消费者的合理利益;从个人利益和社会利益看,应当平衡自动化决策为经营者、消费者创造的利益以及对于消费者个人利益的保护和对市场秩序的保护。因为“当规范使各种对社会利益的冲突要求之间有一恰当的平衡时,这些制度就是正义的”。亦即言,设计相关的认定标准应当以利益平衡为目标,形成一种“平衡的正义”。但是,从个人信息保护法第24条第1款规定的禁止不合理的差别待遇规则本身及其在司法实践中存在的问题可以看出,由于现行法对不合理差别待遇的规定较为模糊,缺乏明确的认定标准,导致难以认定不合理差别待遇的存在与否,甚至导致第24条第1款被架空。因此,下文即以前述问题为基础展开研究,为利用个人信息进行自动化决策的不合理差别待遇规则的理解与适用提供可供操作的标准。
三、不合理差别待遇概念的厘清
作为现行法秩序外在体系之基本构成的具体法律规则,系由若干基础概念依特定规则结合而来,因此理解具体法律规则以对作为其基础构成的法律概念理解为前提。对于利用个人信息进行自动化决策的不合理差别待遇规则,学理上的争议焦点亦首先在于如何界定不合理差别待遇的具体内涵及外延。因此,对于不合理差别待遇概念的厘清可以从个人信息保护法第24条第1款的基本构造以及与其他相似概念的比较的角度入手进行界定。
不合理差别待遇概念的核心构成概念
从个人信息保护法第24条第1款的具体规定来看,涉及的核心概念有三:“自动化决策”“合理”“不合理的差别待遇”。
其中,“自动化决策”是数字时代兴起的新概念,主要是指以算法、大数据为基础,利用个人信息对个人的习惯、兴趣爱好、经济状况等,利用算法自动分析、评估并进行决策的活动。从该内涵可以看出,自动化决策主要包括两方面内容,其一是以个人信息为核心的大数据,其二是由计算机运行的、以“把输入转换成输出的计算步骤的一个序列”为内涵的算法。因此,在对利用个人信息进行自动化决策场合的不合理差别待遇的规制,首先触及的即是个人信息处理行为自由与个人信息权益保护的界限问题。
“合理”是对差别待遇程度的要求,从个人信息保护法第24条第1款规定的命令性规则内容来看,利用个人信息进行自动化决策是否“合理”的主要判断标准有二:一是过程方面的要求,为“决策透明度”标准;二是结果方面的要求,为“结果公平、公正”标准。从过程方面的要求看,人工智能算法具有不公开、不透明的特点,被称为“算法黑箱”,与本款命令性规则中要求的“透明度”标准相冲突。事实上,随着商业秘密的范畴不断扩大,算法也纳入了商业秘密的保护范畴,企业可以以保护商业秘密为由,拒绝公开算法,这就增大了算法领域“透明度”标准实施的难度,并且一味的要求增加算法“透明度”也与保护企业合法权益的目的相冲突。从结果方面的要求看,利用个人信息进行自动化决策的结果公平、公正,是保护个人信息权人以及社会公众利益的必然要求,其以算法“透明度”要求为前提,原因在于如果不要求算法具有一定的透明度,个人信息权人以及社会公众即使受到了不合理的差别待遇也会存在举证难度过高等问题,难以通过个人信息保护法第24条第1款进行救济。亦即言,“合理”的概念应当包括过程上的透明度要求以及结果上的公平、公正要求,两者相互结合才能使本条具有可适用性。
“不合理的差别待遇”包括“差别待遇”与“不合理”两个层面,其中“不合理”的判断标准与本款命令性规则中的“合理”一致,方向相反。而“差别待遇”主要指向不同的交易条件。从个人信息保护法第24条第1款规定的“禁止性规则”所处采用的立法技术来看,其主要采用了列举+概括的模式,具体列举了交易价格这样的交易条件,并将该交易条件通过“等”向丰富的社会生活开放,以涵摄数字时代各式各样的差别待遇。因此,本款规定的交易条件上的差别待遇首先表现为交易价格的差别待遇,在当前的法律实践中主要表现为大数据“杀熟”或者“个性化定价”。但是,本款规定的交易条件的内涵并不只包含交易价格,还包括其他在交易过程中所涉及的要素。例如,依据《国务院反垄断委员会关于平台经济领域的反垄断指南》第17条规定,差别待遇包含交易价格等交易条件、差异性标准、规则、算法以及差异性付款条件及交易方式。因此,除交易价格之外,交易过程中的交易规则、付款条件及交易方式、甚至于提供的服务都可以构成本款所规定的“交易条件”的内涵。
不合理差别待遇概念所涉相似概念的厘清
在不合理差别待遇概念理解与适用中,主要涉及三组相似概念:一是与算法偏见的关系。在实践中,不合理差别待遇以自动化决策为前提,而自动化决策的主要内容为算法与大数据。由于算法运作过程中可能会存在偏见,导致算法结果偏见,其与不合理差别待遇的表现相似,因此需要进行区分。二是在大数据收集、推送的过程中会产生侵害公众合法权益的情形,不合理差别待遇又以大数据为前提,因此也需要区分其与信息茧房概念的关系。三是从不合理差别待遇的外在表现看,交易价格上的差别待遇是典型的表现形式,其与大数据杀熟、个性化定价、价格欺诈等概念近似,如何区分,亦需考虑。
1.与算法偏见的关系
算法偏见由两部分组成,包括算法和偏见。如前文所述,算法以数据驱动为核心,是将输入的数据转化为符合某种需求的输出结果的计算步骤。偏见与歧视含义相似,二者均包含了对部分群体的负面反应、评价的含义。学理上对算法偏见有诸多不同的划分方法。例如,从导致算法偏见的成因看,可以划分为输入数据相关的偏见以及算法自身的偏见;从是否涉及身份权看,可以划分为涉及身份权的算法偏见和无涉身份权的算法偏见;从损害主体和涉及的利益范畴看,可以划分为损害公众基本权利的算法偏见、损害竞争利益的算法偏见、损害特定个体权益的算法偏见;从大数据的挖掘和使用方法看,可以划分为偏见代理的算法歧视、特征选择的算法歧视、大数据“杀熟”。比较这些不同标准的划分类型可以发现,算法偏见产生的原因主要包括输入数据所带来的偏见和算法自身的偏见,其包含了诸多表现形式,例如个性化定价、基于性别、种族的算法歧视等。个人信息保护法第24条第1款规定的不合理差别待遇的概念的核心为“交易条件”,其产生的原因与算法偏见相同,均由输入数据的偏见或算法设计的偏见所导致,表现形式为算法偏见的一种,主要表现为“无涉身份权、损害个体利益的偏见”。因此,可以认为不合理差别待遇包含于算法偏见这一概念之中,是算法偏见的一种具体表现形式。
2.与信息茧房的关系
从算法的运用机制看,利用算法歧视消费者可以划分为信息采集、特定推送、定价算法歧视三个环节。其中,信息采集阶段是特定推送阶段以及定价算法歧视阶段的前提,特定推送阶段与定价算法歧视阶段属于平行关系。在特定推送阶段,在商业平台的利益驱使以及算法推荐引擎的影响下,将不可避免地产生了信息茧房效应,在信息茧房中的个体基于算法只能接收到同类型的信息,这也就间接减损了其本应享有的知情权。虽然信息茧房效应以及定价算法歧视均是在利用算法的过程中所产生,但是其表现形式、产生的危害各不相同:信息推送阶段涉及信息茧房问题;个性化定价问题则位于定价算法歧视环节。个人信息保护法第24条第1款所规定的不合理差别待遇以交易条件的差别待遇为表现形式,而交易条件处于算法行为机制的定价算法歧视环节,无涉特定推送环节。因此,不合理差别待遇与信息茧房分属于不同的算法运行环节,其运行机制、产生的后果均不相同,两者属于平行关系而不具有直接联系。
3.与大数据杀熟、个性化定价、价格欺诈的关系
大数据杀熟指的是个人信息处理者以其掌握的用户信息为基础,利用大数据技术形成用户画像,通过算法自动化决策对消费市场进行划分并对终端消费者进行个性化定价的行为,主要表现为用户多次浏览价格上涨、会员价高于非会员价、不同品牌手机不同价格等。个性化定价与大数据杀熟高度一致,是以大数据杀熟为典型表现的价格歧视行为,个性化定价是大数据杀熟的“官方名称”。如前文所述,不合理差别待遇的典型表现为个性化定价,此外还包括了其他诸多交易条件上的差别待遇。因此,个性化定价以及大数据杀熟是不合理差别待遇的一个子概念。此外,不合理差别待遇的典型外在表现形式也与价格欺诈相近。有观点认为大数据杀熟违背了诚实信用原则,侵害了消费者的知情权和公平交易权,是一种“新型价格欺诈行为”。民法典第148条对欺诈进行了规定,其以欺诈方实施欺诈行为为构成要件,主要表现为故意陈述虚假事实或故意隐瞒真相的行为。《禁止价格欺诈行为的规定》及其相关解释也对价格欺诈行为进行了阐述,价格欺诈行为的外在表现为“通过标价或者价格手段虚构事实、隐瞒真实情况”。在不合理差别待遇的语境下,由于经营者与其他消费者进行的交易价格不属于消费者知情权的内容,经营者利用自动化决策形成的个性化价格不存在“隐瞒真实情况”的情形,消费者也没有据此而陷入错误认知,因此不合理差别待遇不属于“价格欺诈”的范畴。
小结
综上所述,个人信息保护法第24条第1款所规定的“不合理差别待遇”概念以自动化决策为前提,以“合理”为判断标准,以“无涉身份权的算法偏见”为内涵,其属于算法偏见的诸多表现形式的一种,以“大数据杀熟”“算法个性化定价”为典型表现形式,并且不包含“信息茧房”等推送阶段的内容。
四、不合理差别待遇的具体认定方法
如前所述,自动化决策领域合理的差别待遇可能会提高社会福利,并且算法本身也涉及企业的商业秘密保护问题,因此对其规制不应当“一刀切”的予以全盘否定。当然,不合理的差别待遇也会使消费者合法权利受到贬损,导致消费者与经营者之间的信任危机。这就要求,在明确不合理差别待遇的认定方法时,应重点关注两个方面的内容:一是利益的平衡处理,即认定不合理的差别待遇时,应当衡量个人信息处理者利益和终端消费者利益、社会利益和个人利益,回应个人信息保护法第1条提出的关于个人信息保护与利用的平衡问题;二是判断方法的可操作性问题,即应当明确认定时的具体要素及其相互作用方式,使法律评价的过程“去神秘化和正当化”,增加第24条第1款的可适用性,避免法官自由裁量权滥用可能导致的司法恣意性问题。亦即言,不合理差别待遇的具体认定方法应当以利益平衡为目标,综合考量不合理差别待遇中的诸多要素并进行价值判断,形成一种“平衡的正义”。
如上文所述,个人信息保护法第24条第1款规定了以透明度、结果公平、公正为合理性的判断标准,差别待遇应当保证“决策的透明度和结果的公平、公正”。从比较法的视角来看,在自动化决策(Automated Decision Making,ADM)的语境下,运用“透明度”和“结果公平”标准来判断自动化决策结果的合理性也并不鲜见。欧盟在2016年制定的一般数据条例(General Data Protection Regulation,GDPR)第5条第1款(a)、第13条第2款均规定了个人数据处理应当具有“公平性”、“透明性”。欧洲议会和理事会《关于改善平台工作工作条件的指令提案》在“期望达到的目标”部分明确提到,该提案的总体目标是确保“算法管理的公平、透明和问责”。加拿大政府于2019年出台的《自动化决策指令》(Directiveon Automated Decision-Making,DADM)第4.2.1条款指出“……数据驱动的决策应当符合公平性和正当性的要求。”该条款对算法决策的过程及结果持续性评估,产生的预期结果包括使自动化决策的过程具有透明度、结果具有公平性。从“透明度”和“结果公平”标准的作用来看,“透明度”主要从形式上对不合理差别待遇行为进行判断,明确了自动化决策的可追责性,将责任主体确定为利用个人信息进行自动化决策的处理者,使对算法自动化决策进行司法审查成为可能;“结果公平”主要从实质上进行判断,要求利用个人信息进行的自动化决策对其个人信息被处理的个人所产生的事实上和法律上的影响结果应当是公平公正的,不能有不合理的差别待遇。采用“透明度”和“结果公平”为标准进行判断不仅是各国的司法共识,其自身也具有合理性,因此本文采用“透明度”和“公平性”为判断标准,以此完善不合理差别待遇的认定方法。
透明度标准
透明度标准是判断不合理差别待遇的前提,使当事人举证、法院进行司法审查成为可能。透明度标准主要涉及两方面的内容:其一,个人信息处理者实现透明度的方式;其二,在保证透明度的基础上,个人信息处理者使算法透明的程度。
1.实现透明度的方式
本文认为,应当以告知同意规则为基础确立实现透明度的方式,通过告知同意规则有利于实现收集和处理个人信息过程的透明化并保证当事人同意权之行使。个人信息保护法第13条确立了告知同意规则,将告知同意规则作为个人信息处理的合法性基础,充分体现了尊重和保护民事权益的精神和意思自治原则。欧盟一般数据条例第6条中也规定了告知同意规则,要求处理个人信息以同意为原则。由于不合理差别待遇以自动化决策为前提,其属于“数据处理”的范畴,因此不合理差别待遇认定标准应当包含告知同意规则。如上文所述,信息采集环节是实施差别待遇的前置环节,在信息采集阶段将告知同意规则纳入判断标准能够有效地保证算法的透明度。在算法自动化决策的语境下,个人信息处理者在个人信息采集阶段就应当告知个人信息提供者存在利用个人信息进行决策并实现差别待遇的情形,并且应当取得个人信息提供者的明确同意。即使是目前普遍存在的“消费者——第三方平台——卖家”三方结构中,第三方平台或者卖家也应当遵守告知同意规则,告知消费者存在利用自动化决策实现差别待遇的情形并取得消费者同意。例如在Fashion ID GmbH&Co.KG v. Verbraucherzentrale NRW e.V案中,被告在其网站中嵌入了一个插件:一个Facebook的“Like”按钮。当用户点击该按钮时,该插件在没有告知的情况下便将用户的IP地址等数据传输到Facebook公司。最终法院认定传输数据也属于处理个人信息的一种,也应当受到告知同意规则的约束。因此,在不合理差别待遇的情形中,即使第三方平台不是最终的个人信息处理者,也应当遵守告知同意规则,以确保自动化决策的透明度。
2.透明度的程度
如上文所述,告知同意规则的适用是保证透明度的前提,在保证透明度的基础上应当进一步探讨透明度的程度,即个人数据处理者告知义务的范围。由于“算法黑箱”的存在,打开算法黑箱是保证算法具有一定透明度的关键。对于算法的源代码而言,一方面要求个人信息处理者公开全部源代码不利于保护商业秘密,“势必遭到大量的反对而缺乏可执行性”;另一方面即使公开了源代码,对其进行解读难度过高,例如,杜伦警察局部署的自动化决策系统中,就存在420万个决策点,并且每个决策点都依赖于以前的数据,直接对其进行解读“不具有可能性”。因此不应当采取公开源代码的方式打开算法黑箱而实现透明度标准。关于算法透明度的标准,各国法律都对其作出了规定。我国个人信息保护法第17条规定了告知的一般标准和具体事项,加拿大《自动化决策指令》第6条要求向数据提供者“作出通俗易懂且有意义的说明”,说明“作出决策的方法和依据”,法国数字共和国法案中规定对算法决策的解释需要包括“处理数据的来源”“算法的处理方式”“各个数据的权重”几个方面。对比各国的法律规定可以发现,在个人信息采集阶段不应当要求个人信息处理者承担过重的告知义务,即在此阶段透明度不应当过高,否则不利于平衡保护公共利益和个人信息处理者的利益。对此,个人信息处理者应当以清晰易懂的语言对算法进行有意义的说明,一方面说明算法决策的具体理由,包括决策需要考虑的因素以及各因素的比重;另一方面应当说明算法的计算方式,包括各因素在算法中是如何被计算和处理的。在不合理差别待遇的语境下,个人信息处理者应当告知个人信息提供者“收集何种个人信息”、“各个人信息在最终决策结果中所占的比重”、“得出最终结果的计算方法”等作出算法决策所必要的内容。
以上为个人信息收集阶段个人信息处理者应当告知的内容,但是在司法实践中,为了对事实进行查明、对当事人进行救济,还应当要求个人信息处理者进一步公开算法的内容以保证透明度。例如,在许某某诉杭州某某某某软件服务有限公司案中,法院指出“仅记载源代码和相关数据的报告不具有合理性”,基于权利义务相一致的原则用户有权要求“进一步追溯自动化决策”。在Ewert v. Canada案中,加拿大最高法院指出用于训练自动化决策系统的数据不具有准确性,进而导致自动化决策系统的处理结果不具有正当性,因此“用于训练算法系统的数据也应当具有足够的透明度”。从此类案例可以看出,在个案中法院可以基于查明事实的考量要求个人信息处理者在一般应当告知的内容的基础上,进一步披露与案件相关的、影响算法结果的算法内容,以此保证透明度。
综上所述,透明度标准以告知同意规则为实现方式,告知对作出相关决策有意义的要素,在个案中还应当进一步披露对与案件密切相关的算法内容。
公平性标准
不合理差别待遇的认定标准还包含了公平性标准。由于公平性本身是“不可被量化的概念”,其往往代表了需要法官进行价值判断的内容,并且可能导致多种不同的解释,因此公平性标准无法被“简化为几行代码”。公平性标准的构建一方面在价值取向上应当平衡个人信息处理者和个人信息提供者的利益、平衡市场规制和市场自发调节的关系,另一方面应当对在不合理差别待遇中常见的要素进行考量,以此形成法律共识。在不合理差别待遇的情况下,主要涉及如下几个要素:个人信息提供者更换个人信息处理者的难度以及信息偏在程度;是否符合行业惯例;差别待遇导致的风险大小。
1.更换个人信息处理者的难度以及市场信息偏在程度
对于更换个人信息处理者的难度而言,如果个人信息处理者具有市场支配地位,那么可以认为个人信息提供者更换数据处理者的难度较大;如果个人信息处理者虽然不具有市场支配地位,但是个人信息提供者由于习惯等原因产生了依赖而难以更换,即所谓“熟客”,也可以认为更换个人信息处理者的难度较大,可能导致“杀熟”。在此种情况下,个人信息提供者选择市场中其它个人信息处理者的难度增大,难以选择其它更符合个人信息提供者利益的处理者、发挥市场的调节作用,因此更容易遭受不合理差别待遇。例如,在日本亚马逊公司不当价格表示案中,亚马逊公司设定了以商业竞争对手价格为参照对象决定自身商品价格的程序,当其完不成既定的盈利目标时,亚马逊公司要求其供应商补全这一部分利润。由于亚马逊公司具有市场支配地位,其供应商难以选择退出或者更换交易对象,因此遭受了不合理差别待遇。欧盟数字市场法(Digital Markets Act,DMA)规定了“看门人”制度,对大型在线平台课以更重的义务。在公平性标准的语境下,如果认定更换个人信息处理者的难度较高,则应当适当提高其公平性的判断标准以保障个人信息提供者的合法利益。同理,如果相关市场信息严重不对称,则可以认为个人信息提供者难以知晓并选择其它同质的个人信息处理者、难以发挥市场的调节作用,此时应当提高公平性的判断标准。相反,如果个人信息提供者能够轻易知晓其它同质的个人信息处理者提供的内容,则可以适当降低判断标准。例如“滴滴出行”APP和“高德地图”APP中,均提供了“第三方打车”的选项并标注了多方打车的价格。在此种情况下,由于消费者能够很容易对多方价格进行比对,即使服务提供者利用算法采取了不合理的差别定价,消费者也能自由选择其它更便宜的服务提供者、发挥市场的自发调节作用,此时公平性的标准可以适当降低。
2.是否符合行业惯例
该要素主要涉及公平性标准的内容:其一,自动化决策所考虑的要素是否符合行业惯例;其二,所提供服务的内容是否符合行业惯例。透明度标准要求个人信息处理者披露作出自动化决策所考虑的要素,如果考虑的要素不符合一般的行业惯例,那么作为一般理性人的数据提供者就难以知晓,并可能导致最终的决策结果不符合预期,不利于对个人信息提供者进行保护,因此在公平性标准中应当对是否符合行业惯例要素进行考量。例如在申请贷款的情形下,将贷款申请人所处地区的邮政编码、贷款人的肤色、人种等要素纳入考量范围就不符合行业惯例,不具有公平性。而在计算车辆保险费的情形下,将车辆是否发生事故的要素纳入自动化决策的考量范围中则符合行业惯例,也符合一般理性人的预期,因此可以认为其符合公平性要件。此外,所提供服务的内容是否符合行业惯例也应当纳入考量范围。在赵某某与浙江某网络公司网络服务合同纠纷案中,法院认为被告提供的检索服务与其它网络公司提供的检索服务结果类似,不违反法律强制规定,不违反行业惯例。在此种情形下由于个人信息处理者提供服务的内容不与行业惯例相违背,作为一般理性人的个人信息提供者对服务的内容具有稳定的预期,因此不需要对其进行特别保护,只需市场自发调节即可。因此在考量公平性标准时,应当考量自动化决策的要素和提供的服务的内容是否符合行业惯例,如果与行业惯例不相符则可以认为不符合公平性标准。
3.差别待遇导致的风险大小
不合理差别待遇所导致的风险最直接的表现就在于导致相关当事人的合法财产利益受到贬损,间接表现于对市场秩序的影响,包括影响消费者对个人信息处理者的信任和市场自身的正常交易秩序。基于保护市场秩序的价值选择,判断公平性标准时应当将影响范围和风险性大小纳入考量范围。因此,应当对风险进行评估,算法的影响评估“既可以是事前的,侧重于前瞻性分析,也可以是事后的,侧重于历史分析”。当差别待遇可能导致的社会风险较大时,应当对个人信息处理者课以更重的注意义务,减少差别待遇带来的负面影响。
透明度标准和公平性标准之间的关系
透明度标准的诸要素和公平性标准的诸要素共同构成了不合理差别待遇认定标准。正如动态体系论所强调的,法律效果评价的诸要素并非构成要件,不是绝对的和僵化的,在法律效果的评价过程中,若某一因素能够以特殊强度作用于法律效果评价的过程与结果,那么其本身甚至就足以正当化法律效果评价。因此,对于不合理差别待遇的认定标准而言,一方面要关注透明度标准和公平性标准之间的协动关系,例如,虽然个人信息处理者没有尽到告知义务、不符合透明度标准,但是差别待遇属于个人信息提供者自愿接受或者符合一般交易惯例,此时也无需认定为不合理;另一方面要关注透明度标准和公平性标准内部诸要素的关系,对于“协动”或者“冲突”的个要素进行权衡取舍,以各要素自身的充足度为基础结合其它要素作出综合的评价。此外,透明度标准和公平性标准的内容是开放的,随着社会实践的深入不断加入相关的判断要素,并在司法实践中形成共识,以达到减轻个案中判断难度、当事人举证难度的作用,平衡保护个人信息处理者和个人信息权人。
结论
概言之,个人信息保护法第24条第1款规定的不合理差别待遇规则以算法自动化决策为前提,以透明度、结果公平为判断标准,以交易条件为适用范围。在构建不合理差别待遇的认定标准时,应当以平衡个人信息处理者的利益和终端消费者的利益、社会利益和个人利益为进路,综合考量透明度标准和公平性标准。通过明确透明度标准和公平性标准的具体要素构建具体认定方法,增加个人信息保护法第24条第1款的可适用性,从而为规制不合理差别待遇提供更具说服力的法律论证。
评论排行