《个体赋权在算法决策治理中的定位.docx》由会员分享,可在线阅读,更多相关《个体赋权在算法决策治理中的定位.docx(10页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、个体赋权在算法决解S中的定位内容提要:厘清个体赋权路径在算法决策治理中的定位才能合理界定个人权利范围和效能。算法决策治理具有双 重目标,即尊重人的主体性和解决算法决策的功能性问题。个体赋权存在个体能力不足、解释意义不足、个体权利绝对 化等限制,不宜将其作为解决算法决策功能性问题的主要路径。个体赋权的定位主要在于尊重人的主体性,通过构建算 法“正当程序”为使用算法提供正当性基础。个体赋权的内容应当体现为通过透明权利适度提高算法透明度,以便于个人 了解自动化决策并提出观点和质疑。解决算法决策功能性问题的重心应当转向以“风险预防规则”和协同治理模式为核心 的个人信息影响评估,形成全过程治理。引言随着
2、算法技术的深入发展与广泛应用,算法权力扩张到社会的各个方面。算法决策可能对个人产生约束效果并严 重影响个人权利与自由,因此算法决策从最初的计算机概念转变为社会治理的对象。个体赋权路径是算法决策治理中的 重要路径,我国个人信息保护法(以下简称个保法)与欧盟通用数据保护条例都规定了与算法决策有关的 个体权利,但是相关研究对个体赋权路径的权利范围与效能争议较大。参见张欣:算法解释权与算法治理路径研究, 载中外法学2019年第6期;沈伟伟:算法透明原则的迷思算法规制理论的批判,载环球法律评论2019 年第6期。如何理解和构建算法决策治理中的个体权利需要综合考量个体赋权路径的定位与限度,本文通过反思针对
3、算 法决策的个体权利的规定,厘清个体赋权在算法决策治理中的定位,为我国未来算法治理提供借鉴。一、算法决策治理的双重目标算法决策,又称自动化决策,是指“通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、 信用状况等,并进行决策的活动”。中华人民共和国个人信息保护法第七十三条。在算法决策应用于社会的过程中, 算法妨害与算法黑箱问题成为算法决策治理的重要动因,其反映了算法治理的双重目标,即解决算法决策的功能性问题 与尊重个体的主体性问题。(一)算法妨害在数学意义上,算法是指“通过特定计算将输入数据转换为输出结果的编码过程”。Tarleton Gillespie,The Releva
4、nce of Algorithms,in Tarleton Gillespie et al.,Media Technologies:Essays on Communication,Materiality,and Society,Cambridge,The MIT Press,2014,p.167.然而,当算法广泛应用于社会时,就成了具有社会意义的技术,社会生 活的每个方面都可能受其影响。算法决策的普及化使我们生活在一个“评分社会(Scored society)See Danielle Keats Citron & Frank Pasquale,The Scored Society:Due Pr
5、ocess for Automated Predictions,89 Washington Law Review 1(2014).或者“黑箱社会(Blackbox society)。See Frank Pasquale,The Black Box Society:The Secret Algorithm That Control Money and Information,Harvard University Press,pp.10-11(2015).通过收集并分析我们的数据,算法对我 们生活的方方面面进行评价,如人们买了什么、做了什么,人们如何思考、如何工作,人们的关系网如何以及他们如何 处
6、理个人的关系。这类信息是关乎特定个人的“预测个人信息”,个人对其有被他人操控的疑虑和恐慌,参见邢会强: 大数据交易背景下个人信息财产权的分配与实现机制,载法学评论2019年第6期。这类评价涉及我们生活的 每个方面,如市场营销、保险、教育、就业、行政、司法等,一旦自动化决策过程存在歧视、偏见、错误甚至操纵行为, 其将对个体甚至某个群体带来巨大的外部成本。举例来说,普林斯顿大学的研究人员通过现有的算法AI软件系统分析 了 220万个单词,发现欧洲人的名字比非洲裔美国人的名字评分更高,“女人”和“女孩”这两个词更有可能与艺术联系在 一起,而不是与科学和数学有关,科学和数学与男性的相关程度更高。See
7、 Adam Hadhazy,Biased法正当程序将类似的要求移植到算法决策的场景中。我国个保法为个人规定了知情权、要求说明解释权,以及自动 化决策的拒绝权,这些应当被理解为算法的“正当程序”。如前文所言,算法黑箱制造的信息不对称扩张了算法权力,个 体如果无法知悉决策、获得决策的解释并提出自己的质疑,个体的主体性将在算法权力面前消失殆尽,从而彻底被物化。 人的权利实际上代表了一种反对权力滥用和权力专横的立场,是对个人尊严以及对人们自由、自决能力进行认同。美 玛丽安格伦顿:权利话语:政治言辞的穷途末路,周威译,北京大学出版社2006年版,第14页。此外,个体赋 权在解决算法歧视与决策错误等算法决
8、策功能性问题上也有一定的作用,它有助于数据主体发现和纠正系统错误、偏见 和歧视。算法设计者集“运动员”与“裁判员”于一身,其既是使用算法决策的人,又是创设算法规则的人,这将导致没有任 何制衡制度来确保系统中不存在偏见。算法正当程序的一个核心功能是将编写规则的人与使用该法律法规的裁决人员分 开。个人对算法决策的挑战与纠正使得算法规则接触到符合法律原则和社会规范的外部评价,从而减少偏见和歧视。因 此,为个体设定透明权利,要求数据控制者披露信息,并允许个人参与和纠正分析和决策,尊重了人的尊严与主体性。 算法正当程序为算法决策提供了正当性的理由,有助于缓解社会对算法黑箱的担忧。在建构个体权利时应当认识
9、到个体赋权的定位。如前文所述,透明权利的核心定位在于为数据主体质疑和发表意 见提供有意义的解释,自动化决策拒绝权的核心定位在于赋予个体积极的控制性权利,增强个体参与算法决策治理的能 力。然而,在解决算法决策功能性问题上,个体赋权的效果不佳。因此,只要涉及通过个体解决算法决策功能性问题, 无论是要求提高算法透明度以实现个体问责,如通过高度透明的算法解释权实现算法问责,还是通过个体赋权直接对算 法进行问责和控制,如通过自动化决策拒绝权来实现算法决策治理,都会受到治理效能不足的质疑与挑战。但是,个体 赋权有助于构建算法“正当程序”以解决人格尊严保护问题。适度使用透明度工具并提高个体的参与度,能够缓解
10、个体的 不安,增强个体对算法决策的信任。因此,个体赋权的构建应当着眼于建立算法“正当程序”,而非个体对算法决策功能 性问题的问责与控制。在构建算法正当程序上,个体赋权的内容应当体现为通过透明权利适度提高算法透明度,以便于 个人在参与算法问责中了解自动化决策,并提出观点和质疑。在解决算法决策功能性问题上,算法决策治理的重点应当 从个体赋权转移到对信息控制者施加义务。(二)解决功能性问题的重心:“风险预防规则”与“协同治理”从个人信息保护的制度起源“公平信息实践”的发展历程来看,个人信息保护早期主要依赖个体赋权与个人信息 的控制者责任,囿于个体赋权的局限性,后期版本的公平信息实践对信息控制者施加了
11、更多的风险防范与治理义务。例 如,2004年的APEC隐私框架将风险预防原则作为公平信息实践的首要原则。欧盟第29条工作组认为风险路径值 得提倡且已体现于GDPR的立法中,个保法第五十一条与GDPR第32条规定了与风险相称的措施;个保法第 五十六条与GDPR第35条规定了风险评估;个保法第六十四条与GDPR第36条规定了风险监管责任。参见前引 ,丁晓东书,第113-114页。个体能力不足意味着算法决策治理需要从个体赋权转向信息控制者的“风险预防规则”。 此外,由于算法的深入发展带来监管和问责困难,算法决策治理已经不能局限于某一阶段,需要建立事前、事中、事后 的全过程监管。在治理过程中,政府、市
12、场、社会和个人等单一主体治理都存在较大的局限性,算法治理需要由单一主 体监管转向协同治理路径。风险评估既属于“风险预防规则”,又体现了协同治理。首先,风险评估类似软性的市场准入机制。公共机构与私营部门协同控制算法风险的合理范围体现了协同治理模 式。风险评估的时机在进行自动化决策之前,体现了风险防范的原则。在使用算法系统之前,信息处理者必须针对风险 评估履行一系列的合规义务,确保自动化决策的风险在可控范围内。个保法第五十六条规定个人信息保护影响评估 应当包括下列内容:个人信息的处理目的、处理方式等是否合法、正当、必要,对个人权益的影响及安全风险,所采取 的保护措施是否合法、有效并与风险程度相适应
13、。GDPR要求评估的内容包括:(1)系统描述处理的具体流程和处理 目的,以及控制人所追求的合法利益;(2)处理过程的必要性和相称性;(3)为数据主体的权利和自由带来的风险; (4)为处理风险而设想的措施,并在考虑到数据主体和其他有关人员的权利和合法利益的情况下,证明遵守本条例; (5)行为准则。此举有助于在事前控制算法风险,防止算法风险的扩散。欧盟自动化决策指南就曾建议企业经常 对其处理的数据集进行评估,以检查是否存在任何偏见,并开发解决任何偏见因素的方法以防止数据处理中的错误或歧 视。事前数据影响评估的要求同样体现了协同治理:在评估的过程中,监管机构负责指引和监管,而信息控制者可以根 据评估
14、结果部署与风险相适应的保障措施,并证明其履行了合规义务。我国个保法严格规定所有类型的自动化决策 都需要进行个人信息安全评估。信息控制者根据个保法和工信部制定的信息安全技术 个人信息安全影响评估指 南国家市场监督管理总局、国家标准化管理委员会信息安全技术个人信息安全影响评估指南,GB/T 39335-2020, 2020年11月19日发布,2021年6月1日实施。(以下简称评估指南)落实风险评估。评估指南规定,组织 需要根据评估结果部署相应的保障措施并持续跟踪风险处置的落实情况。在组织自行进行算法影响评估时,主管的监管 部门可以要求独立审计来核证评估报告的合理性与完备性。通过对信息控制主体施加事
15、前进行风险评估的义务,并由个 人信息保护机构进行监管和指引,解决了个体赋权路径中个体风险感知和风险控制能力不足的问题。GDPR仅要求对具 有高风险的自动化决策进行事前评估。在进行数据评估时,控制者必须咨询相关的数据保护机构,数据保护机构必须向 控制者提供书面建议,并可以行使其权力暂时或永久禁止使用该系统。控制者如果无法合规而投入使用该系统,其将面 临相应的惩罚(罚款最高可达全球营业额的4%)。其次,风险评估是提高透明度和增强问责制的重要工具,既有助于个人信息保护机构对算法进行事后问责,也能 激励信息控制者参与算法的事中治理与监督。风险评估中的透明度与问责制不同于个体赋权,参与协同治理的主体比个
16、 人更具有理解和监管算法决策以及进行事后问责的能力。在提高透明度方面,算法影响评估允许公共机构和第三方的介 入,有助于相关主体了解并监管算法的运作过程,提高相关主体的问责能力。此外,风险评估还是集存档、监测和审查 于一体的问责工具。个保法第五十六条与欧盟数据影响评估指南Article 29 Data Protection WorkingParty,Guidelines on Data Protection Impact Assessment (DPIA) and determining whether processing isMlikely to result in a high risku
17、for the purposes of Regulation 2016/679,WP 248.均规定了评估报告和处理情况记录需要存档的要求,以 便于相关机构进行监测、审查和问责。公共机构无法在事前提供精确的法律规范,需要私营机构发挥其专业能力参与到 算法的协同治理中。为了保证私营主体的治理不偏离公共治理目标,公共机构需要进行事后问责与监督,要求算法设计 者或使用者设置可溯源的措施有助于保证事后的追责。参见美约叔华A克鲁尔、乔安娜休伊、索伦巴洛卡斯、爱 德华W.菲尔顿、乔尔R.瑞登伯格、大卫G.罗宾逊、哈兰余:可问责的算法,沈伟伟、薛迪译,载地方立法研 究2019年第4期。这实际上建立起了风险评
18、估的“双重问责制”,即基于信息控制者合规义务的问责,如要求控制者设 置与风险相对应的措施和可溯源的措施,以及基于算法决策不利后果的问责,有助于激励控制者在算法运行过程中持续 监测和控制算法的风险,形成算法治理的事中规制。最后,风险评估有助于促进规则的形成。虽然风险评估目前并没有形成统一的行业标准。然而,随着时间的推移, 公共机构反复评估将形成一定的经验而影响一般的合规标准。例如,形成需要进行风险评估的负面清单、相应风险所需 的保障措施等。这正是协同治理路径的核心,在公私合作规制的过程中形成动态、有效、与风险相匹配的自动化决策规 制。结语个体赋权在算法决策治理中的定位是实现算法正当程序,相当于个
19、体权利建构的最低阈值,但是由于个体赋权在 解决功能性问题上的效能不足,治理效能限制了个体权利在算法决策治理中的最高阈值。因此,未来在算法决策治理中 的权利建构与适用应当着眼于如何构建算法正当程序,不应苛求通过构建过于宽泛的个体权利来解决算法决策功能性问 题。在解决算法决策功能性问题上,以风险评估为核心的协同治理路径为实现有效的算法治理提供了可能性。Bots:Artificial-lntelligence Systems Echo Human Prejudices,Princeton University,April18,2017, https :/www. pri nceton. ed u/n
20、ews/2017/04/18/biased-bots-artificial-intelligence-systems-echo-human-prejudic es,December 15,2021.如果算法基于以上的发现决定就业机会或者教育机会,非洲裔美国人和女性将受到不公平对待。 实际上,亚马逊平台的在线招聘算法系统曾被发现存在性别歧视。See James, Vincent, Amazon Reportedly Scraps Internal Al Recruiting Tool That Was Biased against Women, The Verge, October 10, 20
21、18.https: , December 15, 2021.更有甚者,算 法决策可能成为操纵特定个体或群体评价的手段。如果算法评价成为了社会活动的重要评价标准甚至唯一标准,人的弱 点与缺陷将在算法面前暴露无遗,掌握技术优势的人很可能会改变人们的特性,如改变其消费态度甚至是观点立场。人 的主体性将在算法技术中消失殆尽。随着算法评价的增加与深入,社会上的人将形成属于自己的数字画像,每个数字画 像对应着特定的评分、特征甚至是弱点。基于画像评分不断增加的歧视、排斥与操纵将会加深入的脆弱性。在使用算法 的过程中,算法歧视、算法错误与算法操纵形成了对社会中的个体或群体的妨害。这类妨害具有典型的非竞争性和非
22、排 他性的特征,如同污染一般是一个程度问题,算法针对的可能不是特定的主体或者群体,而是所有人都或多或少受到影 响。美罗伯特考特、托马斯尤伦:法和经济学(第6版),史晋川等译,上海人民出版社2012年版,第156 页。算法妨害源自其无法自洽的功能逻辑。算法广泛应用基于一种功能的逻辑,传统的人类决策充满着歧视、认知偏 差、错误、效率低等缺陷,自动化决策被寄予解决人类决策缺陷的厚望。算法作为一种技术仿佛是中立、客观且不存在 任何偏见的。技术中立的含义主要包含了:功能中立、问责中立与价值中立。价值中立是技术中立原则的核心部分。 参见郑玉双:破解技术中立难题法律与科技之关系的法理学再思,载华东政法大学学
23、报2018年第1期。 然而,算法并非如其所宣称般中立。相反,算法可以使现有的刻板印象和社会隔阂永久存在。正如Cathy ONeil所言, “算法模型只是镶嵌在数学中的观点”,算法实际上是现实世界的数学模型。ee Cathy Oeil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Crown Publishing Group,2016,p.21.在算法 设计上,算法的对象、输入的内容、数据的加权比重、算法的类型等方面无不由人类来决定。在数据输入上,所有的数 据均来自于现实
24、社会,这些数据本身就可能带有偏见与刻板印象,例如:性别、肤色、种族等原生敏感数据,在深度分 析下,邮政编码、IP地址等关联数据有可能成为带有歧视的敏感数据。软见谢琳:大数据时代个人信息边界的界定, 载学术研究2019年第3期。即使在复杂甚至能够产生“意识”的算法模型中,如机器自主学习、人工智能等,人类的 观点与选择都贯穿于算法建构、训练、监管的全过程。,智航教授归纳了算法歧视的三种基本类型,包括:偏见代理 的算法歧视(“关联歧视”)、特征选择的算法歧视、大数据(算法)“杀熟”。参见郑智航、徐昭曦:大数据时代算法歧 视的法律规制与司法审查以美国法律实践为例,载比较法研究2019年第4期。在“技术
25、中立”原则的庇护下, 算法决策掩盖了其所存在与人类决策一样的问题。算法决策并非价值中立,其不能摆脱存在歧视、错误与偏差的问题。 算法模型不仅仅是由数据训练的,还需要人类进行设计并有选择性地对数据进行分类和筛选,这些选择不只是关于功能、 利润和效率,它们本质上是关乎道德的。算法妨害实际上是一种不公正的算法技术使用,算法决策功能性问题歧视、错误、操纵对无辜的主体施加了 过高的成本,在没有法律的介入下受到算法影响的主体难以通过协商排除算法妨害。因此,解决算法妨害问题的核心是 通过问责制将算法决策的功能性问题所带来的外部成本内部化。问责制关键在于建立明确的责任链,个人或组织需要对 法律和道德义务承担责
26、任,并以透明的方式披露结果。ee Jonathan Fox,The Uncertain Relationship Between Transparency and Accountability, 17 Development in Practice 663 (2007).算法问责为算法外部成本设定相应的责任, 成为相关主体在使用算法决策时必须考虑的成本,有助于引导和激励其采取措施减少算法决策功能性问题。(二)算法黑箱算法黑箱所形成的信息不对称导致算法决策问责的难度加大。通过对知识形成排他性占有甚至自主生产知识,算 法制造了信息不对称以获得信息优势,形成强大的算法权力,引发社会的不安与担忧。除见
27、张凌寒:权力之治:人 工智能时代的算法规制,上海人民出版社2021年版,第2750页。算法黑箱是指人类无法理解算法作出的结果和决策,其指向算法的不透明特性。算法黑箱能够减少外界对算法决 策过程的影响,但是算法黑箱使得算法过程难以得到解释。学者Bruell指出,算法不透明的原因主要有三种,包括:故 意不透明、外行的不透明(Illiterate opacity)、内在的不透明。enna Burrell,How the MachineuThinksM:Understanding Opacity in Machine Learning Algorithms,3 Big Data & Society 1
28、 (2016).故意不透明是指人类的算法系统的内部运作 被故意隐藏起来。故意不透明可能基于商业秘密保护而存在,也可能是为了通过系统操纵他人。外行的不透明是指由于 只有那些拥有专业技术知识的人才能理解这个体系的运作方式,因此,对外行而言,该体系的内部运作是不透明的。外 行不透明性意味着对于许多普通民众来说算法决策难以被知晓和预测。内在的不透明是指由于人类和算法对世界的理解 存在根本性的不匹配,算法自我运作的内部是不透明的。以往人类对算法的干预和解释主要在特定任务型的算法,但是 基于机器学习和深度学习的算法解释发展使得人类干预和解释捉襟见肘,甚至专业人员也越来越难以解释算法的运作过 程。 Deli
29、ne Castets-Renard,Accountability of Algorithms in the GDPR and Beyond:A European Legal Framework on Automated Decision-Making,30 Fordham Intellectual Property,Media & Entertainment Law Journal 91,101 (2019). 这种技术允许算法搜索和分析大量的数据,以发掘算法模式和相关性并成为决策的基础。算法难以解释使得相关性和推 论取代了因果关系,算法问责可能会举步维艰。此外,在算法决策过程当中,不透明度使
30、得个人无法知晓算法对自己的 影响,人在算法决策下可能会被物化,丧失其主体性和人格尊严。算法权力扩张本质上是算法通过不透明特性制造信息不对称形成优势地位。算法权力扩张可能会导致算法问责的 困难和社会担忧的加重。近年来,对自动化决策不透明性危机的担忧逐渐凸显,如2017年,“美国大数据审判第一案” 卢米斯上诉美国威斯康星州案(又称“Compas 案”)oomisv.Wisconsin,881 N.W.2d 749 (Wis.2016) ,cert.denied,137 S.Ct.2290 (2017).、“纽约大学法学院布伦南司法中心与纽约州警察部门案”。rennan Ctr.for Justic
31、e at N.Y.Univ.v.N.Y.C.Police Dept2017 N.Y.Misc.LEXIS 5138,at*5 (N.Y.Sup.Ct.Dec.22,2017),算法透明成为了解决算法 信息不对称的重要途径。透明与问责是一对相互联系的概念,在实践中,透明与问责经常被视为良好治理的基础与支柱。 提高透明度有助于确认责任链条以实现有效的问责制。此外,提高透明度有助于个人与组织参与算法治理以增强社会对 算法决策的信任。明智地使用透明度能够创造一个良性循环,合法性、公民参与和信任将导致一场动态的算法治理变革。综上,解决算法的功能性问题与尊重人的主体性(人格尊严)是算法决策治理的核心目标。
32、首先,算法决策如人 类决策一般可能存在歧视、错误、操纵等功能性问题,“算法黑箱”进一步掩盖了这些问题并加大了算法问责的难度。其 次,算法决策对个体产生负面影响,甚至可能使其被“物化”,“算法黑箱”导致个体难以发现算法的问题并参与到对算法的 质疑当中,加深了个体的担忧与不安。算法决策治理的两个目标实际上与行政法领域中对政府决策的监管目的相似。过 去,政府决策也曾被视为“黑箱”决策,法律一方面需要监管政府决策中的功能性问题,如决策错误、不公平对待、对民 众的操纵,另一方面需要通过提高透明度以实现有效的问责制,同时增强个体对政府决策的理解和质疑能力,以尊重个 体的主体性,为政府决策提供正当性基础。当
33、然,技术的深入发展使算法决策的问题可能比传统的政府决策问题更为突 出。但是,算法决策治理的核心目标同样在于解决算法决策功能性问题以及个体主体性问题。为应对算法决策风险,我 国个保法赋予了个体自动化决策拒绝权、知情权与要求个人信息处理者解释说明权,并规定了个人信息影响评估制 度。二、自动化决策拒绝权的定位个保法第二十四条第三款赋予了个体自动化决策拒绝权,个人有权拒绝个人信息处理者仅通过自动化决策的 方式作出对个人权益有重大影响的决定。通过行使该项积极权利,个体成为了算法决策治理中的主体。个体赋权强化个 体应对和控制技术风险的能力,增强个体在技术威胁中的主体性,有助于解决个体主体性问题。ee Ma
34、rgot E.Kaminski,Binary Governance:Lessons from the GDPRs Approach to Algorithmic Accountability,92 SouthernCalifornia Law Review 1529,1553-1557 (2019).但是,在解决算法决策功能性问题上,个体存在感知风险能力与算法 问责能力不足的问题。同时,自动化决策拒绝权面临权利绝对化的问题,可能会阻碍信息的合理流通。自动化决策拒绝 权的核心定位在于通过赋予个体控制权利解决尊重个体主体性问题,而非解决算法决策功能性问题。(一)“赋权条款”抑或“禁止条款”纵观个保
35、法第二十四条,处理者利用个人信息进行自动化决策被加以保证透明度和结果公平公正的义务,这 意味着处理者需要告知个人其正在使用自动化决策。当自动化决策对个人权益有重大影响时,个人有权要求说明以及拒 绝仅基于自动化决策方式作出的决定(以下简称“全自动化决策”)。在个体没有行使拒绝权时,个保法并未赋予个 体其他质疑自动化决策的权利或者要求信息控制者实施保障个体提出质疑的措施。因此,个人信息处理者在保证决策的 透明度和结果公平、公正并保障个人的提供解释说明权而个体没有行使拒绝权的情形下,即可对个体作出有重大影响的 全自动化决策。欧盟通用数据保护条例(以下简称“GDPR”)第22条第1款同样针对自动化决策
36、作出类似“自动化 决策拒绝权”的规定,基于全自动化过程进行决策且对数据主体产生法律效力或类似的重大影响时,数据主体有权不受该 决定约束。Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data,and repealing Directiv
37、e 95/46/EC (General Data Protection Regulation) , Art.22.只有符合第 22 条第 24 款的 例外情形时,数据控制者才能使用上述的自动化决策。例外情形包括:(1)该决策为订立合同或履行合同所必需; (2)获得欧盟或成员国法律授权,且提供了适当的保障措施;(3)决策基于数据主体的明确同意。在前述第一和第三 项例外情形下,数据控制者至少保障数据主体有权获得人为干预,表达其观点与质疑该决定。在使用个人敏感信息的情 形下,还需要符合第9条第2款(a)项或(g)项的相关规定并辅以适当的保障措施。我国有学者称其为“反自动化决 策权”或脱离自动化决策权
38、工张建文、李锦华:欧盟个人数据保护法上的反自动化决策权研究,载重庆邮电大 学学报(社会科学版)2019年第3期;唐林宜:“脱离算法自动化决策权”的虚幻承诺,载东方法学2020年 第9期。然而,欧盟第29条数据保护工作组制定的自动化个人决策与识别指南(以下简称自动化决策指南) 明确指出,该款中的“权利”一词并不意味着在数据主体主动援引时才适用。第22条第1款规定了基于全自动处理进行决 策的一般禁止原则,无论数据主体是否就其个人数据的处理采取行动,此禁止条款都普遍适用。Article 29 Data Protection Working Party,Guidelines on Automated
39、individual decision-making and Profiling for the purposes of Regulation 2016/679,WP251.rev.01,pp.19-23.早在欧盟通过1995年数据保护指令(以下简称“95指令”)进行规制 时,欧盟委员会就对全自动决策过程的质量表示担忧,担心这样的过程会使人们认为所达成的决策是理所当然的,从而 降低控制者调查和确定所涉事项的责任。European Community,Amended Proposal for a Council Directive on the Protection of Individuals
40、 with Regard to the Processing of Personal Data and on the Free Movement of Such Data:COM (92) 422Final-SYN287,p.26.全自动化决策具有较大的潜在风险,因此GDPR普遍禁止对数据主体产生法 律效力或类似的重大影响的全自动化决策。个保法第二十四条第三款关于自动化决策拒绝权的规定与GDPR第22条第1款在字面上具有相似性,两部 法律都赋予了信息主体相关的“权利”,同时设置了一定的义务,但是个保法的“自动化决策拒绝权”属于赋权条款, GDPR的“权利”属于禁止条款。两种不同的条款代表两种不
41、同运行逻辑的治理模式“个体赋权”模式与“原则禁止+例外 允许”模式。自动化决策拒绝权的治理逻辑是一般情况下允许使用自动化决策,在个体积极行使拒绝权时,处理者才被禁 止进行对个人权益产生重大影响的全自动化决策。换言之,自动化决策拒绝权赋予了个体积极的控制性信息权利,这项 权利与威斯丁将隐私权界定为个人对自身信息的控制,Alan F.Westin,Privacy and Freedom,Atheneum,1968以及“信 息自决权理论”“个人主体具有控制、发布、适用个人数据的权利”一脉相承。谢琳、曾俊森:数据可携权之审视, 载电子知识产权2019年第1期。“原则禁止+例外允许”模式的治理逻辑是原则
42、上禁止进行对个人权益产生重大影响 的全自动化决策,在满足例外情形时处理者方可使用。因此,在使用自动化决策时,处理者必须证明其不符合禁止条款 的规定或者满足例外条款的要求。GDPR第22条第1款的“权利”并不像“信息获取权”(第15条)、“删除权”(第17条) 或“数据可携权”(第20条)一般赋予个体可以积极行使支配和控制个人信息的权利,第22条第1款只是赋予个体不受 自动化决策约束的消极权利(Right not to be subject) o这项“权利”类似于霍菲尔德权利理论中的“豁免”(Immunity), 自动化决策的处理者因此没有“权力”(Power/Ability)将“责任”(Lia
43、bihty/Subjection)施加于个人,而不是赋予个体一种 狭义的“权利”(Right/Claim)。参见美霍菲尔德:基本法律概念,张书友编译,中国法制出版社2009年版,第 26-78页。禁止条款+例外允许”模式通过处理者义务映射出个体的权利,属于一种消极的防御型信息权利,与沃伦和布 兰代斯将隐私权界定为“独处权利”有异曲同工之妙。See Samuel D.Warren & Louis D.Brandeis,The Right to Privacy,4 Harvard Law Review 193,195-196 (1890).当然,“原则禁止+例外允许”模式不仅仅包含消极的防御型信息
44、权利,例如 GDPR第22条要求处理者提供保障措施,最起码保障主体有权获得人为干预,表达其观点与质疑该决定。因此,赋权 条款实际上是通过赋予个体积极权利,让个体自我决定和控制自动化决策对个人信息的处理;禁止条款则通过对处理者 施加相应的义务映射出个体的权利,无论个体是否行使权利,处理者都必须设置具体的保障措施,履行保障义务。(二)自动化决策拒绝权的限度“个体赋权”与“原则禁止+例外允许”对应两种不同的治理逻辑,将会带来差异的治理效果。自动化决策拒绝权与“原 则禁止+例外情彩模式同样保护了个体的人格尊严、体现人的主体性以及防止人的“物化”。但是,在解决算法决策功能 性问题上,“个体赋权”模式的限
45、度较大。此外,自动化决策拒绝权面临权利绝对化的问题,可能会影响信息的合理流通 与利用。自动化决策拒绝权给个体配置了一种积极的控制性权利,这项权利类似消费者保护法和劳动法对弱势群体的保护, 纠正信息处理者与个人之间的不平等关系。但是,与传统的消费者保护法和劳动法不同,自动化决策的复杂性与不透明 性加剧了个人的弱势地位,通过个体行使控制性权利进行算法规制的效果有限。首先,一般个体对风险的认知往往局限 于熟悉的领域和风险较大的领域,个人对个人信息保护的风险感知往往比较迟钝。丁晓东:个人信息保护:原理与 实践,法律出版社2021年版,第90页。这种风险感知一方面源于个体的能力,另一方面源于算法的黑箱特
46、性。这可 能导致个体难以感知自动化决策是否对其有重大影响。其次,即使处理者主动告知个体其仅通过自动化决策作出对个人 有重大影响的决策,个体也没有能力实现有意义的控制和问责。如前文所述,自动化决策从设计、输入数据、算法运行 到最终产生决策的每个阶段都可能导致算法歧视和算法操纵等问题的出现,由于缺乏相应的专业能力,个体无法控制自 动化决策的全过程。当然,GDPR第22条为处理者规定的“知情同意”例外条款以及“主体有权获得人为干预,表达其观 点与质疑该决定”的保障措施面临与个体赋权相似的困境。See Jakub Misek,Consent to Personal Data Processing-Th
47、e Panacea or the Dead End?,8 Masaryk University Journal of Law &Technology 69 (2014).但是,“原 则禁止+例外允许”模式是通过处理者义务映射个体的权利,并非赋予个体积极权利,个体的积极行权不是自动化决策规 制的唯一方式。处理者需要主动证明决策不属于对个体产生重大影响的全自动化决策,或者证明决策符合例外情形并提 供适当的保障措施,这实际上是通过提高处理者的合规成本将算法外部成本内部化。因此,“原则禁止+例外允许”模式在 解决功能性问题上比自动化决策拒绝权更有效。在个人信息保护法已经规定了自动化决策拒绝权的背景下,
48、“自动化决策 拒绝权”应当理解为信息处理者在使用具有重大影响的全自动化决策时应当提供的保障措施。例如,信息处理者应当主动 向个体提供拒绝的机制,即使个体没有行使拒绝权,也应当为个体提供质疑自动化决策的途径,并保证决策的公平性与 合理性。在促进信息合理流通方面,由于缺乏其他的例外情形,自动化决策拒绝权可能面临权利绝对化的问题。个人信息 的流通价值指向个人信息的公共属性,无论是企业合理使用信息所形成的聚合效益,还是个人信息作为言论自由对象的 价值,都应当受到保护。参见前引,丁晓东书,第109页。个体赋权如果走向绝对化,将会影响信息的合理流通从 而影响公共利益。个保法第二十四条并未规定相应的例外情形
49、,这意味着只要个体行使拒绝权,处理者无法基于其 他理由进行对个体权益产生重大影响的全自动化决策。GDPR第22条第2款为“禁止条款”提供了例外情形,例外情况 包括:(1)该决策为订立合同或履行合同所必需;(2)获得欧盟或成员国法律授权,且提供了适当的保障措施;(3) 决策基于数据主体的明确同意。在使用个人敏感信息的情形下,还需要符合第9条第2款(a)项或(g)项的相关规定 并辅以适当的保障措施。这意味着“禁止条款”并不必然导致过于严格的规制。使用自动化决策有益于提高商业效率和促 进公众利益。如果个体行使拒绝权即可禁止使用对个体权益产生重要影响的全自动化决策,将会导致更为严格的自动化 决策规制。尽管GDPR第22条的例外情形条款也存在不足与争议,但是其背后的治理逻辑可能更能促进信息的合