首页 > 热点聚焦 > 正文阅览
标亮 聚焦命中
下载 收藏 打印 分享

下载格式:

  • 全文:
保留字段信息

平台劳动者自动化决策拒绝权实现路径的公私法协同

一、问题的提出

在平台用工中,算法管理是平台商业模式的固有内容,绝大多数的管理任务均实现了自动化。[1]算法是平台组织用工的关键技术,平台通过算法自动化决策进行大规模监控与评估、任务分配、实时调度、动态定价等活动,确定劳动条件,实现相应的人力资源管理功能。算法自动化决策实现了平台的大规模组织用工活动,但是同时也致使平台劳动者“困于系统”中,[2]影响平台劳动者生命权、健康权、平等权、劳动权等宪法基本权利保障。平台劳动者如何走出系统的困境、免受自动化决策的约束,一直是平台用工理论与实践所关注的问题。

在一般个人数据保护领域,《欧盟一般数据保护条例》(以下简称GDPR)第22条规定了数据主体“免受自动化决策约束权”,我国《个人信息保护法》第24条第3款规定了自动化决策拒绝权,该规定被认为可与GDPR第22条发挥相似的作用。[3]2024年11月11日,《欧洲议会和理事会关于改善平台工作条件指令》(以下简称《欧盟平台用工指令》)在欧盟官方公报公布,[4]该指令第三章“算法管理”对GDPR第22条免受自动化决策约束权的实现机制进行了具体落实。在平台用工领域,平台劳动者如何免受自动化决策的约束、如何有效实现自动化决策拒绝权,是当前尚待解决的问题,而且在域外实践中已引发争议。

在域外司法实践中,2021年意大利数据保护监管机构分别对Deliveroo、Foodinho两家平台进行罚款,认为Deliveroo平台在运用Frank算法进行任务分配、[5]Foodinho平台运用“卓越系统”算法和Jarvis算法进行自动化决策时,[6]没有为骑手提供GDPR第22条第3款规定的适当人工干预的措施,比如设立人工沟通渠道等。在荷兰一起涉及Uber司机被Uber算法“解雇”(停用账户)的案件中,2023年4月阿姆斯特丹上诉法院作出判决,认为根据GDPR第22条,Uber平台未有效保障Uber司机的免受自动化决策约束权,其通过匹配算法、定价算法、欺诈检测算法等进行自动化决策,对Uber司机的合同地位、收入等权益产生影响,但是平台未采取适当措施进行人工干预,未向司机提供发表意见的适当渠道。[7]在荷兰另一起案件的上诉判决中,阿姆斯特丹上诉法院阐释了类似的观点,认为Uber平台未有效保障Uber司机免受自动化决策约束权。[8]在英国Mr Pa Edrissa Manjang v.Uber Eats UK Ltd and others案件中,[9]原告Pa Edrissa Manjang是非洲裔黑人,在Uber Eats平台担任送餐员,Uber Eats平台运用面部识别算法自动化决策,原告Pa Edrissa Manjang被应用程序告知每天进行多张自拍,并通过平台发来的邮件被告知永久停用平台账户,原告认为该平台的自动化决策将黑人置于不利地位,平台未有效保障自己免受自动化决策约束权,未进行有意义的人工干预,造成了歧视(间接歧视)。此外,实践中还有Uber Eats送餐骑手控诉算法因不可解释的变化降低了他们的收入,当其要求平台解释时被告知任务分配算法中没有人工控制(manual control)程序。[10]由此可见,在域外司法实践中,如何有效保障平台劳动者的自动化决策拒绝权,是平台用工争议的热点问题。

在我国立法中,《个人信息保护法》第24条第3款规定了自动化决策拒绝权,在国内平台用工司法实践中,虽然也有众多涉及关停账户、扣除工资等案例,但是并未发现涉及平台劳动者的自动化决策拒绝权。其原因在于:一是在一般个人信息保护领域,自动化决策拒绝权的实现机制尚不明确。关于自动化决策拒绝权的实现机制,尚存在私法路径、公法路径以及混合路径的不同观点。[11]二是平台用工相关立法文件未明确规定平台劳动者的自动化决策拒绝权。《互联网信息服务算法推荐管理规定》第17条第3款、《人力资源社会保障部、国家发展改革委、交通运输部、应急部、市场监管总局、国家医保局、最高人民法院、全国总工会关于维护新就业形态劳动者劳动保障权益的指导意见》(人社部发〔2021〕56号,以下简称人社部56号文)、《国家市场监管总局、国家网信办、国家发展改革委、公安部、人力资源社会保障部、商务部、中华全国总工会关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》(国市监网监发〔2021〕38号,以下简称市场监管总局38号文)、《最高人民法院关于为稳定就业提供司法服务和保障的意见》(法发〔2022〕36号)等虽然规定平台应当完善与劳动条件相关的算法,对算法规则的制定与效力、“算法取中”等提出了要求或意见。但是,关于如何进一步规范平台用工中的算法自动化决策,尤其是根据《个人信息保护法》第24条第3款如何构建并有效实现平台劳动者的算法自动化决策拒绝权,当前立法并不明晰。

平台劳动者的自动化决策拒绝权可以保护平台劳动者免受自动化决策的约束,故能够成为解决平台劳动者“困在系统里”问题的必要路径。当前,一般职场尤其是平台用工领域的算法规制研究主要集中在宏观层面,[12]重点涉及从劳动法规章制度、就业歧视等视角出发考察算法规则问题,仅少数研究聚焦于劳动者的自动化决策拒绝权。[13]在平台用工领域,当前平台劳动者与平台之间的劳动关系认定尚存在争议,故从劳动法的角度为平台劳动者提供保护的空间较为有限,[14]从数据保护法的角度为平台劳动者提供保护则为较优选择。[15]我国《个人信息保护法》第24条第3款虽然规定了自动化决策拒绝权,但是相关研究仅限于一般个人信息保护领域,并未专门以平台劳动者自动化决策拒绝权为主题进行分析。本文聚焦于平台用工场景,以平台劳动者这一特殊群体的自动化决策拒绝权为研究对象,从该权利的定位及其与相关宪法基本权利的关系、不同的功能面向、具体的实现路径等方面展开论述。

二、平台劳动者自动化决策拒绝权的定位及与宪法基本权利的关系

(一)权利的定位:作为平台劳动者个人信息权权利束体系的组成部分

我国《个人信息保护法》对个人信息进行了赋权,个人信息权作为权利束包括自动化决策拒绝权、知情权、决定权、查阅权等多项权利。[16]个人信息权由《宪法》第38条人格尊严条款推导而出,属于宪法基本权利的范畴,[17]相应地,自动化决策拒绝权则为个人信息权宪法基本权利的组成部分。

在平台用工中,无论平台与平台劳动者之间的关系定性为劳动关系、承揽关系抑或是其他形态,平台通过自动化决策对平台劳动者都存在一定约束,平台劳动者面临主体性丧失的危机。[18]以往劳动者在工作中享有部分自由裁量权,但是随着平台用工派单、评分评级等用工自动决策机制的应用,平台劳动者受到平台的实时监控,只能被迫执行由算法自动化决策做出的决定,其自主性被严重限缩,[19]人格尊严受到侵蚀。在宪法中,人格尊严虽然在不同的文化背景中有不同的诠释,但是不受支配的自由是其内涵的共识。[20]根据我国《宪法》第38条人格尊严条款的规定,国家保护平台劳动者免受算法自动化决策的支配。平台劳动者的自动化决策拒绝权保障平台劳动者人格尊严、促进自主性实现为目标,其宪法基础当然亦以《宪法》第38条人格尊严条款所推导出的个人信息权为宪法依据,并成为该权利束体系的组成部分。

(二)平台劳动者自动化决策拒绝权与其他宪法基本权利密切关联

从平台劳动者视角出发,“困在系统里”的平台劳动者在自主性严重受限的情形下,被迫执行平台用工自动化决策系统的决定,这可能会严重影响平台劳动者生命权、健康权、劳动权、平等权等除人格尊严外的其他宪法基本权利。平台劳动者的自动化决策拒绝权旨在保护平台劳动者免受自动化决策的约束,与这些宪法基本权利的实现密切相关。

第一,平台劳动者的生命权、健康权。在职业安全卫生方面,平台用工自动化决策影响平台劳动者的生命权、健康权。生命权、健康权作为人权的重要内容,是人之为人而应当享有的权利,属于宪法层面具有优先性的权利。[21]虽然我国《宪法》没有对生命权、健康权进行规定,但是宪法基本权利体系具有开放性,根据《宪法》第33条第3款的人权条款,生命权、健康权属于基本权利体系范畴。[22]在平台用工领域,自动化决策与工作时间、任务量、奖惩与考核等劳动条件密切相关。在平台用工初期,平台通常以“最严算法”作为考核要求,严重影响了平台劳动者的劳动安全。根据欧盟工作安全与健康机构发布的报告,平台用工自动化决策会导致平台劳动者产生时间压力、工作强度、不安全感和社会孤立等问题,这不仅会影响平台劳动者的人身安全,还会影响其心理健康和福祉。[23]在平台劳动者自动化决策拒绝权的实现路径中,对自动化决策系统运行的事中风险评估与人工监控则可以防止平台适用“最严算法”,通过“算法取中”的方式合理确定劳动时间、休息时间、任务量等劳动条件,进一步保障平台劳动者的生命权、健康权。

第二,平台劳动者的平等权。在平台用工自动化决策过程中,平台劳动者因为种族、照顾家人等受到歧视,其平等权受到损害。无论是意大利Deliveroo算法歧视案中罢工、照顾家人引起的工作任务分配歧视,[24]还是英国Mr Pa Edrissa Manjang v.Uber Eats UK Ltd and others案涉及的有色人种工作机会歧视,均侵害了平台劳动者的平等权。我国《宪法》第33条、第34条、第48条等条款分别以概括性条款或者具体平等权条款的形式对平等权进行了规定。平台劳动者自动化决策拒绝权实现路径中的事中风险评估与人工监控、事后人工审查机制,可以在事中阶段评估并监控自动化决策的歧视风险以尽可能避免歧视的发生,或者在事后阶段为平台劳动者提供人工审查与救济,从而保障平台劳动者的平等权。

第三,平台劳动者的劳动权。在平台劳动者的劳动权保障方面,平台通过自动化决策暂时或者永久关停账户等行为影响了平台劳动者的劳动权。我国《宪法》第42条第1款对公民的劳动基本权利进行了规定,宪法层面的劳动者不仅涵盖了《劳动法》意义上具有劳动关系的劳动者,还涵盖了公民中不具有劳动关系的群体。[25]同时,我国《宪法》第42条第1款中的“劳动”,不仅包含《劳动法》中劳动关系意义上的职业性劳动,还涵盖了“营业”范畴。[26]换言之,无论平台与平台劳动者之间是否存在劳动关系,平台劳动者均享有宪法层面的劳动权。在平台用工算法管理过程中,平台通过自动化决策暂停账户、永久关停账户等行为影响了平台劳动者宪法层面的劳动权。平台用工自动化决策涉及的暂停账户、考核与奖惩内容,还会对平台劳动者的劳动条件产生严重影响。平台劳动者自动化决策拒绝权实现路径中的事中风险评估与人工监控、事后人工审查机制,可以在事中阶段评估并监控劳动条件的自动化决策,尤其是评估相关惩罚措施的合理性,或者在事后阶段为平台劳动者提供人工审查与救济,从而保障平台劳动者宪法层面的劳动权。

三、平台劳动者自动化决策拒绝权的双重功能:私法自治与国家干预

平台劳动者的自动化决策拒绝权是宪法基本权利个人信息权权利束体系的内容,根据基本权利的双重效力,平台劳动者的自动化决策拒绝权具有主观防御与客观价值秩序双重功能。

(一)主观防御功能:保障平台用工自动化决策的私法自治

平台劳动者自动化决策拒绝权的主观防御功能在于防止国家不当入侵与干预,保障平台用工自动化决策领域的私法自治。在一般个人数据保护领域,GDPR第22条保护数据主体免受自动化决策约束条款,应当解读为“权利模式”还是“禁令模式”,当前尚存争议。[27]在“权利模式”之下,数据主体以请求权的方式向数据处理者行权,以达到免受自动化决策约束的目的。数据主体可以行使抑或是不行使该权利,此为私人领域的个人自治,国家不得干预。平台用工自动化决策涉及工作任务量、工作时间、任务分配、收入、奖惩等劳动条件。当前平台劳动者与平台之间的劳动关系尚存争议,但无论两者之间是否存在劳动关系,平台劳动者都将通过平台进行工作,平台劳动者与平台双方私主体之间达成的合意并无争议。故而,平台用工自动化决策领域具有私法属性特点,国家应当保障当事人之间的私法自治。

在平台用工领域,相关的自动化决策如果对平台劳动者产生重大影响,根据我国《个人信息保护法》第24条第3款,平台劳动者有权通过请求权的方式向平台行使自动化决策拒绝权,[28]避免受平台用工自动化决策的约束。当然,平台劳动者可以向平台行使该权利,也可以不行使该权利,平台劳动者享有选择自由,这体现了平台劳动者权利保护的个人主义,国家不得干预或者迫使平台劳动者行权。此为平台劳动者自动化决策拒绝权的主观防御功能。

(二)客观价值秩序功能:对平台用工自动化决策进行国家干预

平台劳动者自动化决策拒绝权的客观价值秩序功能在于要求国家介入平台与平台劳动者之间的不对等关系,[29]对平台用工自动化决策进行积极干预,保障劳动条件的设定符合社会国原则,促进平台劳动者生命权、健康权、平等权、劳动权等宪法基本权利的实现。

第一,平台用工自动化决策领域需要进行国家干预。在一般个人信息领域,如果将GDPR第22条保护数据主体免受自动化决策约束条款解读为“禁令模式”,则国家原则上禁止完全自动化决策,数据处理者仅在特殊例外情形下方可进行自动化决策。此体现了国家积极干预的公法规制色彩,目的在于防止保护不足。平台用工算法具有一般算法的黑箱特点,信息不透明使得平台与平台劳动者之间的力量严重失衡,[30]并进一步影响平台劳动者的权益保障。在平台用工领域,我国虽然为平台用工自动化决策提供了私法自治的空间,但是由于实践中涉及平台用工自动化决策的问题突出,国家出台了一系列的规范性文件进行指导。这些指导文件虽然具有软法色彩,但是相关内容体现了国家对平台用工算法治理的积极干预。比如,人社部56号文提出督促平台在制定或者修订涉及相关劳动条件的算法时充分听取工会或者劳动代表的意见,并告知平台劳动者;市场监管总局38号文提出不得将“最严算法”作为平台劳动者的考核要求,应当通过“算法取中”的方式确定任务量、配送时间等劳动条件。国家的这些积极干预措施旨在增加算法自动化决策的透明度,保障平台劳动者的劳动条件,矫正平台与平台劳动者的权力失衡。

第二,平台用工自动化决策的国家干预须符合社会衡平理念,注重弱者保护与社会正义。国家在平台用工算法管理领域的积极干预措施,目的在于确保平台用工自动化决策所形成的劳动条件有利于对劳动者弱势方的保护。一方面,无论平台劳动者与平台之间的劳动关系为何,平台均对平台劳动者进行了一定程度的技术性约束。虽然在劳动法层面是否可以评价为从属性尚存争议,但是对于平台劳动者的弱势地位以及权利保护缺位应无争议,况且平台劳动者对平台存在或多或少的从属性或者经济依赖性。[31]因此,国家应当对平台劳动者予以积极性的保护措施,确保劳动条件符合社会主义国家原则。在德国社会国原则的发展过程中,虽然其内涵具有不确定性,但是德国著名的社会法学者Hans F.Zacher指出,国家对于经济上或经济导致的社会关系,加以评价、保障及变更,以保证个人人格尊严之生存,减少贫富差距,消除或控制从属的依赖关系。[32]换言之,具有从属性或者依赖性的关系具备国家积极干预的正当性。相应地,国家对于弱势群体,尤其是对具有从属性依赖关系的群体应当予以积极扶助与保护。我国《宪法》第42条第2款规定“国家通过各种途径......加强劳动保护,改善劳动条件”。如前所述,《宪法》第42条可以涵盖不具有劳动关系的群体,由此,该条款当然可涵盖平台劳动者这一弱势群体。换言之,对于平台劳动者的劳动保护与劳动条件,国家应当予以积极干预并承担保护义务。

另一方面,平台运用自动化决策的行为涉及平台的财产权与营业自由等权利,这些权利的行使须承担社会任务。在平台用工中,平台通过相关信息收集与处理生成的数据具有财产价值,平台对相关数据的利用、交易等活动属于宪法层面财产权的范畴;同时,平台通过算法管理应用程序或者自动化决策系统设定平台劳动者的劳动条件,此属于平台营业自由的范畴。[33]但是,平台这些权利的行使并非完全自由、没有界限。在公法理论体系中,社会国原则为基本权利的行使设定了界限,即财产权等权利的行使须承担社会任务。在自由权的向度下,宪法财产权、营业自由等权利的主观防御功能要求排除国家的干预,但是在社会国原则的要求下,这些权利的行使如果不符合社会正义,尤其是未考量弱势群体的权益时,国家须承担积极的干预义务。[34]因此,平台用工算法的使用特别是通过自动化决策产生的劳动条件,应当符合社会衡平理念,注重社会正义与弱者保护。

四、私法请求权路径:注重平台劳动者个体层面的权利保护

个人信息保护需要贯彻公私法融合的思维,[35]与之相似,平台劳动者自动化决策拒绝权的实现亦需要公私法的协调配合,具体而言,一方面需要保障平台用工领域的私法自治,尤其需要保障平台劳动者通过私法请求权的方式行使权利,矫正平台用工自动化决策中平台劳动者个体层面问题;另一方面,国家针对平台用工自动化决策的风险进行积极干预,矫正自动化决策系统运行前与运行过程中(即事前与事中阶段)的信息不对称并进行风险评估与人工监督,注重平台劳动者整体层面的风险预防。

在私法视野下,平台劳动者自动化决策拒绝权以请求权的方式,请求平台以作为或者不作为的方式保障平台劳动者不受自动化决策约束的权利,实现个体层面的自我保护。我国《个人信息保护法》第24条第3款规定了自动化决策拒绝权的行使要件,包括自动化决策的决定“仅通过自动化决策的方式作出”“对个人权益有重大影响”两项。关于平台劳动者自动化决策拒绝权行使要件的界定,须考量平台用工的特殊场景,而关于平台劳动者行使自动化决策拒绝权的法律效果,则须结合平台用工自动化决策的不同阶段进行分析。

(一)平台劳动者自动化决策拒绝权行使要件的厘定

1.平台用工场景下“仅通过自动化决策的方式作出”的多因素考量

关于我国《个人信息保护法》第24条第3款规定的“仅通过自动化决策的方式作出决定”的内涵,可参考GDPR第22条第1款“完全通过自动化方式做出的决策”的界定。完全自动化决策意味着个人无法对决策的结果施加任何实质性影响,[36]判断的核心在于是否存在有意义的人工干预。在平台用工自动化决策的相关案件中,平台通常会主张进行了人工干预。那么,如何判断平台所主张的人工干预是有意义的,抑或人类的参与必须达到何种程度才是有意义的?欧盟第29条工作组认为,可从以下方面进行考量:第一,人类对决策的所有监控均是有意义的,而非仅是橡皮图章;第二,负责人工干预的人员必须具备改变决策结果的相应能力与权限;第三,在人工干预的分析过程中应当考量所有相关数据因素。[37]

在平台用工自动化决策案件中,法院或者数据保护机构对自动化决策中是否存在有意义的人工干预进行了分析,具体包括以下考量因素:

第一,关于人工参与是否为橡皮图章。在荷兰Uber司机诉Uber算法关停账户案件中,[38]Uber司机因被算法“解雇”(关停账户)而对平台提起诉讼,案件核心问题之一为Ube“r解雇”(关停账户)的决定是算法还是人工作出的。Uber提出,因欺诈而关闭账户的决定是由EMEA运营风险团队(以下简称风险团队)至少两名人员在一致决定的基础上作出的。但是,在该案件的审理过程中,法院认为Uber并未有力证明其主张,尤其是该案中风险团队没有充分考量所有相关数据因素。对于风险团队的工作人员在收到ERAF软件欺诈信号后是由人工还是自动化决策作出的相关分析及决定,Uber未进行有力举证,因而无法判断工作人员的行为是否仅是纯粹的象征性行为,故法院未支持Uber的主张。在意大利数据保护监管机构对Foodinho、Deliveroo外派配送平台的罚款案件中,关于“卓越”评分等自动化决策系统,无论是预设参数还是后续的参数调整都需要人工参与,意大利数据保护监管机构指出,对算法的参数进行必要的设置并不能排除完全自动化决策。[39]换言之,此时的人工参与并不具有意义,仅为橡皮图章。

第二,关于人工干预人员的资质与水平。在荷兰Uber司机诉Uber算法关停账户案件中,法院指出Uber未证明风险团队的工作人员的资质与知识水平。[40]《欧盟平台用工指令》第10条第2款对自动化决策人工监督中的工作人员的能力、培训、权限进行了概括性规定,要求工作人员应当具有推翻自动化决策的能力,并且不得因此受到不合理待遇。

第三,关于人工干预是否考量了所有相关数据等因素。在荷兰Uber司机诉Uber算法关停账户案件中,[41]法院指出Uber的风险团队总部位于波兰克拉科夫,虽然Uber主张其工作人员对涉嫌欺诈的个案进行了实际人工调查,但是在未听取三名司机各自意见的情况下,这一主张难以令人信服,因而,就这三名Uber司机而言,法院认为关闭账户是通过完全自动化决策做出的决定;同时,针对该案另一名司机的特殊情况,因为风险团队在作出人工决策之前,与司机进行了对话,考量了司机意见这一因素,因此法院认为就该司机而言风险团队的人工干预是有意义的。

2.对平台劳动者权益有“重大影响”的综合判断

根据我国《个人信息保护法》第24条第3款的规定,自动化决策拒绝权行使的另一要件为“对个人权益有重大影响”,但当前立法并未规定该要件的具体内涵。与之相类似,GDPR第22条第1款规定自动化决策拒绝权的行使要件之一为对数据主体产生“法律效果或者类似重大影响”。关于该要件的具体内涵,相关学者指出,该要件是指自动化决策改变、塑造或者以其他方式(部分或者全部)决定一个人的合法权利或者义务,或者对数据主体的福利产生严重不利影响。[42]欧盟第29条工作组认为,一方面,在法律效果层面,自动化决策影响数据主体的合法权利,或者对数据主体的法律地位或者合同相关权利产生影响;另一方面,在类似重大影响方面,自动化决策虽然未影响数据主体的法律地位或者合法权利,但是其产生的影响重大,以至于与法律效果相似,甚至可能严重影响有关数据主体个人的情况、行为或选择,对数据主体产生长期或永久的影响,抑或在最极端的情况下,导致个人的排斥或歧视。[43]具体到劳动法领域,对劳动者个人权益有重大影响的事项涉及就业机会、工作内容、报酬收入、安全卫生等内容,而且其判断具有一定的弹性。[44]具体的判断需要区分不同场景、结合数据主体情况进行个案分析。[45]

在平台用工实践中,针对相关自动化决策是否对平台劳动者产生“法律效果或者类似重大影响”,法院、数据保护机构进行了分析与阐释,对平台劳动者权益有“重大影响”的判断具有重要的参考意义。综合而言,包括以下方面:

第一,自动化决策影响平台劳动者的法律权利或者地位。一方面,自动化决策影响平台劳动者的合同地位。在荷兰Uber司机诉Uber关停账户案件中,阿姆斯特丹上诉法院指出,Uber关闭司机账户的行为是永久性的,其终止了与Uber司机的合同关系,这表明自动化决策对平台劳动者产生了法律效果,[46]影响了平台劳动者的法律地位。另一方面,自动化决策致使平台劳动者面临行政处罚或者刑事指控。在上述案件中,阿姆斯特丹上诉法院进一步指出,Uber检测欺诈算法的自动化决策结果可能导致平台劳动者面临刑事或者其他方面的指控,[47]这足以表明自动化决策将会对平台劳动者产生重大影响。在荷兰Ola与平台司机的自动化决策数据访问权争议案中,Ola“欺诈概率评分”这一自动化决策系统的评分是基于乘客提出异议成功后重新计算车程费用的频率和次数以及同一账户的账单被重新计算的次数。“欺诈概率评分”可分为“可疑”分数和“不可疑”分数,仅供Ola内部员工专门监控某些司机,并对司机行为和可靠性进行风险预测分析。法院认为,“欺诈概率评分”对司机有重大影响,因为这个分数决定了Ola是否会对司机采取进一步措施。如果该得分为负数,则意味着对司机的严重指控,这可能会产生其他严重的后果,例如向运输监管机构报告和吊销出租车牌照。[48]

第二,不仅注重自动化决策对平台劳动者的直接影响,亦考量其可能的间接影响。在荷兰Ola与平台司机的自动化决策数据访问权争议案中,法院指出,Ol“a收入画像”自动化决策系统将平台司机分类以提供特殊派单,使司机可以获得比常规更多的补贴,此分类是根据各种参数建立的,比如每周登录时间、平台司机的“接单率”,而且平台会定期更新和调整参数。法院认为,对某一群体的这种定性或分类的结果在相当大程度上影响了平台司机的经济收入,因为这影响了他们的订单、价格,以及他们是否有资格享受特殊优惠。[49]在荷兰Uber司机与Uber自动化决策数据访问权争议案中,关于Ube“r司机综合评级系统”,法院指出,虽然评分是乘客给出的,但是Uber通过该系统将评分统计结合,得出司机的平均评分,该系统的自动化决策可能会成为关闭司机账户的原因,从而间接对司机产生重大影响。[50]

第三,考量对平台劳动者影响的长久性、持续性。在荷兰Uber司机与Uber自动化决策数据访问权案件中,阿姆斯特丹上诉法院指出,Uber关闭平台劳动者账户的影响具有永久性而非暂时性,就此而言,一方面,Uber平台的自动化结果影响了平台劳动者的机会,劳动者无法通过Uber平台获得劳动收入,导致平台劳动者无法收回平台劳动者的投资成本;另一方面,平台劳动者可能面临刑事或者其他方面的指控。[51]在荷兰Ola与平台司机的自动化决策数据访问权争议案中,法院对Ol“a欺诈概率评分”自动化决策系统作出了相似的阐释,认为该自动化决策系统会对平台劳动者产生持续性的影响。[52]

第四,在平台劳动者的权益方面,着重考量对平台工作机会与工作收入的影响。在荷兰Uber与平台司机自动化决策数据访问权争议案中,Ube“r派单匹配系统”是Uber用来匹配司机和乘客的自动化决策系统,该系统首先将最近的司机和乘客分组,然后在组中确定最优匹配,以尽量减少整个司机和乘客群体的等待时间。阿姆斯特丹上诉法院认为,“派单匹配系统”不仅会导致司机与乘客的供需匹配,还可能导致司机收不到订单或者收到订单的频率降低,进而影响司机通过Uber平台完成的接单量与收入。因而,Ube“r派单匹配系统”对Uber司机产生重大影响。[53]此外,在该案中,Ube“r预定价系统”是一种自动化决策系统,Uber平台通过该系统根据客观因素,比如请求乘车的时间和预期持续时间、实时的供需比例、预期的交通状况和日期,提前计算出乘车价格,而且Uber在确定车费时使用动态定价,法院认为“预定价系统”对车费定价进行自动化决策,而每个订单的定价都决定了司机的收入,同时多个连续订单的定价作为整体将会对司机产生重大影响。[54]

(二)法律效果:停止完全自动化决策与人工干预

平台劳动者以私法请求权的方式行使自动化决策拒绝权,确保自动化决策中人工干预的介入,进而保障平台劳动者在个案情形下自身不受自动化决策约束的权利。

第一,不同法域自动化决策拒绝权的法律效果差异检视。GDPR第22条对自动化决策拒绝权(免受自动化决策约束权)进行了规定,关于该条文的阐释,有观点认为该条赋予了数据主体免受自动化决策约束的权利,即“权利说”,[55]有的观点则认为该条是对自动化决策的禁止,即“禁令说”。[56]“权利说”抑或是“禁令说”虽然均具有一定的合理性,[57]但是两者具有不同的法律效果。在“禁令说”立场下,法律一般性禁止对数据主体进行完全自动化决策,数据处理者需要进行主动的人工干预,此为数据处理者的一般性积极义务,无须数据主体以履行请求权的方式行权,即可达到要求数据处理者进行人工干预的法律效果。在允许数据处理者进行完全自动化决策的特殊例外情形下(GDPR第22条第2款),数据处理者方可进行完全自动化决策,此时,数据处理者还须承担设置保障措施的积极义务。在“权利说”立场下,自动化决策的人工干预法律效果部分依赖数据主体,以履行请求权的方式实现。

我国《个人信息保护法》第24条第3款规定,个人有权拒绝信息处理者仅通过自动化决策的方式作出决定。针对该条文,相关观点指出其采取了自动化决策结果拒绝权的模式。[58]亦有观点认为该条款采取了自动化决策方式拒绝权的模式,应当从事前与事中的方式拒绝、事后结果拒绝等方面进行考量。[59]从该条款的文义解释出发,我国《个人信息保护法》第24条第3款自动化决策拒绝权应当不仅包含事后阶段的自动化决策结果之拒绝,还包括事前与事中阶段的自动化决策方式之拒绝。

第二,平台劳动者自动化决策拒绝权在自动化决策不同阶段的法律效果:停止完全自动化决策与人工干预。在事前与事中阶段,平台劳动者行使自动化决策拒绝权,一方面表明平台劳动者请求平台不得(事前阶段)或者暂时停止(事中阶段)完全自动化决策;另一方面,如果平台后续需要进行数据处理,该权利的行使意味着平台劳动者请求平台在自动化决策中进行人工干预。就此,我国《个人信息保护法》第24条第3款以及第44条均可成为请求权的基础。在平台用工实践中,平台劳动者自动化决策拒绝权的行使主要通过自动化决策的知情同意机制(事前阶段)、选择退出机制(事前与事中阶段)来实现。

在事后阶段,平台劳动者行使自动化决策拒绝权,意味着平台用工完全自动化决策的结果暂时不生效,同时平台劳动者请求平台对完全自动化决策的结果进行解释、人工审查,我国《个人信息保护法》第24条第3款为请求权的基础。在事后阶段,平台用工完全自动化决策的结果如果没有对平台劳动者造成特定的损害后果或者产生重大影响,在当前算法透明度不足、自动化决策信息严重不对称的情形下,平台劳动者事后通常难以行使自动化决策拒绝权。在平台用工完全自动化决策的结果导致平台劳动者权益受到损害时,比如涉及算法解雇(暂时或者永久关闭账户等)、算法派单歧视、面部验证无法登录等情形,结合前述平台劳动者完全自动化决策拒绝权的权利行使要件,平台劳动者方可具有行使权利的可能性。实践中,在事后阶段,平台劳动者自动化决策拒绝权的行使主要通过申诉机制来实现。

总体而言,平台劳动者自动化决策拒绝权的私法请求权路径强调平台劳动者权利保护的个人主义,尤其注重解决平台劳动者的个人权益影响或者个人损害。在平台与平台劳动者力量极其不对等、群体结构性不平等但是个体难以察觉等情形下,仅通过个人私法请求权的路径难以有效保障平台劳动者自动化决策拒绝权的实现。

五、公法风险规制路径:注重平台劳动者整体层面的风险预防

基于个人信息权的宪法基本权利性质,平台劳动者自动化决策拒绝权作为个人信息权权利束体系的组成部分,其客观价值秩序功能要求国家承担积极的保护义务,对于平台用工自动化决策中平台与平台劳动者的不对等关系进行干预,防止产生不利后果。[60]在平台用工自动化决策广泛应用的背景下,如前所述,自动化决策可能会产生不准确乃至非法的决策或者输出,进而影响平台劳动者的人格尊严、生命健康权、平等权、劳动权等宪法基本权利。不过由于平台与平台劳动者之间的信息严重不对称等情况,上述影响或者问题难以被平台劳动者个体所察觉,仅易在平台劳动者整体层面被发现,[61]比如派单和薪酬歧视涉及的平等权问题、任务量和工作时间等涉及的劳动安全问题等。尤其是生命权、健康权、平等权属于具有较高价值位阶的宪法基本权利,同时,这些宪法基本权利在平台用工场景下进一步与平台劳动者的劳动权相结合。为了落实宪法基本权利的国家保护义务,矫正平台与平台劳动者之间的信息不对称,防止平台用工自动化决策对平台劳动者在整体层面产生个体不易察觉的损害,国家应当在事前与事中阶段对平台用工自动化决策进行积极干预,保障平台劳动者自动化决策拒绝权的实现。

在公法规制层面,主要通过事前阶段平台用工自动化决策有意义信息的强制性披露,来规制平台与平台劳动者之间的信息不对称风险;通过事中阶段平台用工自动化决策的风险评估与人工监控,来规制平台劳动者的生命健康权、报酬权、劳动权等被侵害的风险。

(一)平台用工自动
······

© 北大法宝:(www.pkulaw.cn)专业提供法律信息、法学知识和法律软件领域各类解决方案,是全国目前数据最丰富、内容最权威、功能最强、更新最快、用户最多的综合法律信息平台。劳动法宝为您提供丰富的参考资料,正式引用法规条文时请与标准文本核对。