近年来,算法歧视、“大数据杀熟”等算法不合理应用导致的问题备受关注。为了防范化解安全风险,国家相关部门出台了有针对性的管理规定。
不少专家认为,在数字时代,随着算法参与用工管理过程,就业歧视手段更隐蔽、损害更难以察觉,劳动者对此难以获知、难以证实,其中最为明显的就是性别歧视给现行劳动法律法规带来的新挑战。
“大数据?算法?搞不懂!”4月24日晚10时,27岁的叶莉跑满12小时派单后刚刚下班,在成都市中心一个总计有80余人的外卖送餐员站点,作为仅有的2名女性从业者之一,除了接单、送餐,关于平台背后的一切“高科技”,她都不感兴趣。只是每每工资入账时,心里便不由得庆幸,“去年回家过年的人多,要不是平台招人急切,我可能还得不到这份工作呢!”
在共享经济平台用工模式下,叶莉对其获取工作机会的艰难无暇多想。但这一潜在问题却引起了学界的广泛关注。不少专家认为,在数字时代,随着算法参与用工管理过程,就业歧视手段更隐蔽、损害更难以察觉,劳动者对此难以获知、难以证实,其中最为明显的就是性别歧视给现行劳动法律法规带来的新挑战。
警惕求职中的“黑箱”淘汰
“女性有更多轻松一点的职业选择,不适合这风吹日晒雨淋的粗活”。成都市一街道片区快递员站点近百名从业者中98%为男性,作为主力队伍中的一员,赵明认为团队中女性稀少,缘于行业特殊性,女性不愿意进入这一领域。对此叶莉并不认同。
“只要挣钱多,谁还怕吃苦呢!”叶莉学历不高,在竞争激烈的大城市寻一份合心意的工作并不容易,外卖送餐时间灵活、薪水可观,于她而言十分珍惜。但即便在人员紧缺的年关,仍险些与这份工作失之交臂,“无外乎担心女性身子柔弱,体力活坚持不下来”。
赵明和叶莉各持己见,任谁也没有想过平台运转的背后,掌控大数据排列组合的算法正在影响他们的求职就业。
近年来,算法歧视、“大数据杀熟”等算法不合理应用导致的问题备受关注。为了防范化解安全风险,国家相关部门出台了有针对性的管理规定,但这仅是针对消费者端口的管控。有学者认为,由于算法具有较强的自主性,当劳动者资质、工作时间、生物数据、移动位置、劳动成果等各项信息均被充分数字化后,算法的自动化决策在招聘、任务分配、劳动评估甚至解雇决策中,或将产生难以察觉的歧视结果。
北京大学法学院助理教授阎天在专注于劳动法学的研究中敏锐察觉到这一问题。在他看来,与传统算法不同,随着大数据和机器学习技术的应用,当代算法自主获取信息能力极大提升,不仅会在自学中不断变化,其内容也可能无法被程序员、更无法被公众理解,成为某种意义上的“黑箱”,并可能嵌入设计者和雇主固有的性别歧视,进一步加剧固有的性别不平等。
算法歧视更隐秘且难以规制
“共享经济下,弹性的工作时间、灵活的就业方式对女性有着天然吸引力,曾被认为能够促进两性就业平等、赋权女性经济能力,现实并非如此”。北京科技大学文法学院副教授张凌寒在调查研究中发现,虽然总体来说共享经济为社会创造了更多劳动和收入机会,但却更多地分配给了男性劳动者。
“这也意味着我们针对性别歧视的法律防御体系存在失灵的风险。”阎天告诉记者,由于算法可以从数据中准确推测求职者婚育状况等信息,其自主性也让性别因素在算法决策中扮演的角色难以确定。
因此,我国现有法律对反就业歧视中关于性别歧视的规定,不足以应对算法歧视可能产生的情形。
记者在采访过程中发现,我国相关法律中,关于性别歧视的规定均是针对直接性别歧视,如阻止获知求职者婚育状况、禁止将性别因素纳入人事决策等,但数字时代的隐性性别歧视很难通过主观意图得到证明。
现行劳动保障法律制度受到挑战
面对算法歧视对于女性公平就业的挑战,学界前瞻性地提出了一系列对策,其中部分获得政府初步采纳。比如个人信息保护法中将求职者婚育信息确定为“敏感个人信息”,用人单位在处理这类信息时必须“具有特定目的和充分的必要性”“取得个人单独同意”“取得相关行政许可”以及禁止算法获取某些便于推测女性婚育状况的数据等。但绝大多数被认为是治标之策,非治本之道。
针对这一现实问题,张凌寒认为,应该对传统法律制度作出扩大解释,便于女性劳动者在算法自动化决策做出不利的人事决策时,寻求主动性别歧视的救济;将算法纳入劳动法规的合法性和合理性审查范围,便于法院审查用人单位利用算法参与用工管理过程中是否存在性别歧视的行为;扩大对性别歧视的结果认定,将间接性别歧视纳入劳动法规制对象中。
“针对算法在就业歧视中所起作用的讨论属于‘治未病’范畴,其背后的发病机理更应得到关注”。阎天称,国家调整生育政策、放开“三孩”背景下,就业歧视的“病根”在于生育成本分担的不公。随着其与算法歧视之间的因果联系愈发突显,如何消除“病根”,更为值得深思。
原文链接:《工人日报》(2022年04月28日 07版)
(责编:孟婍、陈丽萍)