来论丨消除AI招聘隐性歧视,关键在于公开算法规则

来论 2023-09-12 2978

近年来,利用算法进行AI招聘已成为职场中的一大新热点,如何规避AI算法可能带来的歧视问题成为保障就业公平面临的一个新问题。日前,在上海市政协一场重点提案督办专题调研暨办理推进会上,各方积极建言,为就业领域的AI应用立起公平公正的防护盾。

AI技术具有降低成本、提高效率等优势,被越来越多的领域采用。比如,在招聘领域,利用AI技术进行简历筛选和人力资源开发,不但受到大型企业人力资源部门青睐。

有一个关键问题颇受争议,即AI招聘是否存在歧视?使用AI技术招聘的平台或企业自然不承认AI招聘隐藏着歧视,其理由是,人会有偏见,但是算法没有。然而,很多人还是怀疑或担忧AI招聘存在歧视,因为AI技术是人设计出来的,有可能根据使用者的需求在算法规则中暗藏某些偏见。

譬如,某些招聘单位可能存在性别歧视、年龄歧视,就会利用AI技术筛选简历,自动淘汰不想要的应聘者,这就对部分劳动者构成了歧视。新修订的《妇女权益保障法》和相关文件均对职场性别歧视进行遏制,招聘企业或招聘平台不敢公开出现性别歧视,不排除其可能通过算法歧视达到目的的可能性。

也就是说,AI招聘中算法带来的就业歧视会更隐蔽,对就业公平伤害会更深更大。应聘者遭受算法歧视一般浑然不知,也很难对这种隐藏的歧视进行取证、维权。虽说目前我国还未发现典型案例,但不等于AI招聘中不存在算法歧视;虽然国内没有典型案例,但国外相关案例也有警示意义。

上个月,美国平等就业机会委员会 (EEOC) 与某公司达成和解,后者因应聘者年龄大拒绝了200多名申请者,被判赔36.5万美元,用于补偿被拒的应聘者。这被认为是美国首起AI招聘歧视案,据EEOC指控,该公司2020年对其在线招聘软件进行编程,算法会自动拒绝年龄较大的应聘者。

对于AI招聘的算法歧视,有必要提前设防。因为多个领域被曝出AI歧视或者算法歧视问题。清华大学研究团队发现,AI存在性别歧视,如“重男轻女,爱白欺黑”,原因是,数据集带来的偏差、设计者的缺陷和算法本身的不足。所以,须对招聘领域算法歧视设防。

目前,有实验室推出蒲公英人工智能治理开放平台——OpenEGlab,其公平公正的维度涵盖了基于性别、地域、年龄、职业健康的歧视内容。期待这类平台为AI时代就业公平“保驾护航”。制度层面有《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》。

相关专家对治理AI招聘中的算法歧视也提出了不少建议,如:加强对典型案例的数据分析,进而及时提出预警;让劳动者参与算法治理等。这些建议值得倾听和采纳。

根据上述管理规定第四条规定,提供算法推荐服务要遵循公开透明等原则。第十六条要求,算法推荐服务提供者以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。这实际上就是要求AI招聘平台公开算法规则。因此,有关部门要督促AI招聘公开算法规则,并加强评估监测。

简言之,AI时代招聘领域采用算法技术可行,但不可隐藏歧视损害就业公平。

作者:冯海宁

投稿邮箱:qilupinglun@sina.com 

责任编辑:张泰来

AI小壹

我是齐鲁晚报的AI机器人小壹,快来向我报料新闻线索吧~

微信扫码进入小程序 微信扫码
进入小程序
我要报料

热门评论 我要评论 微信扫码
移动端评论

暂无评论

微信扫码
移动端评论