你能接受AI审核你的简历吗?

2021年8月8日 234点热度 0人点赞 0条评论

随着计算机科学的发展,越来越多的企业开始将机器学习引入到企业的管理中,其中有一些企业已经开始探索如何将机器学习应用于招聘的过程中。


企业在招聘的时候通常会收到大量的简历,怎么筛选这些简历成为一些企业的难题。用人工筛选简历的方法面临着疲劳、标准波动、贿赂等问题,为了解决这些问题,有些企业已经开始使用机器学习的方法筛选简历。现在,大部分机器学习与简历筛选相结合的研究都关注技术上如何实现。那么,求职者对此是何种想法呢?


图片

本篇研究以求职者的公平性感知作为理解求职者想法的引子,探索了求职者对于企业使用机器学习等科技方法筛选简历的想法。

根据求职者公平性感知理论,求职者感知一个招聘过程(包括筛选简历的过程在内)是不是一个公平的招聘过程主要包括三方面,第一是程序公正,第二是人际公正,第三是信息公正。

程序公平

程序公正主要包括招聘环节与工作之间的相关性、表现机会(求职者能否有机会表现出胜任该工作的机会)、再议机会(求职者能否有机会挑战招聘者的决定)、 管理者的一致性(招聘过程是否标准化);

人际公平

人际公正主要包括求职者能否与招聘官(面试官)平等地沟通、求职者能否感受到来自招聘官(面试官)的温暖;招聘官(面试官)提出的问题是否恰当;

信息公平

信息公正指的是提供给应聘者关于选拔过程实施方法和结果决定办法等信息的公平性。

图片

在机器学习筛选简历的方法中不涉及信息公正维度,因此不做过多讨论。


在其余两个维度中,研究者认为求职者是否感到公平取决于求职者是否能足够信任计算机(人机信任),这对应程序公正。其次,求职者是否与机器有足够的交互机会,这对应着人际公正。


通过阅读大量文献,研究者提出求职者能否有足够的人机信任取决于个体先前接收的与计算有关的经验。但是,求职者在社会中接触到的大多数信息都对机器学习有着这样或那样的偏见(算法厌恶、笨拙、无效自动化)。


这可能导致个体对计算机没有足够的信任。这进一步导致个体认为相比于人工筛选简历,机器学习不知道什么样的人更适合目标岗位,也并不能从简历中收集足够的、能展现自己优点的信息,甚至没有沟通解释的机会。此外求职者可能感受到更少的温暖、尊重,也不满意于与机器沟通。


但是,从另一个角度来说,机器很难有"猫腻",这就导致人们可能会觉得机器能在不同求职者之间保持一致性。

图片

接着研究者设计了一项实验来证明他们的想法,他们还将是否被选拔上(被选上的人可能会觉得公平)作为考察要素纳入到他们的研究中。


他们用在线平台完成本次实验。研究采用了2× 3完全交叉实验设计。

第一个自变量,筛选程序,两个水平:人类(0)或自动(1)。

第二个自变量,结果偏好,三个水平:拒绝(0),未知(1)和接受(2)。

因变量:程序公正和人际公正,选择程序公正量表(SPJS)中验证程序公正规则和人际公正规则。

图片

根据结果,研究者发现被试确实认为相对于传统的筛选而言,机器学习不知道什么样的人更适合目标岗位,他们认为算法筛选并不能像人工筛选那样在简历中收集足够的,能展现自己优点的信息,计算机也不会给求职者沟通解释的机会。他们感受到更少的温暖、尊重,并不满意与机器沟通 。另外,求职者也确实感觉算法筛选没那么容易出现“猫腻”。


总的来说,本研究证明求职者对于企业使用算法筛选被试的接受程度较低。

若企业贸然使用算法筛选被试简历可能让被试感到不公平,他们可能不愿意向其他人推荐该企业。再加上当前各企业对算法的掌握程度不同,有些算法程序可能本身就携带着来自样本的“偏见”,如:对人种、性别的偏见等,在这样的情况下使用算法程序筛选简历可能还会面临法律风险。

 


参考文献

【1】Sean M. Noble;Lori L. Foster;S. Bartholomew Craig(2021);The procedural and interpersonal justice of automated application and resume screening;International Journal of Selection and Assessment.2021;00;1-15

作者:老拖延Sp

编辑:Wz

排版:yolo

图片

84320你能接受AI审核你的简历吗?

这个人很懒,什么都没留下

文章评论