标题

在招聘过程中有可能避免偏见吗?

我们人类都有偏见。偏见影响我们做出的决定,它往往会塑造我们感知细节的方式,阻止我们客观地看待情况。尽管偏见是一种常见的社会行为,但我们如何解决它,防止它导致我们做出糟糕的招聘决定?

https://adoptostaging.blob.core.windows.net/article/tGQtW0BM2EOAWvXXdqP-lA.png

走向多元化和包容性

多样性、公平和包容已成为招聘行业越来越受欢迎条款。与很多正在进行谈论的偏见和种族主义,公司正在探索开展业务,并显示他们的员工和潜在的候选人,他们是认真的多样化他们的工作场所的新途径。然而,导致近期研究show that there is ‘’no evidence of firms displaying positive preferences for diversity’’ and that ‘’firms need to take a hard look at their hiring processes and face up the fact that they may not be as diversity-loving in practice as they are in intention.’’ Although多项研究表明多元化公司表现更好,很明显,在理论多元化目标和实际实现这些目标之间存在巨大差距多样性和包容性目标

把你的个人喜好放在一边

偏见主要有两种类型:意识偏见和无意识偏见。我们可以控制有意识的偏见,但处理无意识的偏见就有点棘手了。如何控制我们不知道的东西?

为了给你一个更好的例子来说明无意识偏见有多普遍,以及它在工作场所可能采取的各种形式,我们来介绍一下丽莎。比如说Lisa申请了你们公司的一个职位。根据她简历上的信息,你可以看到你们上的是同一所高中,看她的照片,你可以假设你们年龄相仿。你的大脑开始思考这些不同的问题:你们两个见过吗?你们认识同样的人吗?等等。你会不由自主地对丽莎产生感情,因为你可能也有过类似的经历。

在另一个场景中,你注意到Lisa在她的简历中有几个拼写错误。现在你想,如果丽莎没有花时间和精力检查她的写作,她肯定在很多其他方面都不擅长。虽然认为一个不擅长检查简历打印错误的候选人也不擅长展示和销售你的产品,这是不合理的,但这个小细节改变了你对候选人的看法,让丽莎处于一个明显的劣势。欧宝体育是正规的吗

亲和力偏差和角效应偏差是招聘过程中最常见的无意识和非故意偏差。你能想象还有多少人在我们甚至不知道他们存在于我们的决策过程中吗?


招聘中的偏见类型

无意的偏见仍然是偏见

我们都容易根据自己的背景和过去的经历对别人形成看法。大多数时候我们都是无意识的,无意识的偏见很容易潜入我们的日常决策中。即使你试图做正确的事情,你仍然会无意识地引入偏见。这样想:

说我们在有意、有意地寻找符合我们对多元化劳动力定义的候选人时也存在偏见,这是错误的吗?

因此,探索并找出如何偏见影响我们的决策进程可以大大提高雇佣我们的大部分能力合格的候选人为了工作。

系统性偏见是根深蒂固系统

多项研究世界各地的演出如何的个人信息如性别,种族和年龄会影响应聘者是否会收到回调与否。这些研究的结果表明,少数群体往往被忽视的系统。即使听到某人的名字,第一次可以触发我们的大脑情绪反应,并导致在不知不觉中形成关于某一候选人的意见。

也许你曾与一个名为约翰和不管你的候选人的应用程序的质量的人负以往的经验,你的否定意见仅形成了他的名字的基础上。或者,也许你有一个叫约翰的孩子,你的即时反应,这个名字唤起积极的情绪。这些都是次要的例子,第一个本能的情绪反应,但培养偏差的可能性是无穷无尽的,更不用说能动摇我们的头脑到不公平的评估一个人的工作能力的其他细节。

不幸的是,几个世纪的种族主义和歧视导致了广泛的系统性偏见,我们对这个问题探索得越多,就越发现这个问题没有一个普遍的解决方案。

可以匿名筛检完全减少偏见?

以减少偏差一种方法是匿名候选人的筛选。删除个人信息,如姓名,照片,年龄和性别在招聘过程的初始阶段可以帮助克服不公平的最初设想。我们正在做关于有人谁,我们看到或满足首次假设所有有罪。根据A.研究在美国,60%的面试官会形成一个意见,并在15分钟内决定候选人是否适合。

匿名筛选有其优点,但也有局限性。这种类型的筛查并不能完全消除偏见,它只是将其延迟到某个特定的点。你可以在候选人的简历上隐藏信息,但迟早你必须亲自见他们,有意识地或无意识地形成你对他们的看法。招聘者想要避免偏见但在招聘过程的下一阶段,偏见仍有很大的空间。即使我们匿名化应用程序,删除基本的个人信息,某人的教育和经历可能会导致我们偏袒或不公平地忽视他们。

人工智能失败的时刻

招聘中的人工智能在自动化、优化以及帮助招聘人员比以往任何时候都更有效地找到合格候选人方面取得了长足的进步。人们还称赞人工智能完全消除人类偏见的潜力。但它能做到吗?只是在一定程度上!

的例子亚马逊HireVue告诉我们,依靠技术来解决我们的问题与偏见是不是要走的最实用的方法。亚马逊开发的,这不是一个性别中立的方式评级的候选人自动的人才搜索程序和HireVue使用自动评分面部扫描技术的形状,根据他们的回答排序候选人。接受众多批评和提高了很多关于该候选人评估的道德和公平性的质疑后,两家公司决定关闭他们的项目。

事实证明,算法从它们的人类创造者那里挑选出了偏见,这表明用有偏见的数据训练系统只会导致未来的偏见决策。这两个案例都让我们深入了解了机器学习的局限性。

非法与否,这是一个危险的游戏

人们比以往任何时候都更加担心使用人工智能评估求职者的法律问题。平等机会的雇主(EEO)法律涵盖了禁止就业歧视的问题和答案,但随着技术和人工智能解决方案的快速发展,有关人工智能驱动的评估的法律基本上是一个灰色区域,该技术在很大程度上不受监管。

正如指出纽约时报根据联邦法律,雇主有很大的自由裁量权来决定哪些品质是适合其组织的“文化契合度”。这使得公司可以选择排除某些人群的招聘标准,并通过自动化招聘来隐藏这种偏见。”

AI是一个伸出援助之手,而不是一个神奇的解决方案

技术帮助我们根据数据而不是我们的直觉做出决定,但重要的是要记住,技术是由人类开发和训练的。许多招聘人员求助于技术,但没有意识到它的局限性。引用《财富》杂志:“” AI提供了存在的数据,太复杂或微妙的人力资源经理或招聘经理永远辨别一些隐藏的星座,可以预测哪些候选人将在一个给定的角色擅长的承诺。从理论上讲,该技术提供的企业从根本上扩大他们的候选人池的多样性前景。但在实践中,批评者警告说,这种软件运行加强现有的偏见,使其难以为女性,黑人和其他非传统背景,得到聘用的高风险。””

完全客观的人才评估是所有招聘人员都希望实现的目标,但仅仅依靠技术来解决问题是一个存在许多潜在缺陷的解决方案。

那么,你到底应该怎么做呢?

雇佣人类是一个非常人性化的过程,人与人之间的互动涉及到情感。很自然,我们有自己的直觉,并基于那些帮助我们发展并取得今天成就的直觉形成我们的观点。记住,在我们的日常生活中有很多不同的偏见,我们需要学会如何识别和减少这些偏见。

试图消除所有这些不同类型的偏见可以是压倒性的,感觉就像通过雷区去。偏差不能被完全消除,但你和技术,同时,要控制它的力量。我们可以承认,我们没有一个不受施力,我们是否愿意承认或无法启动。

backgound backgound
终极指南了解您的雇主品牌的投资回报率

终极指南了解您的雇主品牌的投资回报率

我们为您创建需要了解雇主品牌和你的努力是如何转化为投资回报了解一切的指南。
让你的电子书

进一步的阅读

你招聘的队友

TalentLyft是一款直观的招聘应用,专为成功招聘而设计。