行业新闻与博客

亚马逊只是 AI 偏见冰山的一角

亚马逊 最近披露了 2015 年废除招聘人才招聘工具的决定,此前该公司发现其对女性有偏见。虽然这个故事已经被充分涵盖,但还有一个更大的故事要说明:目前用于招聘和人力资源目的的大量人工智能技术已经独立行动,一段时间没有任何形式的监管。

在探讨这个问题之前,了解为什么亚马逊软件会发生这种情况对我们会有所帮助,机器人中的鬼魂是什么?我将提供一些关于如何避免类似事件的见解,然后解释为什么为这每年花费 6380 亿美元的员工招聘行业中的其余部分开辟了一大堆蠕虫。


二十年的男性印记

有些人可能会惊讶地发现人工智能已经在招聘过程中使用了至少 20 年。自然语言处理,语义和布尔字符串搜索等技术可能已被用于西方世界大部分工作中。

一个更为人所知的事实是,历史上,甚至是目前男性占据了 I T 领域的主导地位。根据 Statista 的数据,今天,谷歌和微软等大公司的技术人员分别仅占 20% 和 19% 。考虑到这些统计数据,毫无疑问,我们创造了对女性无意识偏见的技术。

让我们回顾一下:20 多年前,一个由男性主导的科技行业开始创建人工智能系统,以帮助雇用更多的技术员工。根据无意识偏见机器的建议,科技行业随后决定以人为主。

经过 20 多年的推荐男性候选人的积极反馈,该机器印上了其科技公司理想候选人的形象。我们留下的是亚马逊发现的内容:人工智能系统对简历中包含“女性”一词的任何人都有固有的偏见,或者是任何一个女性大学的人。

但是,这个问题不仅限于亚马逊。对于过去 20 年来一直在尝试人工智能招聘的科技公司而言,这是一个问题。

人工智能就像一个孩子

那么,这个男性偏袒的 Ouroboros 的中心是什么?这很简单:有太多的人负责创造技术,导致代码,机器学习和人工智能中无意识的男性偏见。

妇女在科技产业的发展中没有发挥足够的作用。技术关键词,编程语言和其他技能的开发主要在男孩俱乐部进行。虽然女性程序员可能具有与男性相同的技能,但如果她在完成之前没有像男性程序员那样展示她的技能,那么 AI 可能会因为表面原因而被人忽略。

把技术想象成一个孩子。它所创造的环境和所教授的课程将塑造它进入世界的方式。如果它只是从男性角度讲授,那么猜猜是什么?它会对男人有利。即使有机器学习,该平台的核心基础也将被赋予接触点以供学习和学习。除非技术由更广泛的人群编程,否则仍会存在偏见。

你可能认为这是微不足道的。仅仅因为一位女性候选人写了她是“女子国际象棋联盟的负责人”或“大学女子电脑俱乐部主席”的文章,这可能无法让她在一台毫无偏见的机器眼中处于劣势。

虽然它肯定不是黑与白,但在数百万份简历的过程中,即使是使用这种语言的 5% 偏见,也会导致大量女性受到影响。如果最终负责招聘的员工一直决定选择简历中显示男性语言的候选人,那么 AI 会慢慢但肯定会开始为那些具有这些特征的租户提供简历。

数百万妇女受影响

一些快速的一般数学:美国经济每年有 6000 万人换工作,我们可以假设其中一半是女性,因此有 3000 万美国女性。如果其中 5% 因人工智能中的无意识偏见而遭受歧视,那可能意味着每年有 150 万女性受到影响。这简直是不可接受的。

技术在这里为我们服务,它可以做得很好,但它并非没有缺点,而这些缺点往往反映了我们自己作为一个社会的缺点。如果怀疑大多数劳动力是通过人工智能技术以这种或那种方式接触,你应该知道招聘机构每年有 1500 万美国人投入工作,而且美国所有 17,100 个招聘机构已经使用,或很快就会使用某种 AI 产品来管理他们的流程。

那么,确定如何解决这个问题的下一个合乎逻辑的步骤是什么?我们都知道预防是最好的治疗方法,因此我们确实需要鼓励更多女性进入 IT 技术领域并在其中取得进步。事实上,为全面促进工作场所的平等和多样性而进行的认真努力将确保此类问题不再发生。然而,这不是一夜之间的解决方案,并且说起来容易做起来难。

显然,主要的举措应该是雇用更多的技术女性,不仅因为这将有助于重置 A I 算法并引导 A I 产生更多女性推荐,还因为女性应该参与这些技术的开发。在现代工作场所,女性需要和男性一样代表。

人力资源风暴即将来临

通过对亚马逊这种情况的理解,简而言之,让我们回到我提到的那种蠕虫病毒。世界第二大公司,以市值为基础,是一家技术公司,刚刚承认其招聘技术因男性化语言而有偏见。

在美国,目前有超过 4,000 个招聘委员会,17,000 个招聘机构,100 个申请人跟踪系统和数十个匹配的技术软件公司。他们都没有亚马逊的资源,他们都没有提到任何有关男性语言的问题导致偏见。这让你相信什么?

这让我相信,整个使用这项技术 20 年的行业最有可能一直在使用无意识的偏见技术,而因此而遭受苦难的人是数以百万计的女性。女性在技术领域缺乏代表性是全球性的,而且这一数字在 20 年后更加糟糕。在我看来,毫无疑问,整个行业需要醒悟到这个问题并快速解决。

问题是,即使是现在,由于目前使用的人工智能,她们还没有获得正确的机会,会发生什么?我不知道有哪些公司可以通过可靠的方式单独测试 A I 解决方案以识别偏差,但如果我们要自信地依赖这些解决方案,我们需要一个可以这样做的机构。这可能是有史以来规模最大的技术漏洞。这就好像千禧虫在招聘市场上已经成真。

关于这个如何长期存在的理论是,如果你问任何人,他们会说他们相信技术计算机人工智能是无情的,因此是客观的。这是完全正确的,但这并不能阻止它遵守它所遵循的规则和语言。

AI 的基本品质不仅包括缺乏情感或偏见,还包括无法判断常识在这种情况下意味着知道语言是男性还是女性语言与短名单过程无关。相反,它走向完全相反的方向,并将其用作短名单的参考点,从而产生偏差。

我们对技术的假设以及我们对人工智能的持续科幻理解使得这种错误能够继续下去,其后果可能比我们能够测量的天文学上更大。

我相信招聘和人力资源行业即将迎来风暴,而亚马逊则是举报人。这是一个需要尽快解决的行业问题。 

需要帮助吗?联系我们的支持团队 在线客服