
人工智能(AI)和机器学习(ML)提供的好处已经得到共识。这项技术可以帮助企业实现流程自动化,通过数据分析获得洞察力,并与客户和员工建立联系。人工智能(AI)系统越来越多地决定某人能否获得职位或贷款,薪水多少,医生和医院对他们采用哪种治疗方式,以及政府、执法机关和司法体系对待他们的公平程度。
如果这些自动化决策系统背后的人工智能带有深刻的偏见,可能依据种族、宗教信仰、性别或其他标准歧视某些人,这些问题会非常难以解决。

人力资源应用人工智能
如今,许多主要的云服务提供商已经在其服务包中提供人工智能功能,为那些可能难以负担昂贵的人工智能工程师和数据科学家的企业普及这项技术。
对于人力资源团队来说,人工智能的价值是显而易见的。一张招聘启事就会导致成百上千的求职者,手动查看每个简历往往是一项艰巨且耗时的任务。通过利用人工智能和机器学习技术,人力资源团队获得了大规模评估应聘者的能力,并大大提高了招聘推荐的效率。

人工智能诱发偏见对人力资源的影响
虽然人工智能为人力资源企业或部门提供了相当明显的好处,但它也带来了相当严重的挑战和潜在的陷阱。对于任何AI系统,你必须正面解决最困难(但也是最关键)的一个问题就是确保它没有偏见。
这对人力资源的人工智能系统尤其重要,因为任何人工智能引发的偏见都可能导致公司错失合格的求职者——而且通常是在所有人不知情的情况下。
还记得几年前,亚马逊(Amazon)因为性别歧视,而不得不取消了用于筛选简历的人工智能系统吗?这是训练数据力量的一个完美的例子——尽管很不幸是负面的。当时,亚马逊的大多数员工都是男性,因此,为人工智能系统提供的算法,根据公司自己的数据进行训练,最终将应用程序与男性化的词汇联系起来。
在这样做的过程中,合格的女性候选人完全被模型忽略了。因此,如果用于训练AI模型的数据是有偏见的,那么部署的AI系统也会有偏见。而且它将继续无限期地强化这种偏见。
人工智能系统无论是外包还是企业自建,都需要更密切关注偏见问题
在亚马逊的案例中,用于筛选简历的人工智能系统是公司内部构建的,并使用该公司自己的求职者的数据进行培训。但大多数公司没有资源为其人力资源部门建立内部人工智能系统。因此,越来越多的人力资源团队将工作外包给Workday或谷歌Cloud等供应商。
现在比以往任何时候都更重要的是,人力资源团队必须承认外包任何人工智能所带来的巨大责任。不要只是盲目地接受和执行你的AI供应商的模型。您和您的团队需要反复审查系统,以确保它们没有偏见。你需要不断地问自己:
哪些数据源(或数据源的组合)被用于训练模型?
模型使用哪些具体因素来做出决策?
结果是令人满意的,还是有什么不正确的地方?系统是否需要暂时关闭并重新评估?
仔细审查培训数据非常重要,特别是在外包人工智能系统中。但这并不是减轻来自偏见工作环境的偏见数据的唯一途径。
因此,你的人力资源团队也有责任评估公司内部的偏见或不公平问题。例如,在公司里男性是否比女性拥有更大的权力?哪些有问题的行为长期以来被认为是可以接受的?数据是否来自不具代表性的群体?
公司文化的多样性、公平性和包容性在融入人工智能时是绝对相关的,因为它推动了人工智能系统和结果的部署。记住,人工智能并不知道它是有偏见的。这取决于我们自己。
从人工智能中剔除偏见并非易事,因为不知偏见的起因。偏见可能会从多个节点进入机器学习周期。艾伯特说,不过从逻辑上最可能的起点是进入机器学习周期的数据。人工智能系统赖于深度神经网络,深度神经网络解析大量的训练数据集来确定模型。这些深度学习方法大体上以大脑结构为基础,许多代码层像神经元一样连接,并按照网络所选的模型改变链接的权重。

公平且不带偏见地利用人工智能的三个最佳实践
最终,人力资源团队需要了解他们的人工智能系统能做什么,不能做什么。现在,你的人力资源团队不必是技术专家或理解驱动人工智能模型的算法。
但他们确实需要知道,培训数据中反映了哪种偏见,偏见是如何融入公司文化的,以及人工智能系统是如何让这些偏见延续下去的。
以下是三个策略最佳实践,可以帮助你的人力资源团队以公平和公正的方式利用AI技术。
定期审计人工智能系统。无论您的系统是内部构建的还是外包给供应商的,例行检查收集的数据以培训模型和产生的结果。数据集是否足够庞大和多样?它是否包括有关受保护群体的信息,包括种族和性别?如果结果不令人满意,不要犹豫关闭系统重新改变方向。
了解数据供应链。当依赖外包的现成人工智能系统时,要认识到培训数据可能反映了供应商自己的偏见或第三方数据集的偏见。同样需要例行检查和定期审核。
使用AI来增强,而不是取代。人工智能的能力正在迅速发展,但现实是人工智能仍然需要管理。由于涉及的风险,人力资源团队应该利用人工智能来增强自己的作用,而不是放任自流。最终的招聘和人力资源决策仍需要人力来做。
人力资源团队处于一个独特的位置,以公平和无偏见的方式利用人工智能技术,因为他们已经非常精通偏见和不公平的系统性问题。
认识到人工智能系统所要求的责任,并始终努力了解它们是如何接受培训并产生结果的。
如果操作正确,人工智能将帮助你的人力资源团队发现偏见,并及时纠正,提高人力资源职责的效率和效力,并选择值得推荐的申请人和有价值的员工,使他们的职业生涯更加顺利。
最热文章

人工智能写科幻小说,和作家写科幻小说有什么不一样?

德国概念设计师Paul Siedler的场景创作,宏大气派。

《静音》是一部 Netflix 电影。尽管 Netflix 过去一年在原创电影上的表现并不如预期,但是《静音》仍让人颇为期待

最近,美国最大的经济研究机构——全国经济研究所(NBER,全美超过一半的诺奖经济学得主都曾是该机构的成员)发布了一份报告,全面分析了 1990 到 2007 年的劳动力市场情况。\n

坏机器人制片公司最新的一部电影名为《霸主》(overlord),背景设置在二战时期,很可能是一部在半遮半掩中秘密制作的科洛弗电影系列。

我们都知道,到处都在重启;我们也知道,如果有钱,啥都能重启。所以,会不会被重启算不上是个问题,只能问什么时候会被重启。自然而然地,世界各地的各种重启现象衍生出了一个有趣的猜猜游戏:哪一部老作品会是下一个接受这种待遇的?\n
京公网安备11010502039775号