AI算法招聘容易让求职者哑巴吃黄连?


    招聘决策还充满了人为偏见,导致一些组织将至少部分员工搜索工作交给外部技术公司,后者使用机器学习算法筛选申请人。这种思维认为,如果人类很难找到最适合自己公司的员工,那么一台机器可能会做得更好,更有效。
    但是,康奈尔大学计算机与信息科学学者团队的最新研究向有关这些算法以及开发和使用它们的技术公司提出了疑问:自动筛选过程的公正性如何?算法是如何构建的?谁设计的?按什么数据支撑的?他们发现,在这个新兴领域中,公司倾向于青睐模糊不清而不是公开透明。在算法领域上缺乏共识,缺乏“偏见”和“公平”的正式定义,使得科技公司能够根据自己的条件定义算法偏见。
    “我认为算法决策工具的创建者越来越认识到,他们需要特别注意它们的算法工具是怎样影响人们的”计算机科学的博士生,Manish Raghavan说。 “我们研究中遇到许多技术供应商都承认这种了(影响),他们正在采取措施解决偏见和歧视。但是,在如何正确执行方面明显缺乏共识或指导。”
    为了了解这些工具,研究人员搜寻了可用的公共信息,以及公司采取了哪些措施来评估和缓解算法偏差。受知识产权法保护,科技公司不必披露任何有关其算法模型的职前甄选信息,但也有些公司选择了提供信息。研究人员研究了19个专门从事算法的职前筛选的供应商,对公司网站,网络研讨会和任何可用的文档进行了梳理,以深入了解供应商的要求和做法。他们发现,很少有供应商提供有关如何验证评估或披露有关如何减轻算法偏差的具体信息。
    Raghavan说:“许多供应商都没有提到消除偏见,这尤其令人担忧,因为他们根本没有考虑偏见。”即使他们使用“偏见”和“公平”这样的术语,但这些术语也可能是模糊的。供应商可以声称其评估算法是“公平的”,而无需透露公司如何定义公平性。
    那难道算法不适合筛选申请人吗?并不是的,尽管算法存在许多缺陷,但确实有潜力为更公平的社会做出贡献,我们需要做进一步的工作以确保我们能够理解和减轻它们带来的偏见。毕竟,从我们多年经验来说,求职者面试本身就会遭受各种各样的歧视。该团队希望这份研究能让算法公司对职前评估中道德行为有着更清晰的认知。