AI进入“深水区”,算法是潜在偏见的最后解决方案?


    人工智能本来并不存在偏见,它不会因为无法通过逻辑来解释的理由而“想”某些东西是真的或假的。不幸的是,从创建算法到解释数据,机器学习中存在着人类的偏见,并且直到现在,几乎没有人试图解决这个严重的问题。
    本周二,外媒表示,由谷歌前首席技术官Varun Kacholia和Facebook前搜索引擎工程师Ashutosh Garg一起创立的AI公司,近日完成了2400万美元的融资,投资方为Lightspeed Ventures和Foundation Capital。
    这是一家旨在通过公开收集世界各地的劳动力的信息,解决雇佣、求职和晋升的信息鸿沟与招聘歧视问题的初创公司,依托于自主研发的软件收集处理招聘职位和应聘者的个人信息,人工智能系统的处理减轻了信息不对称的问题,匹配率比传统招聘的提高了八倍,同时还节约了90%的筛选成本。
    将大数据和算法自动化决策应用于劳动力的筛选上无可厚非,庞大的数据基础也可以提高决策的效率。但算法的结果一定没有偏差吗?对此,Gary表示:“人们在招聘过程中也存在偏见,这是因为个体获取的信息是有限的。而数据算法为招聘人员提供了充足的信息和洞见,弥补了招聘人员可能因不了解某些技能或公司而产生的误差,从而大幅增加合格候选人的数量。”
    按照该公司的说法,产品的筛选机制将消除任何潜在的人类偏见,使其完成符合平等就业机会委员会的规定,年龄、性别、种族、宗教、残疾等都不会成为算法的参考标准。消除人们固有的成见,使人事决策变得不那么“私人化”固然有可取之处,但前提是决策系统本身不受这些偏见的影响。对算法的监督和修正,必然成为算法运行的重中之重。
    
    
    1  2  下一页>