CIO如何管理人工智能中的风险


    自动化是未来,但我们需要以开放的眼光和清晰的头脑进入未来。
    重大的安全或隐私泄露会给企业带来危机。上头条新闻,打官司,有时,首席执行官在国会作证。首席信息官们昼夜不停地工作,得到的却是解聘书和前程未卜的事业。这样的事情我们见过不少。
    来自麻省理工学院和斯坦福大学的研究人员测试了来自主要科技公司的三个以商业版的形式发布的面部分析程序,并将展示这样的发现——这些软件带有明显的肤色和性别偏见。面部识别程序擅长识别白人男性,但却无法成功地识别女性(尤其是肤色较深的女性)。即将举行的公平、问责和透明度会议将全面公布上周的这个爆炸性新闻。
    偏见有损企业与公众之间的关系。它会成为批评人士的众矢之的,他们会将这种事情看作是公司不分担客户价值的证据。而且,由于人工智能在投资、医疗保健、贷款和财务决策、就业等方面做出越来越多的决策,人身和财务甚至刑事责任的风险将会增加。
    在我们开始存储和传输有价值的数据(通常是个人和财务方面的数据)时,我们会造成数据泄露的风险。在人工智能和自动化技术时代,偏见是新的漏洞。人工智能和自动化技术对你的公司战略至关重要。但随之而来的是首席信息官和其他领导者必须应对的新风险和问题。
    创建系统和流程非常重要,它们可以防止偏见蔓延到公司的人工智能软件中,并在在偏见产生时检测到它并减少损害。未来几年的最大挑战将会是这个,而不是失去工作或人工智能对人身安全的威胁。
    公开例子
    软件程序可能存在偏见,这似乎很奇怪,但原因很简单。开发人工智能技术的专家是那些将数据输入到程序中的人。如果他们使用的数据已经包含标准的人为偏差,那么他们的人工智能软件也会反映这种偏见。这并非有意为之,但不幸的是,在Alexa、Siri或Google Home等系统上开始最初的编程时,它并不是一个主要的考虑因素。
    有些批评人士希望看到人工智能的交互既是性别上中立的,也是种族上中立的。我们可能希望采用更通用的机器发音,而不是我们已经接触到的标准女性声音。这可能有点过了,但观点是有效的。在将人工智能集成到商业组织中时,我们需要时刻保持警惕,避免出现偏见。
    避免偏斜的数据集
    机器学习的优势之一在于,与传统分析方法相比,它可以从相对较小的数据集创建高度引人注目的预测模型。这往往会产生令人兴奋且非常有价值的洞察。但是,这些巨大的利益中存在很大的风险。如果我们希望人工智能完全无偏见,我们必须让它有一个尽可能好的起点。目前的数据集可能已经向基于性别或种族的自动假设偏斜。
    当我们从头开始建立人工智能系统,我们必须认识到这一点。数据要完全透明并且不受我们自身偏见的影响。只有这样,人工智能系统才能够以不偏不倚的方式为我们提供最好的支持。
    不断的训练和评估
    一旦系统创建并集成到业务网络中,工作就无休无止。偏见仍然会随着时间推移而引入——尤其当新数据输入到系统中时。有助于实施新系统的员工必须得到适当的培训。他们必须知道如何寻找我们称之为偏见蔓延(creeping bias)的东西。随着系统的发展,它要始终避免人为缺陷。
    种族和性别多样性
    例如,如果一家公司正在引入面部识别软件,它应对系统进行培训,使系统能发现公司员工和客户的多样性。无论用户的种族背景如何,它必须能够识别正确的性别。确保新人工智能项目的技术人员和贡献者本身就具有多样性,这是一个好的开端。
    创意多样性
    尽管种族和性别多样性似乎很容易纠正,但它们并不是唯一可能最终进入人工智能系统的偏见类型。到目前为止,人工智能技术是由一小部分人创建的,他们都拥有博士学位。他们并不能代表普罗大众。由于这个原因,首席信息官必须意识到这样的需要——在人工智能程序中建立背景多样性。
    随着这些系统的成熟和发展,在开发过程中让更多来自广泛背景的人员参与进来,这是很重要的。这应该包含来自所有领域的创意人士。这个想法是为人工智能软件提供来自尽可能多的来源的尽可能多的有效信息。这最终会成为人工智能成功融入业务系统的最佳机会。
    严格且持续的测试
    无论实施团队如何努力整合新的人工智能系统,仍然存在一些偏见会随着时间流逝进入流程的风险。为了避免这个,首席信息官们必须引入一个持续的测试和评估软件的过程。应该为最终用户提供这样的工具,这些工具可以在他们所使用的程序中检测和纠正偏见——一旦他们发现偏见的话。人工智能可能是一种改变游戏规则的商业技术,但前提是我们始终对偏见保持警惕。
    危机管理和应对——做好准备
    最后,假设你并不总能把事情弄清楚。积极主动地与法务、企业风险管理、人力资源,公司通信等一起,为处理灾难提供实用,久经考验的计划。坦诚面对你的偏见。自动化是未来,但我们需要以开放的眼光和清晰的头脑进入未来。(作者:Michael Zammuto )