在每一个机器学习应用或者引擎的核心是算法。算法进行必要的计算,数据处理,以及自动推理,以产生期望的结果。没有他们,就没有机器学习,没有人工智能。

与算法的问题是,它们是由人创造的。而且,人们可以偏置即使他们选择的数据有偏差。当偏压进入算法方程-无论是有意还是无意-意外和不幸的事情都可能发生。

正如维基百科定义,“算法偏差当在计算机系统体现谁涉及编码,收集,选择,或使用数据来训练算法人类的隐式值,就会发生“。

算法偏差可以在非常实际的流程和人产生负面影响。它们可以是银行贷款被拒绝或信用卡申请被拒绝的原因。在最坏的情况,算法偏差甚至会导致种族和性别歧视。

就拿亚马逊最近的AI-HR供电招聘工具的终止,由发现路透社。并不陌生,自动化,亚马逊回在2014年着手开发一种方法来“机械化高级人才搜索”-通过创建一个机器学习工具,审查简历更快,并确定了最佳人选。

结果:此次招录发动机歧视妇女。

但令他们惊讶的是,亚马逊研究的科学家发现了工具得分较低,以恢复与单词“妇女”在其中,甚至降级候选人谁从一所女子大学毕业。问题是机器学习引擎亚马逊开发从过去10年分析申请人的数据,要追溯到公司早期的日子,高科技产业是男性为主。这关联到男性申请人在历史上是比较成功的候选人和降落的就业机会,得分女性申请人降低的。值得赞扬的是,亚马逊立即关闭该项目。

那么,有哪些解决方案呢?

最近有线文章与标题,什么是一个公平算法实际上看起来像?讨论“算法透明度”的概念-一个相对较新的概念,倡导企业是如何他们的算法实际上工作,并决定开放。虽然大多数人认为需要算法的透明度一定程度上,仍然有很多的争论就需要走多远,我们从任何类型的标准或道德准则在被认为是一个很长的路要走。

麦肯锡另一方面报价在最近的一篇文章多一些实用的建议标题,控制机器学习算法及其偏见。这件作品提供了三种保护措施对于现在要尽量减少算法偏差的公司和未来。见下文:

  1. 知道一个算法的限制-根据麦肯锡不要问其答案可能失效的问题。算法被设计为非常具体的用途。理解的算法如何产生输出是在结果中识别偏差的关键。
  2. 使用广泛的数据样本-如在亚马逊例子看出,仅使用历史数据或奇数据源可以导致算法偏压。通过历史数据和新的或“新鲜”的数据可以帮助降低IT相结合。
  3. 知道什么时候使用机器学习(什么时候不用)-并不是每一个决定是最好留给了一个算法。对于正确的任务和业务流程,大数据分析机器学习提供了“速度和便利”-但它不是一个放之四海而皆准的所有方法。当周围的决策或更多的灵活性,需要的是需要更多的透明度,手工制作的决策模型和人类决策仍然必须是组合的一部分。

正如文章的结论是,“好消息是,偏见可以理解和管理 - 如果我们是诚实的他们。我们不能相信机器智能完善的神话。”

要了解更多信息,请阅读完整麦肯锡的文章在这里