示例算法偏见- 当计算机系统反映人类的隐式值 - 可以在几乎任何正在进行数据分析计划的公司都弹出。虽然无意中和有时无关紧要,但算法偏差的后果对于它的受害者来说非常真实。拒绝贷款申请,对工作的性别歧视,以及种族不平等只是几个例子。为了帮助克服这一点,我们提供了公司的建议管理算法偏差将贵公司领导至负责任的AI,和导航湿滑的技术责任在这里的创新顶点manbext体育客户端登录。

下面我们对算法的实际帮助减少偏见以及提供正在执行的公司的示例,对算法进行实际帮助的非传统观点。最近的哈佛商业评论文章,标题为“想要较少的决定?使用算法,“通过将其与人类的偏置进行比较来查看算法偏见。具体而言,HBR的研究人员研究了算法决策的示例,其中始终如一的效果比人类更好的结果 - 较少的偏差。这些示例包括:

  • 抵押贷款承保:根据HBR文章,2002年抵押贷款行业的承保算法研究发现,自动化系统可以比人类更好地预测默认值。这导致较高的借款人批准率,并受益通常是欠缺的购房者。
  • 求职候选人筛选:哥伦比亚大学的一项研究看了一项求职算法,发现它有利于非传统申请人与人类相比。据文章称,“与人类相比,该算法显着较低的候选人在该公司处所谓的候选人。”
  • 选择公司董事:根据这篇文章,金融教授团队开发了一种算法,可为公司选择“最佳”董事会成员。该团队发现,使用算法的公司选择董事会成员比没有它的情况更好,并且较少往往选择已经在多个板上服务的男性候选者的趋势。

那么,为什么以上的例子违背传统智慧,即所有算法在其结果中产生一定程度的偏见?
HBR的研究人员得出结论,虽然算法确实偏见,但它们通常比他们更换的人更少偏差。

要了解更多信息,请查看完成HBR文章

发表评论

请输入您的评论!
请在这里输入您的姓名