据最近CIO块作者:John Edwards,“获得AI错误的风险是真实的,不幸的是,他们并不总是直接在企业的控制中。”在审查新的Forrester报告后,Edwards来到了这一结论,这强调了人工智能(AI)工具中的第三方责任。

如果公司无法满足AI问责制,客户的磨损,监管罚款和品牌损坏只是一些分流。而且,由于该技术日益发展并变得更广泛地采用,因此组织必须确保AI解决方案的负责任开发和部署。

数据因子

Edwards写道:“大多数企业与第三方合作创建和部署AI系统,因为他们没有房屋中的必要技术和技巧,以自己执行这些任务。”但是,如果有问题的公司没有完全掌握AI供应链的复杂性,这种安排可能会无意中导致问题。这些复杂性中的职务?数据。正如Forrester分析师和报告作者Brandon Purcell所指出的,“错误地标记的数据或不完整的数据可能导致自动车辆和机器人的情况下有害偏见,合规问题,甚至安全问题。”因此,解决AI问责制的很大一部分是确保数据环境​​旨在帮助,而不是阻碍该技术的负责使用。

买家小心

在审查第三方AI解决方案时,公司永远不会假设该工具将是客观的,因为它是销售的。早期对AI供应商进行尽职调查,通常是一个关键步骤。就像在制造业的普遍存在的公司中,为公司记录供应链中的每一步,AI供应商必须持有相似的透明度的预期。许多组织通过创建任务武力来评估从任何潜在的AI滑倒来评估外部的工作队来审查AI解决方案。正如Purcell告诉Edwards,“一些公司甚至可以考虑提供”偏见奖金“,奖励独立实体寻找和提醒您偏见。”

建立强有力的伙伴关系

Forrester报告强调,启动AI倡议的组织应选择分享他们对负责任使用愿景的合作伙伴。根据Edwards,“大多数大型AI技术供应商......已经发布了道德AI框架和原则。”作为选择过程的一部分,公司应彻底审查这些材料,并确定它们如何适应组织自己的意识形态。

问责制是一项团队运动

一旦部署了AI解决方案并确保负责任的使用仍然是最重要的,这也很重要。虽然一些公司正在招聘首席道德官员来监督该地区,但在大多数组织中,这种责任在多个角色共享。Purcell建议“......数据科学家和开发人员与内部治理,风险和合规同事合作,以帮助确保AI问责制。”

对于更多Purcell的思想以及公司必须做些什么来优先考虑AI问责制,您可以全部阅读Edwards的文章这里。探索AI的道德,看看这一点最近的创新帖子

发表评论

请输入您的评论!
请在这里输入您的姓名