在以前的创新顶点职位我们探索了负责任的人工智能的重要性,以及我们在确保模型不会让偏见和不公正延续的过程中所扮演的角色。这是一段复杂而复杂的旅程,但随着人工智能和机器学习(ML)变得越来越普遍,这对企业来说至关重要。

在你努力构建更负责任的AI时,请记住以下四点:

允许人们表达他们的问题和担忧

迈向更负责任的人工智能之路的第一站,是承认偏见出现在你的数据、你的模型和你自己身上。最强大的团队是那些认识到这些令人不安的事实,并给予空间来考虑这些偏见如何影响他们周围的世界的团队。公司应该鼓励透明的对话,让团队成员能够公开谈论可能存在争议的话题。

知道要寻找什么

在你的模型中发现偏见或其他潜在问题的最好方法是在你的训练中集中注意力并有意为之。学术界正越来越多地推动数据表这将鼓励更负责任的人工智能,澄清数据集中包括什么和不包括什么,以帮助团队确保他们使用的数据是为了他们的目的,并代表他们的用户基础。

在他们所在的地方——不是你希望他们在的地方——遇见他们

基于年龄、经验和背景,你的团队成员可能会对围绕AI的主要伦理问题有不同的看法。同样,有些人可能会比其他人对这个主题和相关概念和方法更有激情,读得更多。公司有责任确保团队的每个声音都被听到,团队合作创建一个共同的语言和框架,讨论与构建道德人工智能相关的问题、关键术语和想法。

在学习中适应

不用说,跟上社会公正和人工智能领域的最新话题是很重要的。然而,拥抱未知同样重要,因为构建负责任的人工智能包括预期变化、对持续学习持开放态度,以及认识到问题可能会出现,但没有明确的答案。

想了解更多关于这些考虑以及在鼓励更负责任的人工智能时需要注意的事情,请查看最近的这篇文章VentureBeat文章