人工智能战略道德规范需考虑五个原则

2020-04-16 国际数据公司(IDC)

随着人工智能(AI)潜力的增长,需要一种具有凝聚力的人工智能战略来利用人工智能优先考虑并执行企业的目标。除了阐明业务目标和规划组织使用人工智能实现这些目标的方法之外,还有一个非常重要的元素是每个人工智能策略都需要的,即道德准则。

人工智能的兴起带来了一个问题:谁来负责确保这些强大的技术得到可靠和安全的使用?道德之所以如此重要,是因为现在我们有了机器智能,它挡在我们与之打交道的组织之间。人工智能算法不是中立的。它们是由人类建造的,当它们被编程或使用时,就会暴露出偏见。偏见的例子已经出现在图像搜索、招聘软件、财务搜索和其他人工智能程序中。

建立道德标准不一定会改变人类的行为,但它确实为企业如何处理数据收集和通过人工智能算法和其他应用程序使用数据创建了理想和行为的基线。它降低了企业内部的风险,但也允许组织将其标准和客户关怀的使命传达给市场。

随着人工智能和机器学习技术成为我们日常生活的一部分,随着数据和大数据洞见变得触手可及,首席数据官和数据团队作为企业的良心,正扮演着非常重要的道德角色。

为了建立更好的行为规范,以下是技术提供商制定AI战略时可以考虑遵循的一些原则:

1.效用:确保算法清晰、有用,并且令用户满意(令人愉快)。建立全面的衡量标准,不要只把目标放在收入上,还要考虑社会结果,建立衡量社会成果的领先指标。

2.同理心和尊重:验证您的算法理解并尊重人们的显式和隐式需求。在您的数据团队中保持多样性——在您将要部署算法的地方,要有一个总体的表示。避免同质团队的盲目。不同的团队将致力于拥有不同的培训数据、更周到的功能集和更少的数据偏差。

3.信任:努力使您的算法在行为上透明、安全、一致。虽然深度学习算法的可解释性很难,但是在可行的情况下探索替代算法,或者尽可能公开逻辑/规则。拥有集中的数据科学团队或卓越中心,以避免或减轻业务线偏见。例如,向销售报告的数据科学团队会倾向于销售目标的偏差。集中数据科学团队可以避免这种偏见。

4.公平与安全:确保算法不存在可能对人们或组织造成伤害的偏见——无论是在数字世界还是物理世界,或者两者兼而有之。利用公平工具检查数据集中不需要的偏见,并利用机器学习模型和最先进的算法,来减轻这种偏见。数据团队应被特许成为“良心”官员,并监控人工智能的使用,以确保数据及其所代表的人受到保护。

5.问责制:建立清晰的升级和治理流程,并在客户不满意时提供资源。这种责任必须来自组织的最高层;高管们应该继续专注于改进设计实践、创造以人为本的人工智能,以及审核偏见。让IT部门、业务部门和遵从性部门联合执行正在进行的数据治理实践。

社会信任对于广泛采用人工智能至关重要。人工智能可能并非完全没有偏见,就像我们人类一样。然而,不同的数据团队,加上正确的伙伴关系,可以帮助在人权方面重新定义人工智能驱动的结果,并使其更容易被接受。通过在人工智能战略中创建一套道德准则,企业展示了对负责任的技术使用的承诺——这可以转化为更好的商业结果。





关键词:人工智能;道德规范;原则

附件下载

  • 人工智能战略道德规范需考虑五个原则.pdf 点击下载