从试点到生产始终恪守负责任的AI理念
据咨询公司麦肯锡 (McKinsey) 预测,到 2030 年,人工智能 (AI) 有望为全球经济增加 13 万亿美元。那些已成功部署 AI的企业通过更加个性化、更高效的AI工具,不但获得了高投资回报,还提高了客户满意度。随着AI投资的增加,许多团队急于寻找将AI纳入业务核心的方法,往往事后才想要计划负责任的AI。这是导致多家公司部署失败的一大原因。 许多人认为负责任的AI就是工作方式符合道德规范的AI,但重要的是要从各个方面考虑负责任的做法。关于AI的伦理影响,人们有许多疑问,例如:我们如何使人工智能适合所有人?人类构建机器时,如何减少来自人类的偏见?等等。我们每个人都有责任创建代表我们愿景的AI,并部署世界级的人工智能,为每个市场的每个人服务。努力减少AI的偏见至关重要,这样AI才能平等地识别一切事物和人。 在构建负责任、有效的AI时,请记住,这并不是一个零和游戏,而是一个共赢游戏。您为减少偏见所采取的步骤与为建立高质量模型而应采取的步骤是相同的。那些致力于构建负责任、合乎道德并具有代表性的AI的企业,构建人工智能的投资成功率更高。要使AI解决方案正常工作并且运行良好,它必须适合所有人。有偏见的模型对某些用户适用,但对其他用户不适用,所以是失败的模型。或者,以不负责任的方式获取的模型可能不利于反映公司价值观,也会引发媒体的差评。要记住,AI反映的是构建AI的人与公司:出现问题时,表明公司内部可能也有问题。 从试点到生产始终恪守负责任的AI理念涵盖以下方面:
- 负责任的AI意味着什么
- 采用人工智能所面临的挑战以及负责任的AI为什么可以克服这些障碍
- 融合合乎道德的AI实践:五步部署流程
- 什么是可解释性问题,为什么解决这一问题至关重要