欧盟发布人工智能道德准则,AI可信赖的7大条件

浏览次数:172 时间:2019-04-15

2.实现“可信赖AI”的技术和非技术方法

尊重(增强)人类自主性

欧盟在技术监管方面占据全球领先地位,去年引入了具有里程碑意义的数据隐私法GDPR,同时瞄准大型科技公司的反垄断行为以及避税问题,而目前人工智能的道德准则是欧盟最新的监管方向。

人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI带来的收益大于风险。我们必须遵循“最大化AI的收益并将其带来的风险降到最低”的原则。为了确保不偏离这一方向,我们需要制定一个以人为中心的AI发展方向,时刻铭记AI的发展并不是为了发展其本身,最终目标应该是为人类谋福祉。因此,“可信赖AI”(Trustworthy AI)将成为我们的指路明灯。只有信赖这项技术,人类才能够安心地从AI中全面获益。

虽然这份准则中的方法列表并不详尽,但它旨在列出实施“可信赖AI”的主要方法。为了提高AI系统的可信度,这些方法应该基于第一章中定义的权利和原则。

为了满足上一节中提到的要求,开发过程的所有层面(包括分析、设计、开发和使用)都可以采用技术和非技术方法(参见图3)。对实施这些要求和方法的评估,以及对流程变化的报告和论证应该持续进行。事实上,考虑到AI系统不断发展,以及在动态环境中运行,实现“可信赖AI”可以看作一个持续的过程。

数据治理

与其他有关AI伦理道德的文件相比,这份准则的目的不是为AI增加一份核心价值观和原则清单,而是为AI系统的具体实施和操作提供指导。

2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft和IBM等几家全球大公司共同成立了PartnershiponAI,研究和制定人工智能技术的最佳实践,促进公众对人工智能的理解,并作为一个开放平台来讨论人工智能对人和社会的影响。

非歧视

人工智能自治的治理(人的监督)

尊重隐私

技术的稳健性和安全性:AI应该是安全和准确的。它不应该轻易受外部攻击的影响,它应该非常可靠。

社会和环境福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。

问责制:应建立机制,确保对AI系统及其成果负责和问责。

Chapter III:提供”可信赖AI”的具体但非详尽的评估列表实施要求。该列表将根据具体的用例进行调整。

Chapter I:确保人工智能的目的合乎道德,规定了人工智能发展应该遵守的基本权利、原则和价值观。

Copyright © 2002-2014 澳门永利赌场|澳门永利娱乐 版权所有