作者:《图灵TOPIA》 千鸟

人工智能可以用来监测欺诈和网络安全威胁,改善医疗保健和金融风险管理。但它同时可以用户支持不道德的商业行为,甚至成为对人类有致命威胁的武器。

 

本周一,欧盟委员会发布了系列人工智能伦理指南,用以指导公司和政府的人工智能实践。

 

该委员会的人工智能高级别小组,由来自不同行业,学术界和民间社会的52位专家组成。去年夏天,他们发布了可靠性人工智能道德准则草案。

 

该文件的修订版已于3月提交至委员会,而后专家小组将其升级为七个“关键要求”,除了需要准遵守现有的法律和法规之外,人工智能技术还必须满足以下要求:

 

第一,人类作用和监督:人工智能不应该践踏人类的自主性。人们不应该被AI系统操纵或胁迫,而且,人类应该能够干预或监督软件做出的每一个决定。

 

第二,技术的稳健性和安全性:人工智能应该是安全的、准确的。它不应该易于受到外部攻击(例如对抗性实例)的影响,而且,应该是相当可靠的。

 

第三,隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。

 

第四,透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应“由人类理解和跟踪”。换句话说,操作员应该能够解释AI系统所做的决定。

 

第五,多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样地,系统不应该在这些方面存在偏见。

 

第六,环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。

 

第七, 问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

 

欧盟委员会下一阶段的工作是了解准则的具体运作,据悉它将在国际组织和欧盟集团外部公司首先试点,启动时间定在了今年夏天。

 

在实验阶段结束之后,专家人工智能小组将根据收到的反馈意见审查关键要求的评估清单。

 

这些评估清单只是初步措施,欧盟将在未来几年收集企业反馈,并在2020年期限内提供一份最终报告。

 

与科幻小说家艾萨克·阿西莫夫提出的机器人三大定律有所不同,欧盟提出的AI伦理指南,没有直截了当地提供一个道德框架来帮助人类控制凶残的机器人。

 

相反,当人工智能整合至医疗、教育和消费技术等领域时,它们可澄清一些影响社会的模糊而分散的问题。

 

比如当AI系统在未来某个时候诊断出你患有癌症,欧盟的指导方针将确保下列事情的发生:软件不会因种族或性别而产生偏见;不会推翻人类医生的反对意见;患者有权选择听取AI诊断意见。

 

作为专家组成员的IBM欧洲主席Martin Jetter表示,指导方针“为推动人工智能的道德和责任制定了全球标准。”

 

“人工智能的道德维度不是奢侈品或附加品。只有信任,我们的社会才能充分受益于技术,“委员会数字主管安德鲁斯安西普在一份声明中说。 

 

不过有一些人怀疑,欧盟试图通过影响巨大的伦理研究来规范全球人工智能的发展方式。 

 

智库机构数据创新中心的高级政策分析师艾琳·奇沃特在接受The Verge采访时表示:“通过为AI伦理创建标准来确认欧盟在全球AI发展中的地位,我们对正在采取的这种方法持怀疑态度。要成为AI伦理的领导者,首先必须在人工智能领域遥遥领先。”

 

根据中国信通院数据显示,截至2018年上半年,在全球范围内共监测到4998家人工智能企业。其中,美国人工智能企业数量2039家位列全球第一,其次是中国(不含港澳台地区)1040家,其后依次是英国392家、加拿大287家、印度152家。

 

也就是说,中美两国目前在人工智能领域领先于欧盟。全球知名创投研究机构CBInsights发布的全球AI独角兽公司名单也证实这点,报告指出全球共计32家AI独角兽,其中来自美国和中国的最多,美国有17家,中国有10家,其余的还有来自英国、日本、以色列。

 

the verge评论道,在一定程度上,欧盟是由于环境因素而迫不得已充当这一角色的。在投资和前沿研究方面,欧盟无法与美国和中国—AI领域的世界领先者—一争高下,因此,它选择了伦理作为塑造技术未来的最佳选择。