欧盟发布AI伦理指南:不能超越人类自主性 是需被监督的

DoNews 中字

9日,据The Verge报道,欧盟发布了一项关于发展人工智能(AI)伦理新指南。这项指南由52名专家共同制定,为AI未来发展提出了7项要求:

- 人类影响与监督:人工智能不能超越人类的自主性。人类不能被AI系统操纵或者胁迫,人类要能够干预或监督软件做出的决定。

- 技术的稳健性和安全性:人工智能应该是安全的、准确的。它不应该易于受到外部攻击(例如对抗性实例)的影响,应该是相当可靠的。

- 隐私和数据管理:人工智能系统收集的个人数据应是安全的、私有的。它不应该被任何人接触,也不能被盗。

- 透明性:创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应“由人类理解和跟踪”。换句话说,操作员应该能够解释AI系统所做的决定。

- 多样性、非歧视和公平性:人工智能服务应该面向所有人,无论年龄、性别、种族或其他特征。AI不应该存在偏见。

- 环境和社会福祉:人工智能应该是可持续的并可以“导致积极的社会变革”。

- 问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

欧盟表示,这项指南还不具有法律约束力,但是有可能影响未来起草的相关法律。欧盟希望成为AI伦理的引领者,并通过制定相关法律保护大众的数字权利。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存