欧洲议会周三通过了一项具有里程碑意义的人工智能法案,标志着欧盟在监管关键技术方面再次超越了美国,为人工智能的未来设立了明确的界限与规范。这项法案将在欧洲企业和组织如何应用人工智能技术方面发挥关键作用,全面禁止一些不可接受的应用,并对其他被视为高风险的应用设置严格的护栏。
规定人工智能应用红线
欧盟的人工智能法案禁止了一系列不可接受的应用,涵盖了多个领域。其中包括禁止使用人工智能驱动的社会评分系统,以及任何基于生物识别技术用于猜测个人种族、政治倾向或性取向的工具。此外,禁止了在学校和工作场所中使用人工智能解读个人情绪的行为,以及某些类型的预测个人犯罪可能性的自动分析。
除了禁止不可接受的应用之外,法案还为被视为高风险的人工智能应用设置了严格的护栏。这些应用包括教育、招聘、政府服务等领域的人工智能系统,对它们施加了一系列透明度和其他义务,以确保公民的权利和利益得到充分保护。
对公司的约束与要求
该法案不仅针对应用层面,还对生产人工智能模型的公司施加了新的披露要求。OpenAI等生产强大、复杂且广泛使用的人工智能模型的公司将受到新规定的约束,必须遵守新的透明度要求,并标记所有人工智能生成的深度伪造品。
法案还设立了监管沙箱和现实世界测试,旨在支持创新和中小企业在遵守规则的前提下开发和培训创新人工智能。这一举措有助于保障技术创新的发展,并为企业在规则生效之前做好准备提供了机会。
法案背景与下一步计划
该法案将于近两年内生效,突显了欧盟政策制定者对人工智能技术发展的关注和对公民权利的保护。法案的通过是对欧盟未来会议公民提案的回应,旨在增强欧盟在战略领域的竞争力,确保安全和值得信赖的社会,促进数字创新,并确保人类处于人工智能发展的核心地位。
美国与欧洲的对比
该法案与美国在人工智能立法方面有所差异,尽管美国政府已开始关注人工智能的影响,但至今尚未在人工智能联邦立法方面取得任何重大进展。欧盟的立法举措为人工智能的发展设立了明确的界限,并为公民权利提供了强有力的保障,展现了欧盟在人工智能监管方面的领导地位。
欧盟的人工智能法案标志着人工智能监管的新时代的开始,为技术创新与公民权利之间的平衡提供了重要的范本。这一法案的通过将对全球人工智能技术的发展产生深远影响,为一个更加安全、公正和透明的人工智能时代奠定了基础。