欧盟人工智能法案正式公布:人工智能监管的开创性法律框架

2024-07-15 17:30:00
本文将探讨欧盟人工智能法案的主要条款、适用范围、基于风险的分类系统以及实施时间表。同时,本文还将探讨该法案对人工智能生态系统中各利益相关者的潜在影响,并考虑这一开创性监管所带来的挑战和机遇。

图片

原题 | 欧盟人工智能法案:人工智能监管的开创性法律框架

作者 | 杨璋(Audrey Zhang Yang)  美国西北大学法学院在读法学博士生

编辑 | 布鲁斯

引  言

2024年7月12日,欧盟在人工智能(AI)监管方面迈出了重要一步,在《欧盟官方公报》上正式发布了第2024/1689号条例——欧盟人工智能法案。这项具有里程碑意义的立法包含180个序言、113条条款和13个附件,为欧盟境内人工智能系统的开发、部署和使用建立了全面的框架。该法案旨在保护基本权利,确保公共安全,并促进符合伦理和以人为本的人工智能创新。

本文将探讨欧盟人工智能法案的主要条款、适用范围、基于风险的分类系统以及实施时间表。同时,本文还将探讨该法案对人工智能生态系统中各利益相关者的潜在影响,并考虑这一开创性监管所带来的挑战和机遇。

法案的适用范围

欧盟人工智能法案建立了全面的监管框架,其管辖范围延伸至在欧盟境内运营的公共和私营实体。该法案的范围显著广泛,反映了人工智能技术的普及及其对欧盟公民的潜在影响。受该法规约束的主要实体包括:

  • 人工智能系统提供者:开发旨在投放欧盟市场或在欧盟境内部署的人工智能系统的实体属于该法案的管辖范围。第3(2)条将提供者定义为"开发人工智能系统或委托开发人工智能系统,以便以自己的名义或商标将其投放市场或投入使用的自然人或法人、公共机构、机构或其他机构,无论是否收费"。

  • 人工智能系统用户:该法案适用于在欧盟境内使用人工智能系统的组织和个人。根据第3(4)条,用户被定义为"在其权限下使用人工智能系统的任何自然人或法人、公共机构、机构或其他机构,除非该人工智能系统是在个人非专业活动中使用"。

  • 进口商和分销商:参与欧盟市场人工智能系统进口或分销的实体需承担该法案规定的特定义务。第26条和第27条分别详细说明了进口商和分销商确保遵守法规的责任。

  • 第三国实体:如第2(1)条所述,该法案的域外效力将其适用范围扩展到位于欧盟境外的人工智能系统提供者和用户,只要这些系统产生的输出在欧盟境内使用。这一规定确保影响欧盟公民的人工智能系统受到监管。

该法案的范围通过一系列豁免和具体应用条款进一步细化:

  • 军事和国防:第2(3)条明确排除了专门为军事目的开发或使用的人工智能系统。

  • 研究与开发:第2(5a)条为仅用于研究和开发目的的人工智能系统提供了某些豁免。

  • 遗留系统:第83(2)条概述了在法规适用日期之前投放市场或投入使用的人工智能系统的过渡性条款。

主要条款

该法案引入了几项利益相关者必须遵守的关键条款,包括:

  • 基于风险的分类:人工智能系统根据其风险程度进行分类,对高风险人工智能系统有特定要求,包括透明度、数据治理、文档记录和人类监督。

  • 禁止行为:某些人工智能实践被视为不可接受并予以禁止,例如那些操纵人类行为以规避用户自由意志的系统,或允许政府进行"社会评分"的系统。

  • 透明度义务:与人类互动或用于检测情绪或基于生物特征数据确定社会类别的人工智能系统必须设计得透明。

  • 数据治理:高风险人工智能系统必须在高质量数据集上进行训练、验证和测试,这些数据集应相关、具有代表性、无偏见、并尊重隐私。

  • 市场监督:成员国必须指定国家主管机构进行市场监督,以确保法案的执行。

实施时间表和基于风险的划分方法

欧盟人工智能法案采用基于风险的划分方法,根据人工智能系统对个人权利和安全的潜在影响将其分为四个层级。这种方法影响了该法案的实施时间表,不同条款在不同阶段生效。以下部分概述了风险类别和关键实施日期:

风险分类框架

1. 不可接受风险(Unacceptable Risk)

  • 定义:对安全、生计和基本权利构成明显威胁的人工智能系统。

  • 示例:政府的社会评分系统,利用特定群体弱点的系统。

  • 监管方法:根据法案第5条禁止。

2. 高风险(High Risk)

  • 定义:可能危害安全、基本权利或导致重大不利影响的人工智能系统。

  • 示例:用于关键基础设施、教育、就业、基本服务、执法、移民管理和司法管理的人工智能。

  • 监管方法:受法案第6-51条规定的严格合规和透明度义务约束。

3. 有限风险(Limited Risk)

  • 定义:需要特定透明度措施的人工智能系统。

  • 示例:聊天机器人,情绪识别系统。

  • 监管方法:法案第52-54条概述的透明度义务。

4. 最小风险(Minimal Risk)

  • 定义:对公民权利或安全构成最小或无风险的人工智能应用。

  • 示例:人工智能支持的视频游戏,垃圾邮件过滤器。

  • 监管方法:除现有法律外,无额外法律要求。

关键实施日期

基于不同的风险级别,该法案的实施涉及几个重要的截止日期:

  • 2024年8月1日:欧盟人工智能法案生效(第85条)。

  • 2025年2月2日:被视为禁止性人工智能实践的系统必须完全从市场上撤出(第85(1)条)。

  • 2025年5月2日:发布通用人工智能系统的准则(第52a条)。这些准则将为那些不专为单一应用定制。而可用于各种目的的人工智能系统提供监管期望指导。

  • 2025年8月2日:对通用人工智能模型实施治理、处罚和风险评估(第52a条)。实施对社会评分系统和未经授权的公共场所实时生物特征识别系统的具体禁令(第5条)。

  • 2025年4月:引入人工智能应用的实践准则。人工智能办公室将负责监督这些准则的制定和实施,为组织提供如何遵守法规的实际指导(第69条)。

  • 2025年8月1日:高风险人工智能系统的更全面规则生效(第6-51条)。高风险人工智能系统的提供者必须遵守更严格的一套规定,旨在确保用户和受影响方的安全和基本权利。

  • 2026年8月2日:每个成员国必须至少建立一个人工智能监管沙盒(第53条)。这些沙盒旨在通过提供一个受监管环境,让人工智能系统在监管监督下进行测试,从而促进创新和合规。

  • 2027年8月2日:高风险人工智能系统提供者的合规截止日期(第83(3)条)。到此日期,提供者必须确保其提供的所有高风险人工智能系统都完全符合法规要求。

  • 2028年8月2日:将对该法规进行预定的评估和审查,以评估其有效性(第84条)。这也将是一个考虑是否需要对法规进行任何修订的机会。

该法案包括促进合规的过渡措施:

  • 第83(a)条允许在2025年8月2日之前投放市场或投入使用的高风险人工智能系统,如果它们经历重大变化,可以继续运营。

  • 第83(4)条在特定条件下允许继续使用产品或系统安全部件中的人工智能系统。

  • 这种分阶段实施的方法允许利益相关者逐步调整其做法,优先处理最高风险的人工智能应用。它还为必要的治理结构和合规机制的发展提供了时间。

结  论

欧盟人工智能法案建立了世界上第一个全面的人工智能监管框架。它体现了欧盟确保人工智能开发和部署与欧洲价值观和基本权利相一致的承诺。该法案旨在通过为安全、透明度和问责制设定标准,促进创新并培养对人工智能的信任。

通过在整个欧盟范围内实施统一的规则,该法案创造了一个协调的监管环境,可能简化了跨成员国运营企业的合规程序。鉴于欧盟的市场规模和监管影响力,该法案可能产生域外效应,影响全球人工智能治理方法。

然而,该法案也带来了挑战和忧思。高风险人工智能系统的广泛要求可能对小型企业和初创公司造成重大合规挑战。此外,分阶段实施的时间表虽然提供了适应时间,但也可能造成监管的不确定性。

毋庸置疑,欧盟人工智能法案预计将在塑造人工智能治理的未来方面发挥关键作用。全球的政策制定者和行业领袖将密切关注其实施情况。2028年的预定审查将提供宝贵的机会来评估该法案的有效性并进行必要的调整。

随着全球社会应对人工智能带来的挑战和机遇,欧盟人工智能法案标志着创建监管框架的重要一步,旨在利用人工智能的益处同时减轻其风险。其成功或局限性可能会影响欧盟内部和全球未来的监管努力,可能为数字时代负责任的人工智能治理树立先例。

相关链接

点击下列链接查阅欧盟官方公报公布的欧盟人工智能法案(英文):

https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=OJ:L_202401689

(本文仅代表作者观点,不代表知产力立场)

封面来源 | Pexels

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
评论区

    下一篇

    聊聊新闻类作品批量维权案件有哪些攻防套路。

    2024-07-15 17:30:00