欧盟作为一个特殊的超国家体系的一体化市场,长久以来在对新商业样态的立法层面保持着比较激进的监管态度。尤其是从2000年代互联网行业爆发开始,由于欧盟并没有向美国和中国一样快速跟上市场的变化,其在互联网服务、大数据以及AI方面本土企业的商业化落地一直落后于中美,因此对于这些方面历来主张激进的立法以限制大型跨国企业在欧盟市场占据难以抗衡的主导地位。从2018年欧盟发布GDPR开始,其对数字经济领域的立法探索一直是其他各主流经济体在相关立法时主要的借鉴对象。介于此立法现象和目前人工智能行业快速发展的大趋势,也有必要熟悉欧盟市场对于AI行业的立法,作为跨国企业征战海外市场,以及未来我国可能出现的AI领域立法的理论储备。
一、概览
《欧盟人工智能法案》(EU2024/1689) 为人工智能的开发和使用制定了全面的法律框架。人工智能法案旨在为欧盟人工智能系统的开发、供应和使用建立一个全面的法律框架。该框架旨在确保人工智能系统安全并尊重基本权利和价值观,同时也支持人工智能创新。该法案大致包括如下内容:
(1)在所有成员国协调人工智能系统的供应和使用规则,包括针对欧盟以外运营商的域外规定。
(2)禁止某些可能特别危险的人工智能实践。
(3)具有重大危害风险的高风险人工智能系统的技术要求。
(4)对从人工智能系统的提供商到部署者提出的运营高风险人工智能系统供应链中不同层次组织的要求。
(5)对于通用人工智能(GPAI)模型提供者的规则,包括保护模型训练中使用的版权作品的规定。
(6)某些直接与人类互动或生成某些类型内容的AI系统的透明度要求。
(7)市场监督、治理和监管执行规则。
(8)支持创新,特别是帮助中小企业和初创企业的帮扶措施。这些措施包括用于安全人工智能产品开发的沙盒。
二、人工智能系统的风险分级
根据《人工智能法案》的要求,人工智能系统的风险被定义为发生伤害的可能性及其严重程度的组合,不同的规则适用于具有不同风险水平的人工智能系统。《人工智能法案》规定了四种风险类别:被禁止的人工智能实践、高风险人工智能系统、有限风险人工智能系统、以及最小风险或无风险人工智能系统。GPAI模型也有特定的规则。
大多数人工智能系统可能是最小的或没有风险(例如,电子邮件垃圾邮件过滤器),并且在《人工智能法案》下不会引任何额外合规义务,除了适用于所有人工智能系统的人工智能素养(AI literacy)的广泛义务。其他人工智能系统的规则取决于它们的风险类别,在某些情况下,还取决于在人工智能系统供应链中提供或使用它们的组织的角色。
《人工智能法案》包含了针对人工智能系统供应链中各种运营商的新合规规则。《人工智能法案》使用“operator”一词来统称人工智能供应链中的不同角色。这些角色包括供应商、部署者、分销商、进口商、授权代表和产品制造商。责任和义务以不同的方式附加到这些不同的角色上,因此准确地确定哪一方执行哪一个角色是遵从合规义务的关键。
三、法案的生效和执行日期
由于新框架对人工智能价值链中的一系列运营商提出了重要的新要求,参与人工智能系统开发、供应或使用的组织应评估其活动可能受到新框架影响的程度。法案中的要求大部分从2026年8月2日起生效,但有些从2025年开始生效。以下为法案逐步生效的时间示意图:
目前业务涉及欧盟的企业应采取主动措施,了解《人工智能法案》可能适用于他们的程度,以便他们能够评估并实施内部流程所需的任何更改,以确保合规性。《人工智能法案》的大部分要求(包括适用于高风险人工智能系统的要求)直到2026年8月2日才适用。但一些要求将在2025年生效,即与被禁止的人工智能、人工智能素养和新的GPAI模型相关的要求。另外还有一些特殊领域的合规要求的适用日期被定在2027年或2030年(法案第111条)。
在法案正式生效和落地适用前,欧盟委员会鼓励各组织在《人工智能法案》开始适用之前自愿采用《人工智能公约》。预计《人工智能公约》将在这一过渡时期启动,它旨在帮助组织管理他们的过渡,以完全遵守该法案。
四、法案的适用范围
与GDPR一样,《人工智能法案》也具有强大的域外性,该法案适用于在欧盟市场上提供人工智能系统或GPAI模型的任何组织或个人,无论他们在何处建立实体或经营实体位于何处。此外即便产品或服务没有直接面向欧盟市场,如果人工智能系统的输出内容将在欧盟使用,则法案也适用于该欧盟以外的人工智能系统的提供商或部署者。
如果不在欧盟设立的实体属于《人工智能法案》的范围(并且其人工智能系统不属于任何排除范围);参见排除的AI系统),则也应该进行如下合规实践:
(1)识别并逐步淘汰被禁止的人工智能实践(参见被禁止的人工智能实践)。
(2)检查高风险AI系统的类别(参见高风险AI系统)并考虑任何技术合规要求(见高风险AI系统技术合规要求)。
(3)考虑他们在人工智能系统供应链中的角色和运营商的合规义务。
(4)考虑它们是否是GPAI模型的提供者,并检查所需的遵从性义务。
(5)考虑与个人交互的人工智能系统的透明度要求。这些要求既适用于有限风险AI系统,也适用于高风险AI系统。
(6)检查他们的商业活动是否导致供应商义务向自己商业实体的转移。
(7)对于高风险人工智能系统或GPAI模型的提供商,考虑满足指定授权代表的要求。
(8)建立内部治理流程(见符合性证据),包括服务推向市场后的动态监控。
五、法案中的重要定义
1、人工智能系统(AI system)
法案中的原文是"a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments."其中有7个关键的组成部分,以下将逐一拆解:
(1)machine-based(依赖于机器)
这里是指系统依赖硬件和软件进行数据处理、学习、自动化应用,但不包括依赖人工进行决策的数据处理过程。在此语境下,ai可以是一个产品的独立部分,也可以是嵌入实体产品的一个功能,或非嵌入实体产品的一个功能。
(2)designed to operate with varying levels of autonomy(设计成具有不同程度的自主性)
独立于人工干预,系统可以在无人工干预的前提下进行学习和工作,例如带智能避障和地图识别功能的扫地机器人、自动驾驶汽车、自动炒股软件等。但不包括每一个决策都需要人工持续干预的系统,或基于固定的预先设计好的机械工作过程的没有自适应和自我学习的系统,比较典型的例子是,目前常见的商用无人机,虽然也有一些自动避障程序,但主要依靠人工下达指令进行操作。
(3)exhibit adaptiveness(展现出自适应性)
系统可能需在部署后有自我学习的能力,但并非所有AI系统都被要求具有这一明显特征。这一项定义要素可能会难以与上一项做区分,对此,EU Commission的指导意见中强调,adaptiveness更多是指系统有自我进化的能力,因此在部署并使用后,系统在同一输入指令下作出的输出是会变化的并会产生与之前不同的输出结果。
(4)for explicit or implicit objectives(为了实现某种明示或默示的目的)
明确目的是指开发者直接将系统目的通过代码植入系统;未明确的目的是指开发者并没有直接在代码中植入系统目的,但涉及了一些系统运行的规则,如自动驾驶系统不会在代码中直接规定避免交通事故,但设定了看到红灯要停止的规则。统目标并非需要预先就被明确,比如推荐系统使用强化学习来逐渐缩小单个用户的模型偏好,并且用户提示可以在部署阶段为系统补充目标
(5)infers from input how to generate output(从输入推断如何产生输出)
系统会根据输入的知识并基于一定的逻辑推理输出结果。这一特点明显有别于简单的数据处理,需要通过学习,推导,归类等动作处理数据。
(6)predictions, content, recommendations or decisions(预测、内容、建议或决定)
AI系统将依据其功能生成输出结果,通常为预测、文字、音视频、推荐或决策。
(7)influence physical or virtual environment(对环境具有影响)
这里是指系统生成结果对外界有实际的影响,可以是物理上的影响,或电子虚拟环境中的影响。
2、被排除的人工智能系统(Excluded AI systems)
《人工智能法案》并非针对一切人工智能系统,根据该法案第二条,下列系统不受该法案的规制:
(1)专门用于军事、国防或国家安全目的系统,而不论进行这些活动的实体的类型。
(2)由第三国公共当局或国际组织遵守国际协议,与欧盟或成员国进行执法或司法合作使用的系统。
(3)在投放市场之前,仅用于科学研究和开发或测试的系统(真实世界条件下的测试除外)。
(4)自然人使用人工智能系统进行纯粹的个人非专业活动。
(5)在自由和开源许可下使用的系统,但排除非用作高风险的人工智能系统,作为禁止的人工智能实践或用于直接与人交互的人工智能系统。
3、人工智能素养(AI literacy)
人工智能素养是指,人工智能系统的部署者或提供者(以及其他受影响的人)的技能、知识和理解,以便明智地使用人工智能系统,并意识到人工智能系统的机会和潜在危害的风险。法案第4条规定了采取措施确保充分掌握人工智能素养的义务,但目前来看,未能遵守这一义务似乎不会直接受到行政罚款处罚。人工智能办公室预计最迟将于2025年5月2日发布一份自愿行为守则,以帮助机构推广人工智能知识。
4、部署者(Deployer)
在系统权利人授权下使用人工智能系统的任何个人或组织(个人非商业用途除外)。这可能包括雇主在其员工中提供人工智能系统,或公共机构提供人工智能系统供公众使用。
5、经营者(Operator)
人工智能系统的供应商、产品制造商、部署者、授权代表、进口商或分销商。
6、深度伪造(Deepfake)
Deepfake被定义为“人工智能生成或操纵的图像、音频或视频内容,与现有的人物、物体、地点、实体或事件相似,并在人们看来是真实的或真实的”。深度造假的使用将始终受到第50条透明度义务的约束。
7、通用人工智能模型(GPAI model)
通用人工智能模型是指一个AI模型使用用大量的数据进行大规模的自我监督训练的,显示重要的普遍适用性和能够胜任地执行各种不同的任务的能力,可以集成到各种各样的下游系统或应用程序。
六、被法案禁止的人工智能行为
《人工智能法》第5条规定了禁止人工智能行为的类别。这些做法被彻底禁止,因为它们被认为与欧盟的基本价值观(尊重人类尊严、自由、平等、民主和法治)和权利(包括不受歧视的权利、数据保护和隐私以及儿童权利)不相容。目前该法案第五条已经开始实际实施,其中被禁止的人工智能行为包括:
(1)潜意识技术,它可以通过削弱一个人做出明智决定的能力,从而严重扭曲一个人的行为,从而导致或合理地可能导致他们受到重大伤害。
(2)利用个人或特定人群的脆弱性(例如,由于他们的年龄、残疾或经济状况),从而严重扭曲他们的行为,从而造成或合理可能造成重大伤害。
(3)基于已知、推断或预测的人格特征的社会评分系统,这些特征会导致有害或不利的待遇。
(4)用于评估一个人犯罪或再犯罪的风险的风险评估系统(某些基于可验证事实的人类评估除外)。
(5)为建立或增强面部识别数据库而不加区分地抓取网页。
(6)工作场所或教育机构的情绪识别系统(医疗或安全原因除外)。
(7)用于推断如种族、政治观点或宗教特征的生物识别分类系统。
(8)用于执法目的的公共空间的实时、远程生物识别系统,但在有保障措施和少数例外情况下搜寻绑架受害者、保存生命和寻找某些犯罪活动的嫌疑人的行为除外。
七、高风险人工智能系统
高风险人工智能系统的定义在法案的第六条中体现,具体分为两种情况:
1、受欧盟协调立法保护且需第三方合格评定的产品相关高风险人工智能系统
人工智能系统旨在作为产品的安全组件使用,或者人工智能系统本身就是一种产品,受附录I所列的欧盟协调立法的保护,并且必须接受第三方合格评定,以便根据附录I所列的欧盟协调立法将该产品投放市场或投入使用。附录I中列出的领域主要包括:矿山采掘和机械使用规程、玩具安全、休闲船只和个人船只、电梯和电梯安全组件、用于潜在爆炸性环境的设备和保护系统、无线电设备、压力设备、索道安装、个人防护装备、燃烧气体燃料的器具、医疗设备、民航安全、两轮或三轮车辆和四轮车、农业和林业车辆、船用设备、欧盟内部铁路系统的互操作性。
2、附件III中涉及多领域且需评估重大损害风险的高风险人工智能系统
列入附件III的人工智能系统,除非被认为不会对欧盟公民造成重大伤害。除了属于附件III用例范围之外,高风险人工智能系统还必须对自然人的健康、安全或基本权利构成重大损害风险。法案第六条第(3)项对附件III中列出的不构成重大危害风险的人工智能系统的高风险分类进行了排除。法案附件III主要涵盖如下领域:
(1)生物识别技术。对于远程生物识别系统(唯一目的是身份验证的情况除外),根据敏感或受保护属性进行生物识别分类,以及用于情感识别的人工智能系统。
(2)关键基础设施。作为关键数字基础设施、道路交通或公用事业供应的管理和运营中的安全组件。
(3)教育和职业培训。决定是否录取或进入学习机构,评估学习成果,评估接受或获得的适当教育水平,并监测和发现学生在考试期间被禁止的行为。
(4)就业。作出招聘或选择的决定(包括评价)候选人(或投放有针对性的招聘广告)或影响条款和条件、晋升、终止雇佣、任务分配以及监测和评估绩效和行为的决定。
(5)获得基本公共服务。作出影响个人获得基本公共服务和福利以及在信用评分(侦查财务欺诈除外)、人寿和健康保险等特定领域获得私人服务的决定。
(6)执法。作为测谎仪或类似的用途,或评估证据的可靠性,再犯罪的风险或受害者的风险,或在侦查,调查或起诉期间的个人画像。
(7)移民、庇护和边境控制。这包括协助审查庇护或签证许可申请。
(8)司法和民主程序。供司法当局用于研究和解释事实或影响选举或公民投票的投票。
另外,根据法案第6(4)条,人工智能系统的供应商可以在将人工智能系统投放市场或投入服务之前,向国家主管当局提交其评估,通过评估并在欧盟数据库上注册,自行确定其人工智能系统不是高风险。鉴于高风险的人工智能系统承担着最繁重的技术和运营商义务,供应商将迫切希望确保他们对高风险人工智能系统的判断是正确的。欧盟委员会将提供指导方针,详细说明第6条在实践中的应用,包括列举人工智能系统高风险和非高风险的现实例子。
八、高风险AI系统技术合规要求
1、基本技术要求
如果人工智能系统被归类为高风险,它就会吸引一系列必须满足的细颗粒度合规性要求,这些要求体现在法案第8-15条。其中关键性的要求包括:
(1)建立全面的风险管理体系。主要义务包括识别人工智能系统用于其预期目的时可预见的风险以及可能被滥用的风险。这应该是一个持续的过程,跨越人工智能系统的完整生命周期,从设计到上市后监测,目标是在技术上可行的情况下,将风险最小化或消除到可接受的水平(法案第9条)。
(2)在培训、验证和测试数据集的基础上进行培训,以满足规定的质量标准。鉴于人工智能系统的预期目的,这项义务旨在确保数据的相关性、代表性、无偏倚,并在最大程度上没有错误和完整(法案第10条)。
(3)确保AI系统的生命周期内自动保存记录(即保存事件日志)在技术上是可行的。系统日志必须保存至少6个月。这将使人工智能系统的功能可追溯,以进行风险识别和上市后监测。至少,每个日志必须记录使用期间,使用的参考数据库,导致匹配的输入数据以及参与人为监督活动的个人姓名(法案第12条)。
(4)确保为部署人员提供有关高风险人工智能系统运行的信息。信息必须足够透明,并附有使用说明,以使部署人员能够解释系统的输出并适当使用它(法案第13条)。
(5)在使用过程中启用人工监督。这旨在最大限度地降低高风险人工智能系统在按照其预期用途或在合理可预见的误用条件下的使用风险。至关重要的是,人工智能系统必须允许执行监督的人在安全状态下中断或停止其操作(法案第14条)。
(6)以适当的准确性、稳健性和网络安全水平执行,并在其整个生命周期中始终如此。欧盟委员会将制定基准,帮助各组织衡量这一义务的技术层面内容。人工智能系统使用的网络韧性技术(Cyber resilience techniques)必须解决试图操纵训练数据的第三方攻击,例如数据中毒或模型逃避(法案第15条)。
(7)系统附有足以证明符合《人工智能法案》要求的技术文件。这些文件构成了高风险人工智能系统一致性建立的关键支柱之一。技术文档需求很大,技术文件至少应包含附件四所列的要素。描述高风险人工智能系统的开发,及其在整个生命周期中的表现的信息,对于确保人工智能供应链下游成员的合规性至关重要。欧盟委员会将提供一份列出简化技术文件的表格,供中小企业使用(法案第11条)。
2、技术文档要求
上文第(7)项附件四,即法案第11条要求的技术文档需要包括如下内容:
(1)AI系统的总体描述,包括:
a. 预期用途,提供商名称和版本详细信息,反映了与以前版本的变化;
b. 人工智能系统如何与硬件或软件一起使用;
c. 相关软件或固件版本以及与版本更新相关的要求;
d. 人工智能系统投放市场或投入服务的所有形式的描述(例如软件包、嵌入硬件、下载或api);
e. 预期的硬件环境;
f. 如果是产品的组成部分,则产品的外部特征、标志和内部布局的详细信息;
g. 用户界面的基本细节和提供给部署人员的使用说明。
(2)详细描述人工智能系统的要素及其开发过程,包括:
a. 开发步骤,使用的任何预先训练过的系统或工具,以及如何使用、集成或修改;
b. 人工智能系统和算法的一般逻辑,关于其使用模式的设计原理和假设,主要分类选择,预期输出和输出质量的描述;
c. 用于开发、测试和培训的系统架构和计算资源;
d. 训练数据集及其来源;
e. 人为监督措施;
f. 对人工智能系统及其性能进行预先确定的更改,以确保人工智能系统持续符合《人工智能法案》;
g. 验证和测试程序;
h. 网络安全措施。
(3)关于人工智能系统的监测、功能和控制的详细信息,包括其总体预期的准确性。
(4)绩效指标的适当性。
(5)第9条所要求的风险管理系统的细节。
(6)描述AI系统在其生命周期中所做的相关更改。
(7)全部或部分适用的协调标准清单,或在没有协调标准时,适用的其他相关标准和技术规范清单。
(8)欧盟符合性声明副本。
(9)系统上市后监测计划和用于评估上市后监测目的的AI系统性能的方法的详细信息。
九、高风险人工智能系统运营者的合规要求
除了技术合规要求之外,进一步的合规要求适用于高风险人工智能系统供应链中的每个组织。大部分义务落在提供商身上,人工智能供应链下游的组织有义务验证产业链上游组织的合规性。
1、供应商的义务
高风险人工智能系统的提供者在投放市场或投入使用之前的合规义务很广泛,法案第16至21条中列出了如下合规义务:
(1)确保AI系统符合技术合规要求。
(2)加贴CE标志,注明提供者的名称、地址和任何注册商标(法案第16条)。
(3)建立质量管理体系(法案第十七条)。这一要求应当包括:
a. 完成合格评定和实现法规符合性的策略;
b. 人工智能系统设计、质量控制、上市后监控和记录管理流程;
c. 高风险人工智能系统开发的所有阶段的测试程序,测试频率和严重事件的报告程度;
d. 采用的技术规范和协调标准或高风险人工智能系统符合《人工智能法案》的任何其他手段;
e. 数据管理流程,包括数据标记、挖掘和聚合。
(4)在人工智能系统投放市场或投入使用后,保留指定文件十年,包括技术文件、质量管理体系的细节、欧盟符合性声明和公告机构的任何决定或批准(法案第18条)。
(5)保留自动生成的日志。日志必须保留至少六个月(法案第19条)。
(6)完成合格评定程序并起草欧盟符合性声明(法案第16条)。
(7)在欧盟中央数据库注册。如果高风险人工智能系统用于国家关键数字基础设施,则应同步在国家一级进行登记(法案第16条)。
(8)委任一名获授权代表负责合规事宜,授权代表必须在范围内活动发生的成员国设立(法案第22条)。
(9)如果其高风险人工智能系统不再符合《人工智能法案》,提供商还必须立即采取纠正措施,并根据要求与主管当局合作(法案第20条和第21条)。
2、进口商的义务
在将高风险人工智能系统投放市场之前,进口商必须核实供应商已经:具备完成高风险AI系统的相关合格评定程序、起草技术文件、指定一名授权代表、加贴CE标志并提供欧盟合格证书。进口商必须在AI系统包装上注明其名称、地址和注册商标,并应要求与国家主管部门合作。
如果进口商认为人工智能系统不符合标准,则不应将其投放市场,直到其符合标准。进口商也有监督义务,必须向授权代表和市场监督机构报告潜在风险,他们必须应要求与国家主管当局合作。进口商必须在高风险系统投放市场或投入使用后的10年内,自行保留由公告机构颁发的证书副本(如适用)、使用说明和欧盟符合性声明(法案第23条)。
3、经销商义务
在将高风险人工智能系统投放市场之前,分销商必须验证产品已应用CE标志、产品具有高风险人工智能系统的欧盟符合性声明和使用说明,以及供应商和进口商都已经遵守其上游合规义务。
一旦高风险人工智能系统被投放市场,分销商就有监督义务。他们必须采取纠正措施,通知人工智能系统的提供者或进口商,或者如果他们有理由认为人工智能系统不再符合要求,则撤回人工智能系统。如果他们认为使用人工智能系统会对欧盟公民的健康、安全或基本权利构成风险,分销商还必须立即通知人工智能系统的提供者或进口商,并必须配合国家主管部门的要求(法案第24条)。
4、部署者的义务
(1)部署人员在人工智能供应链中的角色略有不同,因为他们将使用高风险的人工智能系统在其组织内执行活动。
部署者必须建立适当的技术和组织措施,以确保他们按照使用说明使用高风险人工智能系统。部署者需将适当的人力监督分配给具有适当技能、培训和权限的个人。如果输入数据在其控制范围内,部署人员必须确保输入数据与高风险人工智能系统的预期目的相关并具有足够的代表性。根据其使用说明监控高风险人工智能系统的性能,部署者并必须告知提供商此类使用可能在国家层面带来风险的情况。部署者还需要保留自动生成的日志至少六个月。在工作场所部署高风险人工智能系统的人员必须在部署前告知员工,他们将受到高风险人工智能系统的使用。高风险人工智能系统的公共部门部署者必须只使用在欧盟数据库中注册的高风险人工智能系统,并且还必须注册他们对此类系统的使用(法案第26条)。
(2)对于受公法管辖的机构、提供公共服务的私营经营者、以及部署某些高风险人工智能系统,例如用于评估个人信誉、建立信用评分或用于人寿或健康保险风险评估和定价的人工智能系统的经营者,在部署人员首次使用高风险人工智能系统之前,必须完成基本权利影响评估(FRIA)。为了减轻合规负担,FRIA可以使用已经为以前的影响评估汇编的信息,例如数据保护评估(DPIA)(法案第27条)。
5、人工智能系统提供商义务的转移
人工智能供应链中的组织如果希望利用他人的人工智能系统,则应谨慎行事,因为在某些情况下,提供商的义务可能会转移到他们身上。这些条款包括利用最初未被归类为高风险的人工智能系统,第25条规定的提供商义务转移的触发因素包括对高风险人工智能系统申请商标以及/或进行实质性修改。
根据法案第25(1)a条,如果分销商、进口商、部署者第三方将其商标应用于已经在市场上或在服务中的高风险人工智能系统,则供应商的义务转移给分销商、进口商、部署者或其他第三方。此外,根据法案第25(1)b、c条,对已经投放市场或投入使用的高风险人工智能系统进行重大修改,使其仍处于高风险状态的,或修改人工智能系统的预期用途,包括GPAI系统(未被归类为高风险,但已在市场上),从而使修改后的人工智能系统成为高风险人工智能系统的,提供商的义务转移给任何分销商、进口商、部署者或其他第三方。
当第25(1)条中的任何活动发生时,根据《人工智能法案》,高风险人工智能系统的原始提供商将不再被视为该特定人工智能系统的提供商。但原始提供商必须提供技术文件,并向提供商义务转移的组织提供帮助。欧盟委员会(European Commission)未来将就什么是实质性修改制定指导意见。
十、通用AI模型(GPAI)
《人工智能法案》包含管理GPAI模型的特别条款,包括发布训练数据摘要的要求。鉴于GPAI模型可以在高风险用例中使用,提供者很可能同时受到高风险和GPAI模型义务的约束,尽管许多高风险和GPAI模型义务涵盖类似的领域。人工智能办公室会协助草拟实务守则,以协助机构遵守这些规则(法案第56条)。GPAI示范行为守则目前正在制定中,最终版本预计将于2025年5月初达成一致。
1、GPAI模型的基本合规义务
法案第53、54条规定了所有GPAI模式提供者的义务。供应商必须:
(1)为GPAI模型创建和维护最新的技术文档。
(2)创建并维护足够的最新信息,以使GPAI模型供应链的下游成员遵守其人工智能法案义务,包括GPAI模型如何与外部硬件或软件以及任何相关软件版本交互,以及GPAI模型集成的技术细节、使用说明、模式、数据格式、训练数据及其来源等。
(3)发布培训数据摘要,并制定保护版权作品的规定。
(4)在第三国建立的GPAI模型的提供者必须指定一名授权代表。
2、GPAI模型技术资料要求
(1)GPAI模型需要具备的一般描述包括:
a. 它可以执行的预期任务以及它可以集成的AI系统类型;
b. 可接受的使用策略;
c. 发行日期和发行方式;
d. 架构和参数的数量;
e. 输入和输出的形式(文本、图像)和格式;
f. 许可证详细信息。
(2)GPAI模型针对模型发展过程的详情描述至少包括:
a. GPAI模型与其他人工智能系统集成的使用说明和技术手段;
b. 设计规范和培训方法;
c. 培训数据、来源和偏差检测方法;
d. 计算资源(如浮点运算次数);
e. 已知或估计的能源消耗。
(3)包含系统性风险的GPAI模型需要提供的附加信息包括:
a. 评估策略和标准;
b. 适用的对抗性测试措施;
c. AI系统架构和流程的详细描述。
3、存在系统性风险的GPAI模型
根据法案第51条,如果一格GPAI模型具有根据相关技术工具和基准进行评估的高影响能力,或它已被欧盟委员会或人工智能法案科学小组宣布具有相当于法案附件十三所列标准的第51(1)a条的高影响能力,则会被认定为具有系统性风险的GPAI模型。如果GPAI模型在训练期间使用了超过10^25个浮点运算或FLOPS的累积计算,则假定具有高影响能力。根据法案52条,具有系统性风险的GPAI供应商必须在达到或计划达到系统性风险阈值的两周内通知欧盟委员会。如果符合系统性风险分类的GPAI模型的提供者认为它不存在系统性风险,提供者可以向欧盟委员会提出论据。如果委员会不同意,供应商可以在最初指定决定后不早于6个月要求重新评估,具有系统风险的GPAI模型将在欧盟委员会定期更新的清单上公布。
除了遵守GPAI模型提供者所承担的义务外,根据法案第55条,具有系统性风险的GPAI模型提供者还必须履行如下额外的合规义务:
(1)使用最先进的工具进行模型评估和测试,以识别和降低系统风险。
(2)在欧盟层面评估和减轻可能的系统性风险。
(3)记录并及时向AI办公室和国家主管部门报告任何严重事件和可能的纠正措施。
(4)确保GPAI模型(包括其物理基础设施)得到充分的网络安全保护。
© 北京嘉潍律师事务所 京ICP备18018264号-1