多语言
  • 首页
  • 要闻资讯
  • 资讯详情
  • 嘉律研究 | 郑啸哲:非欧盟境内从业者针对欧盟人工智能法案的合规清单(简要版)

    发布时间:2025-10-30

    (欧盟)2024/1689号条例(《欧盟人工智能法案》) 是一项基于风险的法规,旨在为在欧盟境内提供和使用人工智能系统的组织及其系统制定规则。该法案使用"运营者"一词来指代整个人工智能供应链中处于法规范围内的组织,并包含了针对欧盟境外运营者的域外适用条款


    如果《欧盟人工智能法案》适用于某个非欧盟组织,尤其是主体位于国内的公司或组织,该组织可能需要投入大量时间和资金,以建立相应的系统、政策与流程。


    本清单旨在为欧盟境外的组织列出关键步骤,以确定(欧盟)2024/1689号条例(《欧盟人工智能法案》)是否适用,并遵守其规定的义务。清单提出了需考虑的运营问题,并强调了组织为评估其是否符合《欧盟人工智能法案》要求而应进行的关键分析与审查。同时,它还提出了利用组织现有运营体系来符合《欧盟人工智能法案》要求的策略。


    1

    确定《欧盟人工智能法案》是否适用于本组织


    1.1

    了解《欧盟人工智能法案》的域外适用范围


    需理解,《欧盟人工智能法案》将适用于位于欧盟境外的组织,如果该组织:

    • 在欧盟市场上提供人工智能系统或通用人工智能(GPAI)模型;

    • 或生成的人工智能系统输出将在欧盟境内使用(或计划在欧盟境内使用)。


    1.2

    了解《欧盟人工智能法案》如何定义“人工智能系统”


    确定组织所使用或提供的是否为一种基于机器的系统,且该系统:

    • 设计上具有不同程度的自主性;

    • 在部署后可能表现出适应性;

    • 为了明示或暗示的目标,能从其接收的输入中推断出如何生成诸如以下输出:

    • 预测;

    • 内容;

    • 推荐;

    • 或能够影响物理或虚拟环境的决策。

      (参见《欧盟人工智能法案》第3条第1款。)


    1.3

    识别被排除在法案适用外的人工智能系统


    确定《欧盟人工智能法案》是否不适用于组织的人工智能系统,因为其用途仅限于以下情况:

    • 军事、国防或国家安全目的(无论执行这些活动的实体为何);

    • 第三国公共当局或国际组织为遵守国际协议、与欧盟或成员国的执法或司法合作(需遵守特定保障措施);

    • 上市前的科学研究与开发或测试(在真实世界条件下的测试除外);

    • 自然人出于纯粹个人非职业活动而使用人工智能系统;

    • 或免费和开源许可下的系统,除非其被用作高风险人工智能系统、构成被禁止的实践,或用于与人类直接交互的人工智能系统中。

    • (参见《欧盟人工智能法案》第2条第3至12款。)


    1.4

    理解通用人工智能(GPAI)术语


    a. 确定组织是否为GPAI模型运营者


    需理解,一个AI模型如果满足以下条件,即为GPAI模型:

    • 使用大量数据并通过大规模自监督方式进行训练;

    • 展现出显著的通用性;

    • 能够胜任多种不同的任务;

    • 且可以集成到各种下游系统或应用程序中。

    • (参见《欧盟人工智能法案》第3条)


    b. 确定组织是否为GPAI系统运营者


    需考虑,一个AI系统如果满足以下条件,即为GPAI系统:

    • 基于GPAI模型;

    • 且能够用于多种目的,既可直接使用,也可集成到其他AI系统中。


    c. 确定模型是否属于具有系统风险的GPAI模型


    需理解,如果一个模型具有《欧盟人工智能法案》第51条所定义的高影响力能力,则该模型即为具有系统风险的GPAI模型。如果该GPAI模型在训练期间使用的累计计算量超过10^25次浮点运算,则推定其具有高影响力能力。


    需考虑,如果欧盟委员会或《欧盟人工智能法案》科学小组宣布,某模型因满足基于以下因素的标准而具有高影响力能力,则该模型可能被认定为具有系统风险的GPAI模型:

    • 模型的参数量;

    • 数据集的质量或规模;

    • 训练所用的计算量;

    • 输入和输出数据类型(例如:生物序列);

    • 输入和输出模态;

    • 模型能力基准,包括:

    • 自主性水平;

    • 以及适应性学习能力。

    • 市场影响力;

    • 注册终端用户数量。


    2

    识别组织在AI供应链中的角色


    若《欧盟人工智能法案》适用,请确定组织在以下任一角色中运作:


    a. 提供方:

    • 开发或委托开发AI系统或GPAI模型;

    • 并以自身名义或商标,首次将其投放欧盟市场或在欧盟投入使用(无论有偿或免费)。


    b. 部署方:

    • 在专业活动中使用AI系统的实体。


    c. 分销商:

    • 在欧盟市场供应AI系统;

    • 且非提供方或进口方的实体。


    d. 进口方:

    • 位于或设立于欧盟境内;

    • 并在欧盟市场供应带有非欧盟实体商标的AI系统的实体。


    e. 产品制造商:

    • 负责生产最终产品的实体(参见《欧盟人工智能法案》序言第87段)。


    2.1

    了解提供方义务如何转移


    确定组织或下游的部署方、分销商或进口方是否可能对AI系统进行修改,例如:

    • 在已投放或使用于欧盟市场的高风险AI系统上标注其名称或商标;

    • 进行实质性修改,即对系统功能进行超出提供方初始合格评估预期范围的变更;

    • 或以导致其成为高风险AI系统的方式,修改该AI系统的预定用途。


    确定任何此类修改是否会改变组织在AI系统供应链中的角色。


    确定任何此类修改是否会改变AI系统的风险分类及组织的相应义务。

    2.2

    考虑任命授权代表


    需理解,如果组织属于以下情况,则必须任命一名授权代表:

    • 高风险AI系统的提供方;

    • 或GPAI模型的提供方。


    需考虑,在适用授权代表要求的情况下,组织必须:

    • 在将AI系统或GPAI模型投放欧盟市场之前,完成对授权代表的任命;

    • 且确保该授权代表设立于开展相关适用活动的欧盟成员国内。


    需考虑,组织必须授权该代表,使其有权力核实组织是否遵守了以下要求:

    • 技术文档要求;
    • 和合格评估要求。


    3

    确定每个人工智能系统适用的风险分类


    3.1

    识别被禁止的人工智能实践


    识别组织需要从欧盟市场逐步淘汰的任何被禁止的AI实践,包括以下AI实践:

    • 部署潜意识、操纵性或欺骗性技术,通过损害知情决策或自主性,从而在合理可能造成重大伤害的方式下实质性扭曲个人行为;

    • 利用个人或群体的脆弱性(例如:年龄、残疾或经济状况),在合理可能造成重大伤害的方式下实质性扭曲其行为;

    • 基于人们的社会行为或人格特征对其进行评估或分类,以创建导致不利待遇的社会评分;

    • 仅基于特征分析或评估人格特质与特征,来评估或预测个人实施刑事犯罪的风险;

    • 无差别地进行网络爬取以创建或增强面部识别数据库;

    • 在工作场所或教育机构中启用情绪识别;

    • 基于生物特征数据对人进行分类,以推断其某些特征,包括种族、政治观点或宗教信仰;

    • 或在可公开访问的空间中为执法目的使用实时生物特征识别。


    3.2

    识别高风险人工智能系统


    识别属于以下情况的任何AI系统:

    • 其本身是,或构成了现有欧盟产品安全立法所涵盖产品的安全组件;

    • 并且必须根据该产品安全立法接受第三方合格评估(例如,玩具和医疗器械)。


    识别被列入《欧盟人工智能法案》附件三、并可能对欧盟公民的健康、安全或基本权利造成重大伤害风险的任何AI系统,包括用于以下领域的AI系统:

    • 生物识别技术;

    • 关键基础设施;

    • 教育和职业培训;

    • 就业;

    • 获取基本公共服务;

    • 执法;

    • 移民、庇护和边境管制;

    • 或行政或司法与民主进程。


    3.3

    识别有限风险人工智能系统


    识别任何不属于高风险AI系统,但符合以下条件的AI系统:

    • 与欧盟境内的个人直接交互(例如,聊天机器人);

    • 生成合成音频、图像、视频或文本内容(包括GPAI);

    • 用于情绪识别或生物特征分类;

    • 生成或操纵图像、音频或视频内容(如深度伪造);

    • 或生成或操纵为告知公众公共利益事项而发布的文本。


    3.4

    识别最小或无风险人工智能系统


    识别任何符合以下条件的AI系统:

    • 执行简单的自动化任务,且不直接与人类交互(例如,电子邮件垃圾邮件过滤器);

    • 并且不属于其他任何风险类别。


    3.5

    了解针对被禁止的人工智能实践的义务


    需理解,位于AI供应链任何环节的组织都不得提供或使用那些部署或采用了被禁止的AI实践的系统。


    需考虑,未能遵守此规定的组织将面临最高3500万欧元其全球年营业总额的7%(以较高者为准)的罚款。


    3.6

    了解针对高风险人工智能系统的义务


    确定高风险AI系统是否满足技术要求,包括:

    • 一个持续运行且定期审查的风险管理系统;

    • 用于训练、验证和测试数据集的数据治理与管理实践;

    • 最新的技术文档;

    • 自动记录日志;

    • 提供给部署方的信息和使用说明;

    • 人力直接监督;

    • 以及准确性、稳健性和网络安全。


    3.7

    了解针对有限风险人工智能系统的义务


    需认识到,作为有限风险AI系统提供方部署方运营的组织,必须遵守具体且影响深远的透明度要求。具体要求取决于组织的角色和有限风险AI系统的性质,但在所有情况下都必须:

    • 向个人提供特定信息,且必须:

    • 清晰且可分辨的方式提供;

    • 并在首次与AI系统交互或接触之前或之时提供。

    • 满足人工智能素养要求。


    4

    考虑GPAI的特定义务


    4.1

    了解针对通用人工智能(GPAI)模型的特定义务


    如果组织被归类为提供方,则必须:

    • 创建并维护模型的最新技术文档

    • 创建并维护足够且最新的信息,以使下游供应链成员能够遵守其在《欧盟人工智能法案》下的义务,这些信息包括:

    • 《欧盟人工智能法案》附件十一中规定的信息(《欧盟人工智能法案:附件十一:GPAI模型技术信息》);

    • 模型与外部硬件或软件的交互方式以及任何相关的软件版本信息;

    • 以及关于模型集成、使用说明、模态、数据格式、训练数据及训练数据来源的技术细节。

    • 制定一项政策,以确保尊重欧盟版权作品。

    • 发布一份训练数据摘要。

    • 考虑高风险系统义务是否同样适用。

    • 任命一名授权代表。


    4.2

    了解针对具有系统风险的GPAI模型的特定义务


    如果组织被归类为提供方,则必须:

    • 履行所有针对GPAI模型的特定义务

    • 在达到系统风险阈值或确知即将达到该阈值的两周内,向欧盟委员会进行通知。

    • 使用最先进的工具对模型进行评估和测试,以识别和减轻系统风险。

    • 评估并减轻在欧盟层面可能出现的系统风险。

    • 记录任何严重事件及可能的纠正措施,并立即向欧盟人工智能办公室及国家主管机构报告。

    • 确保模型(包括其物理基础设施)拥有足够的网络安全防护


    5

    了解透明度要求


    5.1

    确定透明度规则是否适用于该AI系统


    识别组织使用或提供的任何AI系统,其预定用途是否旨在:

    • 与个人直接交互;

    • 或生成供个人观看的内容。


    确定组织是该相关AI系统的提供方还是部署方。


    最迟在个人首次使用或接触到该内容时,提供透明度信息。


    5.2

    了解针对提供方的透明度规则


    如果AI系统与人类直接交互(例如聊天机器人),需确保:

    • 该AI系统告知个人其正在与AI系统交互;

    • 并且透明度信息清晰且易于识别。


    如果AI系统生成合成内容,需确保:

    • 将AI系统输出标注为人工智能生成或操纵;

    • 透明度信息清晰且易于识别;

    • 并且考虑到技术水平和实施成本,用于标注的技术解决方案应尽可能有效、可互操作、稳健且可靠。


    5.3

    了解针对部署方的透明度规则


    如果AI系统执行情绪识别或生物特征分类:

    • 需依据相关数据保护法处理个人数据;

    • 向相关主体个人提供披露信息;

    • 并且确保透明度信息清晰且易于识别。


    如果AI系统生成或操纵深度伪造内容:

    • 需披露该内容是人工智能生成或操纵的;

    • 并且确保透明度信息清晰且易于识别。


    如果AI系统发布关于公共利益事项的合成文本:

    • 需披露该文本是人工智能生成或操纵的,除非适用例外情况;

    • 并且确保透明度信息清晰且易于识别。


    6

    执行所需的评估


    6.1

    对高风险AI系统进行所需的合格评估(提供方)


    a. 识别机会,利用提供方现有的数据治理实践来进行合格评估,例如其:

    • 评估数据隐私和网络安全风险的程序;

    • 数据映射和记录保存实践;

    • 现有的风险评估,包括数据保护影响评估(DPIAs);

    • 以及技术文档。


    b. 确定高风险AI系统提供方应如何进行合格评估:

    • 内部评估(例如,大多数高风险AI系统,包括那些符合《欧盟人工智能法案》统一标准的系统);

    • 或通过一个被称为公告机构的授权第三方进行外部评估(例如,当AI系统受现有产品安全或其他要求公告第三方评估的欧盟法律监管时)(参见《欧盟人工智能法案》第29条)。


    c. 如果提供方进行内部合格评估,则需:

    • 验证其质量管理体系符合《欧盟人工智能法案》第17条;

    • 确认技术文档合规;

    • 以及确认AI系统的设计和开发过程及其上市后监控与技术文档保持一致。


    d. 如果由外部公告机构进行合格评估,则需向该机构提供:

    • 技术文档;

    • 对提供方场所的访问权限;

    • 更新的信息,包括对AI系统或质量管理体系的任何拟议变更;

    • 进行定期审核和测试的机会;

    • 以及在有限情况下,访问AI系统的训练数据和训练好的模型。


    6.2

    为高风险AI系统准备欧盟合格声明


    识别提供方将合格声明与其他类似义务(包括欧盟法律要求的其他合格声明)合并准备的机会。


    起草欧盟合格声明,使其包含以下内容:

    • AI系统的名称、型号及其他用于识别和追溯的唯一性参考信息;

    • 提供方或授权代表的名称和地址;

    • 声明本声明由提供方全权负责签发;

    • 确认该AI系统符合《欧盟人工智能法案》;

    • 如果AI系统处理个人数据,则需确认该系统符合欧盟数据保护法规;

    • 相关的统一标准或其他通用规范;

    • 如适用,公告机构信息、合格评估流程以及合格证书;

    • 授权签署人的姓名;

    • 以及签署日期和地点。


    6.3

    对高风险AI系统进行所需的基本权利影响评估(部署方)


    欧盟人工智能办公室咨询以获取FRIA模板。


    考虑利用组织现有的治理机制以:

    • 识别范围内的高风险AI系统;

    • 识别并协调内外部利益相关者;

    • 以及获取并审阅AI系统的技术文档和使用说明。


    识别机会,利用组织现有的数据保护影响评估(DPIA)流程来开展FRIA。


    首次使用该AI系统之前完成FRIA,除非该系统预定用于关键公共基础设施的管理或运营中的安全组件


    确保FRIA包含以下内容:

    • 描述提供方或部署方将使用该高风险AI系统的流程;

    • 说明提供方或部署方计划使用该高风险AI系统的时间段和频率

    • 识别可能受该高风险AI系统影响的自然人及群体的类别

    • 界定可能影响上述人员或群体类别的具体风险

    • 以及描述人类监督措施及其他风险缓解措施


    即使非强制要求,亦可考虑将进行FRIA作为一项最佳实践


    7

    确定合规截止日期


    需认识到,《欧盟人工智能法案》已于 2024年8月1日 正式生效。


    需理解,大部分条款将从 2026年8月2日起 适用,但部分规定有更早的合规日期,包括:

    • 被禁止的AI实践,自 2025年2月2日起 完全禁止;

    • AI素养义务,自 2025年2月2日起 适用;

    • GPAI模型规则,自 2025年8月2日起 适用;

    • 以及处罚规定,自 2025年8月2日起 适用,但适用于GPAI模型提供方的处罚则从 2026年8月2日 开始。


    需理解,关于构成现有欧盟产品安全立法所涵盖产品安全组件的高风险AI系统的规则,将从 2027年8月2日起 适用。


    需认识到,已投放市场的产品可能适用不同的合规日期(参见《欧盟人工智能法案》第111条第1-3款)。


    7.1

    考虑自愿提前合规


    考虑加入 "AI公约" ,以便在计划的执法日期之前自愿遵守《欧盟人工智能法案》。


    考虑采用自愿性行为准则和治理机制,特别是针对高风险的合规要求。


    特别声明:

    本文由嘉潍律师事务所律师原创,仅代表作者本人观点,不得视为嘉潍律师事务所或其律师出具的正式法律意见或建议。如需转载或引用本文的任何内容,请注明出处。


    嘉潍律师事务所官网意见箱
    尊敬的网友,您好:
    欢迎登陆嘉潍律师事务所官方网站。为了不断提高网站品质以及嘉潍律师事务所全体同仁的服务质量,您对我所任何方面的建议与意见均可在此提出,我们会认真聆听。期盼您在百忙之中留下宝贵建议。您的资料仅供研究参考,绝不公开,请您放心回答。
    *姓名:
    *手机号:
    1、您是从何处得知嘉潍律师事务所信息的?
    2、本网站内容是否满足您的需求?是否有其他建议?
    3、您认为嘉潍律师事务所环境如何?是否有其他建议?
    4、您认为嘉潍律师事务所交通是否便利?是否有其他建议?
    5、目前嘉潍律师事务所的业务范围是否满足您的需求?您有哪些更好的建议?
    6、与您联系对接的律师服务如何?是否有需要改进的地方?
    7、您认为嘉潍律师事务所不足之处有哪些?还有哪些具体的建议与期望?