2025年6月19日,欧盟医疗器械协调小组(MDCG)与欧盟人工智能委员会(AI Board)联合发布了MDCG 2025-6指引文件。这份文件以FAQ的形式,系统回答了EU AI Act如何适用于MDR和IVDR管辖下的AI医疗器械。在我们看来,这是迄今为止欧盟层面对"AI Act + 医疗器械法规双重合规"最权威、最具体的指导,任何计划向欧盟市场出口AI医疗器械的企业都应当逐条研读。
更值得关注的是,2026年2月欧盟委员会提出的Digital Omnibus一揽子方案,对AI Act的多项关键期限做了延后调整。理事会已在3月13日达成一致,议会相关委员会3月18日投票支持,截至2026年4月正处于trilogue最终谈判阶段。时间线的变动直接影响企业的合规节奏,盲目按旧时间表推进可能造成资源浪费,也可能错失准备窗口。
MDCG 2025-6的核心内容:为什么这份文件重要
EU AI Act(Regulation (EU) 2024/1689)作为全球首部综合性AI立法,2024年8月1日正式生效后,医疗器械行业的疑问集中在一个问题上:AI Act与现有的MDR/IVDR到底怎么衔接?MDCG 2025-6正是回应这个问题的。
指引文件的核心贡献有三点。它首次明确定义了"Medical Device AI"(MDAI)的概念边界,厘清了哪些AI系统需要同时满足AI Act和MDR/IVDR。它确认了AI Act的符合性评估将与MDR/IVDR的评估整合进行,而非另外单独开展——这一点对企业来说是好消息,意味着不需要找两拨审核机构分别做两次评估。它详细说明了公告机构(Notified Body)在AI Act下的新角色和资质要求。
从实操角度讲,这份文件解决了一个此前长期模糊的问题:企业到底要在技术文档里新增哪些内容才能同时满足MDR和AI Act。
MDAI的定义与覆盖范围
MDCG 2025-6引入了一个关键术语——Medical Device AI(MDAI)。具体来说,MDAI包括两类:
- AI系统本身构成医疗器械:比如独立的AI影像诊断软件,算法直接用于疾病筛查或辅助诊断
- AI系统嵌入在医疗器械中:比如搭载了AI算法的监护仪、手术机器人中的AI导航模块、IVD分析仪中的AI辅助判读功能
判断一款AI是否落入MDAI范畴的关键标准是:该AI是否具备"医疗目的"(medical purpose)。如果AI仅用于医院排班管理、行政流程优化,或者纯粹的科研数据分析而不用于临床决策,大概率不属于MDAI,也就不在MDR/IVDR管辖范围内,但仍可能受AI Act其他条款的约束。
目前来看,中国医疗器械企业出海欧盟的主力产品——AI影像辅助诊断软件、智能监护系统、AI药物发现平台中的临床决策模块——几乎全部落入MDAI的定义。准确地说,只要产品宣称了任何与疾病诊断、治疗监测、生理参数分析相关的功能,就会被认定为MDAI。
高风险分类:AI医疗器械的默认等级
AI Act对AI系统采用风险分级的监管策略。MDCG 2025-6明确指出,MDAI在多数情况下会被自动归类为高风险AI系统(High-Risk AI System)。具体触发条件是:
- AI医疗器械作为产品(或产品的安全组件)受欧盟产品安全立法(如MDR、IVDR)管辖
- 该产品在投放市场或投入服务前需要由第三方(即公告机构)进行符合性评估
换言之,MDR下的Class IIa及以上、IVDR下的Class B及以上医疗器械中嵌入的AI,基本都会被认定为高风险AI。Class I(MDR)和Class A(IVDR)中如果包含AI模块,且不需要公告机构介入,则可能不落入高风险范畴,但仍需满足AI Act的其他要求(如透明度义务)。
高风险认定带来的直接后果是:企业必须满足AI Act第8至15条的一系列严格要求,涵盖风险管理体系、数据治理、技术文档、透明度、人工监督以及准确性、鲁棒性和网络安全。
时间线:原定计划与Digital Omnibus延期
AI Act原始时间线
EU AI Act正式生效后,各项义务的分步实施时间如下:
- 2025年2月2日:禁止条款(Article 5)生效,禁止某些不可接受的AI实践(如社会评分、实时远程生物识别等)
- 2025年8月2日:通用AI模型(GPAI)义务生效
- 2026年8月2日:AI Act大部分义务正式适用,包括高风险AI系统(Annex III所列)的完整合规要求
- 2027年8月2日:嵌入受监管产品(Annex I,包括MDR/IVDR器械)中的高风险AI系统的义务适用日期
Digital Omnibus延期方案
2026年2月,欧盟委员会在Digital Omnibus一揽子方案中提议延长AI Act的部分期限:
| 类别 | 原定日期 | 提议新日期 | 延长幅度 |
|---|---|---|---|
| 独立高风险AI(Annex III) | 2026年8月2日 | 2027年12月2日 | +16个月 |
| 嵌入受监管产品中的AI(Annex I,含MDR/IVDR器械) | 2027年8月2日 | 2028年8月2日 | +12个月 |
| AI素养义务(Article 4) | 2026年8月2日 | 不变,2026年8月2日 | 不延期 |
截至2026年4月,该延期方案在理事会层面已达成政治共识(3月13日),议会内部委员会也已投票支持(3月18日),正在trilogue最终谈判中。从各方态度判断,方案大概率会以目前的形式通过,但企业应密切关注最终立法文本。
对已有设备的影响
MDCG 2025-6明确了一种"祖父条款"式的安排:在适用日期之前已合法投放市场或投入服务的MDAI,只有在适用日期之后进行了"重大设计变更(significant change in design)"时,才需要全面满足AI Act的要求。对于只是常规维护、Bug修复、不涉及核心AI模型架构调整的变更,AI Act不溯及既往。
我们认为,这条规定给了企业一定的缓冲空间。如果一款AI影像辅助诊断软件在2028年8月2日前已通过MDR CE认证并上市,之后只做小幅优化而非根本性重写,理论上不需要立刻补齐AI Act的全部技术文档。但"重大设计变更"的界定标准尚待进一步澄清,稳妥起见,任何涉及算法核心逻辑、训练数据集重构或预期用途扩大的变更,都应按AI Act要求准备。
AI Act核心要求详解
MDCG 2025-6将AI Act对高风险MDAI的要求归纳为几个关键领域,每个领域都需要在技术文档中提供专项证据。
风险管理体系
AI Act要求建立独立且系统化的AI风险管理流程。这与MDR已有的风险管理(ISO 14971)有交叉但不完全重合。AI Act的风险管理更侧重于算法层面的风险——比如训练数据偏差导致的误诊风险、对抗性攻击(adversarial attack)带来的安全风险、模型在部署环境中性能退化(data drift)的风险。
就实际操作而言,企业需要在现有ISO 14971风险管理文件的基础上,补充一份专门的AI风险分析报告。两者的风险清单可以有重叠,但AI特有的风险维度(偏见、漂移、可解释性不足)必须单独论证。
数据治理
AI Act第10条对训练数据提出了极高要求:
- 数据代表性:训练数据集必须在统计学意义上代表目标人群和临床场景,不能有明显的人口学偏差
- 数据质量:数据的采集、清洗、标注流程必须有完整的可追溯记录
- 数据合规性:训练数据的使用必须符合GDPR要求,包括合法基础、数据最小化原则和隐私保护措施
- 偏见检测与缓解:必须对训练数据进行偏见审计,并在技术文档中说明采取了哪些措施来识别和缓解结构性偏见
对中国企业来说,这里有一个隐性挑战:如果你的AI模型主要基于中国患者数据训练,要在欧盟市场证明数据的"代表性"就需要补充本地化验证。这不是不可能完成,但确实增加了数据准备工作量。
透明度与用户信息
AI Act要求高风险AI系统向部署者(deployer,即医院、诊所等终端用户)提供充分的信息:
- 系统的预期用途、能力边界和使用限制
- 对人类监督者的要求(需要什么资质、如何有效监督)
- 系统输出结果的置信度和不确定性说明
- 输入数据的预处理方式和假设前提
这些信息应当以用户手册或使用说明的形式提供。在MDR框架下,这些内容通常可以整合到器械的使用说明(IFU)中。
人工监督
AI Act第14条要求高风险AI系统必须设计有效的人工监督机制,确保人类操作者能够:
- 充分理解AI系统的输出及其局限性
- 在必要时忽略、覆盖或逆转AI系统的输出
- 通过"停止按钮"或类似机制中断AI系统的运行
对于AI医疗器械而言,这意味着产品设计中必须内置"人在回路"(Human-in-the-loop)的架构。纯自主诊断(autonomous diagnosis)不被允许——AI的输出必须经过具备资质的医务人员审核和确认。
准确性、鲁棒性与网络安全
AI Act第15条要求高风险AI系统在预期使用条件下达到适当的准确性、鲁棒性和网络安全水平。具体包括:
- 准确性指标:必须在技术文档中报告核心性能指标(如敏感度、特异性、AUC等),并说明测试条件
- 鲁棒性:系统应能抵抗预期使用环境中的干扰(如不同厂家的影像设备、数据质量波动等)
- 网络安全:必须实施防护措施抵御网络攻击,包括数据投毒(data poisoning)、模型逆向提取(model inversion)等AI特有的安全威胁
这一条与MDR的一般安全与性能要求(GSPR)中的多条直接相关——MDCG 2025-6特别指出了GSPR 1(风险收益平衡)、GSPR 3(化学/物理/生物安全)、GSPR 5(环境条件适应性)、GSPR 14(含软件器械要求)、GSPR 17(网络安全)和GSPR 23(用户信息要求)。
符合性评估:MDR与AI Act的整合
MDCG 2025-6确认了一个重要的实操原则:AI Act的符合性评估将与MDR/IVDR的符合性评估整合进行。企业不需要分两次单独申请,公告机构在一次审核中同时审查MDR和AI Act的合规性。
这对企业来说是务实的安排。具体流程是:
- 企业在MDR技术文档中新增AI Act要求的章节(风险管理补充、数据治理报告、透明度文件等)
- 公告机构在进行MDR符合性评估(如技术文档审查、QMS审核)时,一并审查这些新增内容
- 通过后,CE标志代表同时满足MDR和AI Act的要求
不过,这里有一个前提条件:公告机构本身必须获得AI Act的资质授权。截至2026年初,欧盟公告机构正在积极申请AI Act的资质扩展(extension of notification)。企业在选择公告机构时,必须确认该机构是否已经或即将获得AI Act的审核资质。如果选择的公告机构尚未获得AI Act资质,后续可能需要更换机构或等待资质审批,这会显著拖延认证进度。
中国AI医疗器械企业的应对策略
对于正在或计划向欧盟出口AI医疗器械的中国企业,我们认为当前阶段需要做好以下几件事。
1. 确认产品是否属于MDAI
对照MDCG 2025-6的MDAI定义,逐一审查产品中涉及的AI功能。如果AI仅用于非医疗用途(如后台数据分析、报表生成),可以考虑将AI功能与医疗功能在产品定位上做清晰切割,以缩小AI Act的适用范围。但这里需要注意:如果AI的输出最终会影响临床决策(即使是间接影响),大概率仍会被认定为MDAI。
2. 尽早与公告机构沟通AI Act资质状态
这可能是当前最紧迫的一步。AI Act的合规义务虽然被延期到了2027年底或2028年中,但公告机构的资质审批和排期可能需要一年以上。建议在2026年内完成以下动作:
- 联系现有或拟合作的公告机构,确认其AI Act资质扩展计划
- 了解公告机构对AI Act技术文档审查的初步要求
- 提前排期,避免在2027年集中挤兑有限的审核资源
3. 在现有QMS中逐步整合AI Act要求
不需要等到最后期限再动手。AI Act的核心要求——风险管理、数据治理、透明度——与ISO 13485和IEC 62304的管理体系框架本身是兼容的。企业可以在日常的质量管理活动中逐步补充:
- 在现有ISO 14971风险管理流程中增加AI特有风险维度
- 在数据管理SOP中加入数据偏见审计和代表性评估环节
- 在产品使用说明中增加AI透明度相关章节
- 在网络安全管理流程中纳入对抗性攻击防护措施
这种渐进式整合的成本远低于临时突击。
4. 准备数据治理专项文件
数据治理是AI Act审查的重点,也是中国企业的薄弱环节。建议提前准备:
- 训练数据集说明文档:数据来源、采集标准、标注流程、人口学分布统计
- 偏见审计报告:按年龄、性别、种族等维度分析模型性能差异
- 数据合规证明:数据使用授权文件、GDPR合规声明
- 本地化验证计划:说明如何用欧盟本地数据验证模型在目标人群中的性能
5. 关注Digital Omnibus最终立法进展
延期方案虽然大概率通过,但最终文本可能与当前版本有细节差异。建议企业指定专人跟踪立法进程,尤其是关注"重大设计变更"的正式定义、过渡期的具体安排、以及任何新的豁免条件。
参考资源
- MDCG 2025-6: Frequently Asked Questions on the interplay between the EU AI Act and the MDR/IVDR — 欧盟委员会官网原文
- EU AI Act全文 (Regulation (EU) 2024/1689) — EUR-Lex法规原文
- Digital Omnibus提案 (COM(2026)最终版) — 欧盟委员会一揽子方案详情
- MDCG器械工作组文件列表 — 所有MDCG指导文件索引
- 欧盟AI公约(AI Pact) — 企业自愿承诺提前合规的平台
常见问题
Q1:如果我们的AI医疗器械在2028年8月前已经拿到了MDR CE证书,还需要补充AI Act的审核吗?
不需要立刻补充。只要产品在适用日期前已合法上市,且之后没有进行"重大设计变更",AI Act不溯及既往。但一旦对AI算法做了实质性改动——比如重新训练模型、扩大适用人群、更改核心功能——就必须同时满足AI Act的要求。
Q2:我们的AI只用于辅助医生阅片,不直接出具诊断报告,算不算MDAI?
大概率仍然算。MDCG 2025-6对"医疗目的"的界定比较宽泛,辅助诊断(包括辅助阅片、病灶标注、异常提示)也属于医疗目的。区分的关键不是"是否出具诊断报告",而是"AI的输出是否用于临床决策"。
Q3:公告机构目前都还没有AI Act资质,我们该怎么办?
这不影响前期的准备工作。企业可以先按AI Act要求完善技术文档和QMS,同时密切关注公告机构的资质审批进展。预计2026年下半年到2027年初,主要医疗器械公告机构会陆续获得AI Act资质。现在最务实的做法是提前与公告机构建立沟通,了解他们的审核准备进度。
Q4:AI Act要求的数据偏见审计具体怎么做?
通常包括以下步骤:按人口学维度(年龄、性别、种族等)分层统计模型性能指标,识别是否存在某一子群体显著低于整体水平的情况。如果发现偏差,需要分析原因并在可能的情况下进行缓解(如补充训练数据、调整损失函数权重)。审计结果应以报告形式记录在技术文档中。
Q5:Digital Omnibus的延期方案最终可能不通过吗?
从目前的政治态势来看,延期方案通过的概率较高。理事会和议会相关委员会都已表态支持,trilogue谈判更多是技术性磋商而非政治博弈。但立法过程本身存在不确定性,建议企业按"不延期"的最坏情况做基础准备,同时预留按延期方案调整节奏的灵活性。