← 返回首页

欧盟新版产品责任指令:AI医疗器械制造商的诉讼风险暴增,中国出海企业如何应对

2026年12月生效的欧盟新版产品责任指令首次将AI系统和软件纳入产品范畴,引入强制证据披露和缺陷推定制度。深度解读对AI医疗器械制造商的影响、三重合规要求及中国企业的风险应对策略。

陈然
陈然最后更新:

1985年,欧盟颁布了产品责任指令(Council Directive 85/374/EEC),确立了制造商对缺陷产品的严格责任。那个时候,"产品"指的还是冰箱、汽车、玩具这些有形物体。四十年来,产品的形态发生了根本性变化——一台CT机里跑着几百万行代码,AI辅助诊断软件独立做出临床判断,远程手术机器人通过网络接收指令。但法律还停在1985年的框架里,对软件和AI造成的人身损害,受害者几乎无法举证。

2024年10月,欧盟通过了新版产品责任指令——Directive (EU) 2024/2853。这部指令2026年12月9日开始适用,是对1985年框架的彻底重写,也是全球范围内第一部明确将AI系统和软件纳入"产品"定义的综合性责任立法。对做AI医疗器械出海的中国企业来说,这部指令带来的诉讼风险,可能比MDR和AI Act加起来还要直接。

时间线:新规何时生效,覆盖什么范围

几个关键日期需要搞清楚。

指令于2024年11月18日在欧盟官方公报发布,2024年12月8日正式生效。但成员国需要在2026年12月9日前完成国内立法转化。也就是说,到2026年12月9日之后投放欧盟市场或投入使用的所有产品,适用新指令。在此日期之前投放市场的产品,仍然适用旧的1985年指令。

还有一个容易忽视的点:即使产品在2026年12月9日之前上市,如果在此日期之后做了"实质性修改"或更新,新指令可能也会覆盖它。对于持续迭代的AI软件来说,这一点尤其重要。

目前德国已经在推进立法转化,计划以一部全新的《产品责任法》1:1替换现行法律。法国、意大利等国也在同步推进。

三个根本性变化

新版指令对医疗器械行业的影响集中在三个维度。

软件、AI系统正式成为"产品"

指令第4条将"产品"的定义扩展到了软件、AI系统、数字制造文件以及与产品安全相关的数字服务。不管是嵌入硬件的固件,还是独立运行的SaMD(医疗器械软件),甚至是云端提供的AI决策支持服务,统统算"产品"。

对医疗器械来说,这意味着AI辅助诊断工具、临床决策支持系统、影像分析算法、手术机器人控制软件——这些在旧框架下责任归属模糊的数字组件,现在都有了明确的责任主体。

而且,制造商对软件更新和升级也承担责任。包括主动推送的更新造成的问题,以及应该提供安全补丁却没有提供的疏忽。对于习惯通过OTA更新修复bug的AI软件公司,这条规则值得反复咀嚼——你推出去的每一版更新,都可能成为将来的诉讼标的。

强制证据披露:被告必须交出技术底牌

旧制度下,原告面对复杂的AI系统,往往连产品是怎么出问题的都说不清,更别提举证了。新版指令第9条引入了强制证据披露制度:只要原告的赔偿请求"足够合理"(plausible),法院就可以命令被告披露与案件相关的证据材料。

能披露什么?设计规格、源代码、训练数据描述、算法日志、内部通讯记录——基本上涵盖了AI医疗器械开发过程中的所有核心文档。虽然法院会采取措施保护商业秘密和机密信息,但门槛是由法官裁量,不是由被告决定的。

从实务角度看,这意味着中国AI医疗器械公司的技术文档体系必须达到一个很高的标准。如果诉讼发生时你拿不出完整的版本记录、测试报告、风险评估文件,法院可能会做出对你非常不利的推定。

缺陷推定:复杂产品的"举证倒置"

指令第10条建立了缺陷推定机制。在两种情况下,法院可以直接推定产品存在缺陷:

一是被告拒不披露证据。如果法院命令你交出技术文档,你以各种理由拒绝或拖延,法院可以直接推定产品有缺陷。这条规定的威慑力很强——不配合就等于认输。

二是技术复杂性导致举证"过度困难"。如果产品的技术或科学复杂性使得原告证明缺陷存在变得极其困难,且缺陷和因果关系"至少有可能"成立,法院可以推定缺陷存在。AI医疗器械几乎必然触发这条——深度学习模型的决策过程本身就是个黑箱,让一个受伤患者去证明算法缺陷,在技术上几乎不可能。指令序言第48段甚至明确提到"创新医疗器械"作为适用情形的例子。

严格责任(不需要证明过错)加上缺陷推定(不需要完全证明缺陷),这两个机制叠加在一起,让AI医疗器械制造商在欧盟面临的诉讼风险远高于传统器械。

MDR + AI Act + PLD:三重合规压力

到2027年下半年,在欧盟市场销售AI医疗器械的企业将同时面对三套法律的约束:

MDR(医疗器械法规)——管市场准入,要求临床评价、技术文档、上市后监督体系。这是大家已经熟悉的老朋友了。

AI Act(人工智能法案)——AI医疗器械因为需要MDR下的第三方合格评定,自动被归为"高风险AI系统"(AI Act附件I明确列出MDR为联盟协调立法)。高风险AI的要求——风险管理、数据治理、技术文档、人类监督、透明度——在2027年8月2日生效。

新版PLD(产品责任指令)——管出了事以后谁来赔、赔多少。不要求产品违反什么法规,只要你投放市场的产品造成损害且被认定有缺陷,就要承担赔偿责任。

三者的交互关系值得细说。PLD在判定"缺陷"时,会参考产品是否满足其他法规的安全要求。也就是说,如果你没做到AI Act规定的高风险AI系统数据治理要求,或者MDR的上市后监督不到位,这些合规缺陷在PLD诉讼中会直接被当作"产品缺陷"的证据。合规做得不好,不仅影响市场准入,还会放大诉讼风险。

还有一点:旧指令下欧盟各国有法定赔偿上限(比如德国个人人身伤害最高赔付8500万欧元)。新版指令完全取消了赔偿上限。企业面临的潜在赔偿金额上不封顶。

对中国AI医疗器械企业的具体影响

具体到中国企业的欧盟出海业务,有几个方面需要尽快评估。

严格责任意味着没有辩解空间。原告不需要证明你有过错——不需要证明你疏忽、故意或者违反了什么规定。只要证明产品有缺陷、造成了损害、两者之间有因果关系。在缺陷推定的加持下,这个证明门槛已经被压到了很低。

AI算法的可解释性问题变成法律风险。如果你的AI诊断系统给出了一次错误判断,在旧制度下患者很难举证是算法的问题。现在,法院可以命令你披露算法设计和测试数据,并且在你无法充分解释算法决策逻辑时推定缺陷存在。"黑箱"不再能保护你。

软件更新是持续的责任敞口。你推送的每一版更新,以及你选择不推送的每一版安全补丁,都在责任覆盖范围内。网络安全漏洞导致的数据泄露或设备故障,同样可能触发产品责任。对于经常迭代算法模型的AI企业来说,版本管理和变更记录的完备性变成了法律合规问题。

供应链责任链条拉长。新指令将进口商、分销商、在线平台、对产品做"实质性修改"的实体都纳入了潜在被告范围。中国企业如果通过欧盟经销商销售AI医疗器械,需要用合同明确划分各方在软件更新、安全监测、事故响应等方面的责任。否则一旦出事,多个主体可能被连带起诉。

必须指定欧盟代表。非欧盟企业如果不指定一个可送达的欧盟代表,不仅违反市场准入要求,在诉讼中也会处于极其被动的地位——没有代表意味着法院文书无法送达,缺席判决的风险很高。

我们建议的应对方向

距离2026年12月9日还有几个月的准备窗口。从优先级来看,有几件事值得现在就做。

技术文档全面梳理。不是那种应付公告机构审查的文档,而是真正能在诉讼中站得住脚的文档——每一版算法的设计理由、测试方法、验证数据、已知局限性、变更记录。如果你用的是深度学习模型,模型训练数据的质量和代表性、验证集的设计、性能指标的计算方法,这些都需要有文档化的记录。

产品责任保险重新评估。赔偿上限取消意味着旧的保险额度很可能不够。建议找专业保险经纪做一次压力测试:假设你的一款AI诊断软件在欧盟造成了一起重度误诊事件,在最坏情况下,赔偿金额会到什么量级?保险能覆盖多少?

供应链合同条款修订。跟欧盟经销商、进口商、OEM合作伙伴的合同里,需要增加明确的软件更新责任划分、安全事件报告流程、证据保全义务、以及诉讼发生时的配合机制。这些条款在新指令下不是锦上添花,是必需品。

建立AI Act合规基线。虽然AI Act高风险系统的要求要到2027年8月才生效,但合规状态直接影响PLD诉讼中的缺陷判定。现在就开始做差距分析,比到时候匆忙补课要好得多。

上市后监测体系升级。MDR已经要求PMS体系,但新指令下,监测数据的完备性直接影响你能否在诉讼中推翻缺陷推定。如果你的PMS体系能证明产品上市后的实际性能表现与预期一致,那在应对缺陷指控时会多一层保护。

后续走向

从目前各成员国的立法转化进展来看,德国走在最前面,计划1:1转化不加码。但法国在产品责任领域历来偏向消费者保护,存在过度实施的可能。意大利和西班牙的消保团体也在推动更严格的地方规则。如果最终各国的实际执行力度不一致,同一个AI产品在不同欧盟国家面临的诉讼风险可能产生差异。

另外值得注意的是,欧盟在2025年2月撤回了单独的《AI责任指令》提案,这意味着新版PLD将成为处理AI相关产品损害赔偿的唯一框架性立法。所有原本分散在多个立法项目中的问题——AI的可解释性、算法偏见导致的损害、自动化决策的归责——都集中到了这部指令里解决。对企业来说,好消息是只需要关注一部法律;坏消息是,这部法律的力度比原来预想的还要大。

目前Clifford Chance、Gibson Dunn、Reed Smith、Bird & Bird等国际律所都已经发布了针对新版PLD的专题分析,侧重点各有不同。Clifford Chance 4月22日发布的备忘录特别强调了证据披露制度对AI企业的颠覆性影响,Gibson Dunn 3月23日的分析则聚焦于供应链责任分配。建议企业的法务团队找来这些报告做交叉参考。

对于正在或计划向欧盟出口AI医疗器械的中国企业,现在最需要做的不是恐慌,而是系统性梳理自己的风险敞口——技术文档、保险覆盖、合同安排、合规基线、监测体系,一个一个查缺补漏。2026年12月9日不是终点,而是举证责任彻底翻转的起点。

AI 助手

你好!我看到你正在阅读「欧盟新版产品责任指令:AI医疗器械制造商的诉讼风险暴增,中国出海企业如何应对」。有任何关于这篇文章的问题,都可以问我!

由 Gemini 驱动 · 回答仅供参考