← 返回首页

中国AI伦理审查新规解读:MIIT十部委联合发布,健康AI与SaMD首当其冲

深度解读2026年3月工信部等十部委联合发布的《人工智能科学技术伦理审查和服务管理措施(试行)》——中国首个AI伦理审查专门框架,高影响AI清单首次纳入健康相关技术,对中国医疗器械和药品企业AI研发、注册和出口的影响与应对。

陈然
陈然最后更新:

2026年3月20日,工信部联合科技部、卫健委、药监局等十个部门,以"工信部联科〔2026〕75号"的形式发布了《人工智能科学技术伦理审查和服务管理措施(试行)》。这份文件在2026年4月3日正式施行,是中国第一个专门针对AI科技活动的伦理审查框架。

从行业影响来看,医疗健康领域的AI产品首当其冲。新规明确将"对人的行为、心理情绪和生命健康具有重大影响的人机融合系统的研发"列入高影响AI活动清单,这意味着医疗AI、诊断辅助软件、手术机器人等产品线的研发流程将面临新的合规要求。

这份文件管什么

《措施》的适用范围覆盖在中华人民共和国境内开展的、可能对人的尊严、公共秩序、生命健康、生态环境和可持续发展产生伦理风险或挑战的AI科技活动。包括科学研究、技术开发以及其他依法需要接受AI科技伦理审查的活动。

三个核心原则贯穿全文:

伦理先行。AI科技活动必须将伦理要求贯穿全过程,不是项目做完再补伦理审查,而是从立项开始就要考虑伦理问题。

风险分级。新规将AI科技活动分为一般和高影响两个等级,高影响活动需要经过更严格的审查流程。

以人为本。强调公平、公正、安全、可追溯,这与NMPA的AI医疗器械审评指导原则中的"可控性、可追溯性、可靠性"一脉相承。

高影响AI清单:医疗健康占比最大

新规最大的看点是"高影响AI活动清单"。列入清单的活动需要经过更严格的伦理审查,包括组织专家评审会、多方利益相关者参与等。清单中的三大类别:

第一类:对人的行为、心理情绪和生命健康具有重大影响的人机融合系统。 这直接指向脑机接口(BCI)、AI辅助手术系统、智能假肢、神经调控设备等。中国在2026年3月批准了全球首个有创BCI医疗器械上市(由博睿康开发),这类产品的研发将受到最严格的伦理审查。

第二类:具有影响舆论、社会动员和社会意识能力的算法模型、应用程序和系统。 主要针对大语言模型和生成式AI。医疗领域中使用LLM做患者沟通、健康咨询的产品也在此列。

第三类:在涉及安全风险和人身健康风险的场景中使用的自主决策系统。 这覆盖了AI诊断系统、AI处方推荐系统、自动用药管理等场景。即便产品不直接接触患者,只要AI的决策可能影响患者的诊断或治疗路径,就属于高影响范畴。

清单还明确标注了"动态调整"机制——随着技术发展和风险变化,清单内容会定期更新。这给企业带来了持续关注的要求。

伦理审查的具体流程

新规要求开展AI科技活动的单位建立或明确伦理审查的职责部门。审查流程分为两个层级:

一般审查。对于不在高影响清单上的AI活动,单位内部的伦理审查委员会可以做一般性审查。审查内容包括:项目目的是否符合伦理要求、数据来源是否合法合规、是否存在算法歧视风险、隐私保护措施是否充分。

高影响审查。对于列入清单的活动,审查标准更严格:

  1. 必须组织专家评审会,邀请相关领域的技术专家、伦理学家、法律专家参与
  2. 需要开展利益相关者咨询,特别是受影响群体的意见
  3. 审查周期更长,一般不少于30个工作日
  4. 审查结果分为"通过""修改后通过""不通过"三种
  5. 不通过的项目不得开展,已开展的应当暂停

值得注意的一个细节:新规要求"伦理审查意见应当作为项目立项、结题、成果评价和推广应用的重要依据"。这意味着没有通过伦理审查的AI研发成果,在后续的注册审批中可能会遇到障碍。

与NMPA AI医疗器械监管的关系

新规和NMPA的AI医疗器械审评体系是两套不同但相互关联的框架:

NMPA的《人工智能医疗器械注册审查指导原则》 关注的是产品的安全性和有效性——算法验证、数据集质量、性能评估、风险管理。这是产品层面的技术审查。

工信部等十部委的《AI伦理审查措施》 关注的是研发过程的伦理合规——数据来源的合法性、算法的公平性、对社会和个人的潜在影响。这是活动层面的伦理审查。

两者的关系可以理解为:伦理审查是研发阶段的"准入条件",NMPA注册是上市阶段的"准入条件"。两者缺一不可。

从实际操作来看,NMPA在审查AI医疗器械注册申请时,可能会要求企业提供伦理审查的通过证明,特别是对于高影响AI产品。这类似于临床试验需要先获得伦理委员会批准才能开展的要求——逻辑是一致的。

对不同类型企业的具体影响

医疗AI/SaMD企业

影响最大。如果你的产品涉及疾病诊断、治疗建议、患者风险评估等AI功能,大概率会被归入高影响AI活动。你需要:

  • 建立内部AI伦理审查机制(如果还没有的话)
  • 在产品研发立项阶段就启动伦理审查
  • 准备数据来源、算法公平性、隐私保护方面的文档
  • 预留至少30个工作日的审查时间到项目计划中

医疗器械企业(非AI产品线但计划引入AI)

如果你正在规划为现有器械产品增加AI功能(比如从传统影像设备升级为AI辅助诊断设备),新规要求在AI功能开发启动前就要完成伦理审查。不能等产品做完了再补。

药品企业(AI辅助药物研发)

新规的适用范围是"AI科技活动",并不限于医疗器械。使用AI进行靶点发现、化合物筛选、临床试验设计优化的药企,如果AI的使用涉及患者数据或影响临床决策路径,也可能需要伦理审查。不过从目前清单的表述来看,纯内部使用的AI研发工具(不直接影响患者)可能不在高影响范畴之内。

出海企业

新规对中国企业AI产品的海外注册会产生间接影响。FDA在审查AI医疗器械时已经关注算法偏见和公平性问题(见FDA的AI/ML行动计划),EU AI Act对高风险AI系统也提出了严格的合规要求。新规要求中国企业做的伦理审查工作,在某种程度上与FDA和EU AI Act的要求是平行的——做了国内的伦理审查,可以为海外合规提供基础材料。

与全球AI监管框架的对比

把新规放到全球AI监管版图上看,中国的处理方式有自己的特点:

与EU AI Act对比。EU AI Act采用的是"产品+用途"的分类方式,按风险等级(不可接受、高、有限、最小)对AI系统进行分级管理。中国的《AI伦理审查措施》采用的是"活动"分类——关注的是你做什么,而不只是你卖什么。EU AI Act是立法,有法律强制力;中国的新规是"试行"的行政措施,法律层级较低但执行力度不容小觑。

与FDA对比。FDA没有专门的AI伦理审查要求,但通过510(k)/PMA审评过程和指导文件(如AI/ML PCCP指南)来确保AI医疗器械的安全性和有效性。FDA更关注产品性能,中国的新规更关注过程伦理。

共同趋势。三个监管体系都在走向"全生命周期AI治理"——不是审一次就完事,而是从研发到上市到使用全程监管。这意味着企业需要建立持续性的AI合规体系,而不是把合规当成一次性任务。

实操建议

从我们的经验来看,以下几个动作的优先级最高:

建立AI伦理审查制度。不管你的企业规模多大,只要涉及AI研发,就需要有明确的伦理审查流程。小企业可以指定专人负责,大企业应当设立专门的伦理审查委员会。

盘点现有AI项目。对照高影响AI清单,梳理哪些正在进行或计划中的AI项目属于高影响范畴。这些项目需要优先完成伦理审查。

更新研发流程。在项目立项阶段增加伦理审查节点,确保伦理审查在技术开发正式启动前完成。这会略微延长项目前期时间,但可以避免后期因伦理问题导致的返工。

做好文档准备。伦理审查需要提交的材料包括:项目描述、数据来源和合规性说明、算法公平性分析、隐私保护措施、风险评估报告。建议把这些内容纳入标准化的项目文档模板。

关注清单更新。高影响AI活动清单会动态调整,企业需要建立跟踪机制。可以关注工信部科技司和NMPA的官方发布渠道。

与注册策略联动。对于需要NMPA注册的AI医疗器械,把伦理审查纳入注册时间线规划。从目前的情况判断,伦理审查通过证明可能会成为NMPA注册申报材料的一部分。

参考资源

AI 助手

你好!我看到你正在阅读「中国AI伦理审查新规解读:MIIT十部委联合发布,健康AI与SaMD首当其冲」。有任何关于这篇文章的问题,都可以问我!

由 Gemini 驱动 · 回答仅供参考