MDCG指南根据人工智能法规、MDR和IVDR阐明了对人工智能产品的要求
关于《医疗器械法规》(MDR)、《体外诊断条例》(IVDR)和《人工智能法规》(AIA)相互作用的综合指南最近发布了,该指南支持制造商、公告机构和当局满足基于人工智能的医疗器械的监管要求。

AIB 2025-1 MDCG 2025-6 文件涵盖了什么?
医疗器械领域人工智能产品要求的MDCG指南可在医疗器械协调小组(MDCG)于2025年6月发布的 “MDCG 2025-6” 文件(关于MDDR、IVDR和人工智能监管/人工智能法案之间相互作用的常见问题解答)中找到。本指南详细解释了带有 AI 组件的医疗器械的监管要求、风险分类、临床评估和合规性评估。将研究《医疗器械法规》(MDR)、《体外诊断条例》(IVDR)和《2024/1689年人工智能条例(欧盟)》(也称为人工智能法规、KI-VO、英国人工智能法案)之间的相互作用。该文件本身汇编了有关医疗器械法规(MDR)、体外诊断法规(IVDR)和人工智能法规(AIA)相互作用产生的监管问题的常见问题(FAQ)。
该文件由欧盟(EU)所有成员国的代表编写,由欧盟委员会医疗器械协调小组(MDCG)和一个成员国(AIB联合人工智能委员会)共同领导。该小组由根据他们在医疗器械和体外诊断领域的专业知识任命的专家委员会组成。
它解释了监管原则、分类、数据管理要求、透明度、人工监督、临床评估以及合规性评估和上市后随访(PMCF),重点是医疗技术领域安全且合法地使用人工智能。
用于医疗目的的人工智能系统被称为 医疗设备中的人工智能 要么 医疗设备中的 AI (英语医疗器械人工智能(MDAI);所有提及MDAI的内容还包括符合MDR附件十六的产品、医疗器械附件、体外诊断和体外诊断附件。
用于医疗目的的人工智能系统的第一个重要方面是什么?
简要总结 (不能取代阅读 2025-6 年 MDCG 27 页以及对该主题的进一步观察,来源见下文) 关于MDR、IVDR和AI法案之间相互作用的7个章节涵盖了以下主题:
- MDCG 2025-6 规定了什么?
它提供了有关《医疗器械法规》(MDR)、《体外诊断条例》(IVDR)和《KI法案》(AI法案)相互作用的常见问题解答,特别是根据MDR第2(1)条或第2(2)条IVDR对基于人工智能的医疗器械的相互作用。根据以下规定,MDAI 还与医疗器械有关 MDR 附件十六。对于软件,开启 MDCG 2019-11 还押候审。 - 从AIA的意义上讲,什么时候MDAI被视为高风险的人工智能系统?
如果满足以下两个条件,则MDAI被视为高风险的人工智能系统:首先,MDAI要么是安全相关组件,要么AI系统本身代表医疗器械;其次,根据MDR/IVDR的要求,MDAI需要接受公告机构的合规性评估。 - AIA何时将MDAI归类为高风险人工智能系统?
当系统执行与安全相关的功能并接受公告机构的合规性评估时。 - KI VO 会影响根据 MDR/IVDR 进行风险分类吗?
MDR/IVDR风险等级决定了AIA下高风险人工智能系统的地位;KI VO并未改变这一点。 - 如何在生命周期中增加管理?
两者都要求对MDAI进行持续的风险管理、监测和质量管理。 - 质量保证体系的要求是什么?
制造商必须记录和实施全面的、基于风险的系统,包括两项法规的要求。 - 风险管理要求是什么?
持续识别、评估和缓解高风险 MDAI 可能对基本权利、数据失真和系统稳定性构成的合理可预见的风险,包括识别、分析和缓解与系统设计、开发和部署相关的风险,可能包括在产品的整个生命周期中对提供商进行培训。 - 数据和数据管理要求是什么?
数据必须具有代表性、无错误和透明;建议制造商从精心设计的研究中识别并最大限度地减少数据风险和歧视。为确保生成足够的临床证据,临床评估或性能评估必须基于代表设备预期用途和目标人群的临床数据。 - 监控和缓解 MDAI 中不必要的失真有何要求?
高风险人工智能医疗设备(MDAI)的制造商必须实施适当的数据管理和管理措施,确保数据质量符合预期目的,并识别、预防和缓解可能影响健康、安全或基本权利的潜在扭曲。MDAI 还必须具有自动事件记录(记录)的技术功能,以确保可追溯性,特别是识别和记录由于数据集失真或系统在其生命周期内发生变化而导致的风险;这些要求由 MDR 和 IVDR 补充,这需要强大的临床数据来确保目标人群表现一致。 - 为证明人工智能系统的合规性而定义了哪些不同类型的数据?
-训练数据是用于通过调整人工智能系统的学习参数来训练人工智能系统的数据;
-验证数据是用于评估经过训练的人工智能系统并协调其不可学习的参数和学习过程的数据,包括防止调整不足或过度调整;
-验证数据集是指单独的数据集或训练数据集的一部分,可以是固定分布还是可变分布;
-测试数据是用于对人工智能系统进行独立评估的数据,以确认该系统在投放市场或投入运营之前的预期性能。
- 如何处理高风险 MDAI 的训练、验证和测试数据?
使用适当的数据对于人工智能医疗设备的准确和临床相关结果至关重要。训练数据必须代表目标人群。
此外,临床数据必须可靠且来自精心设计的研究。数据收集协议应确保目标群体的相关特征,例如年龄、性别、族裔和疾病,在数据集中得到充分体现。这样可以进行适当的概括并有助于避免失真。
制造商必须使用严格的数据管理惯例并验证训练数据。根据KI法规,高风险MDAI的数据集必须具有高质量,足够的代表性,并且没有可能影响健康或基本权利的扭曲。KI法规还要求采取措施保护数据并提高数据处理的透明度。
欧盟委员会正在制定切实执行这些要求的横向指导方针,CEN/CENELEC联合技术委员会21正在制定统一的数据和失真标准。
- 哪个 MDAI 需要技术文件吗?
现有的 MDR、IVDR 和 KI-VO 要求为 MDAI 提供全面的技术文档。MDR 和 IVDR 需要对软件、架构、数据处理和风险管理进行详细描述。KI法规还要求提供有关透明度和问责制的信息,包括风险评估和绩效测试。
该文档必须描述设计、开发、功能、系统架构、计算资源和预期用途。制造商必须提供合规证据,包括培训、验证和测试数据以及质量管理流程。KI法规还要求为高风险的MDAI创建统一的技术文档。
- 哪些适用于公告机构对技术文档的评估?
根据AIA的附件七,MDR的IIA/IIb风险类别和IVDR风险类别B/C的产品需要接受样本测试,具体定义见适用合格评估程序的MDCG 2019-13年度。(根据 IVDR 和 MDR 附件 IX 第 2.3 和 3.4 节(以及 MDR 附件 XI 第 10 节)
14。透明度和 MDAI 的要求是什么?
KI-VO和MDR/IVDR为制造商和用户规定了额外的义务,以确保人工智能医疗设备的透明度。
KI法规要求开发高风险的人工智能医疗器械必须使用户正确了解支出并能够正确使用系统。通过直接的人机交互,必须告知用户他们正在与人工智能系统通信。
MDR/IVDR 将透明度要求纳入一般安全和性能要求。制造商必须提供有关设备的用途、操作和限制的明确信息,并进行最先进的软件开发。
这两项法规构成了一个连贯的框架,要求以透明的方式开发和使用人工智能医疗设备。透明度要求是风险和质量管理体系中的基本义务,必须通过合规性评估予以证明。
15。高风险 MDAI 的透明度、可解释性和数据处理要求是什么?
人工智能法规要求透明度和易于理解的用户指令,这样用户才能做出明智的决定并正确使用系统。
对数据处理有严格的要求:用于训练、验证和测试的数据必须有意义,没有错误和失真,并且足够全面,以确保稳健性和性能。
MDR/IVDR 要求用户获得有关医疗器械、其性能和风险的全面且易于理解的信息,包括对软件组件如何影响性能的描述。
人工智能法规和MDR/IVDR共同构成了一个具有约束力的框架,其中透明度和可解释性不是可选要求,但制造商必须确保用户能够理解人工智能组件的逻辑、局限性和行为——从开发到文档再到上市后监控。
16。如何看待 MDAI 的问责制?
文档必须描述如何处理输入和生成输出,开发高风险的人工智能医疗设备必须使用户能够了解系统的工作原理和实现其结果的方式——并提供有关功能、功能和限制的文档。
这应该使验证和传达人工智能决策成为可能,并确保整个产品生命周期中安全可靠的运行条件。
17。如何定义 MDAI 的可用性?
制造商在设计和开发人工智能医疗设备时必须运用可用性原则,以确保安全有效地使用。制造商必须考虑到用户知识和潜在的培训要求,尽可能消除或减少因操作错误而造成的风险。
应根据以后用户为导向的原则开发人工智能系统,以实现安全有效的互动。必须记录可用性过程及其结果。
18。高风险人工智能医疗设备的 MDR、IVDR 和 KI-VO 中包含哪些人体监测要求?
人工智能法规要求制造商为高风险的人工智能医疗设备配备人体监控机制。这些限制必须包括系统无法逾越的内置操作限制,并且必须允许人工干预关键决策过程。
监测机制必须与风险和自主程度相称。记录在案的监测机制和使用说明应确保医疗保健专业人员的安全使用和监测。
19。能否将人体对医疗器械的监测理解为现有风险管理措施的一部分?
人为监测是一种风险缓解措施,旨在预防或最大限度地减少与预期用途或可预见的滥用相关的风险。制造商必须通过安全设计消除或减少风险,并采取适当的保护措施。
就人工智能医疗设备而言,制造商在风险评估中必须考虑需要哪种级别的人体监测,例如在机器人辅助外科手术中,同时不危及关键阶段的高度自主功能。
20。在人工智能医疗器械的背景下如何看待同意书?
临床试验和绩效研究将需要同意书。参与者必须了解风险、收益和目标。
《人工智能法规》对此进行了补充,在高风险人工智能系统的一般使用中增加了透明度义务,以便向用户和受影响人员提供有关能力、限制和风险的足够信息。
21。如何考虑高风险人工智能医疗设备的可追溯性?
可追溯性是这两项法规的关键要素。MDR/IVDR 要求医疗器械,包括带有人工智能组件的医疗器械,在整个供应链和产品生命周期中均可追踪,包括唯一的产品识别、注册和上市后监控。
人工智能法规要求功能可追溯性:高风险的人工智能系统必须保留生命周期中的性能和行为记录。因此,可追溯性有两种使用方式:设备运动的可追溯性和系统功能的可追溯性,以便充分监控硬件和软件尺寸。
22。需要哪些网络安全措施?
所有三项法规都强调在营销前后这两个阶段都采取强有力的网络安全措施。制造商必须采取措施防止未经授权的访问、网络攻击和数据操纵。
人工智能法规需要技术解决方案来解决人工智能特定的弱点。制造商必须保护数据传输和存储,防止未经授权的访问,并识别和应对网络安全事件。网络安全是关键要求的一部分,必须在风险和质量管理体系中予以考虑。
23。为评估人工智能医疗设备的性能设定了哪些标准?
制定了确保高风险人工智能医疗设备安全性、可靠性和有效性的标准,并需要精度、稳健性和网络安全等要求,以及根据预定义的指标和阈值进行测试,以确保人工智能医疗设备始终如一地满足其预期用途。
它还需要验证人工智能训练流程,以确保可靠性和准确性,包括在各种条件下验证设计、数据收集、模型训练以及持续监控的质量管理体系。
24。高风险人工智能医疗设备的具体临床(MDR)或性能评估(IVDR)要求是什么?
MDR/IVDR 要求制造商通过严格的测试来验证人工智能支出,并证明 AI 医疗设备安全运行并提供准确、可靠和临床相关的结果。人工智能法规还要求在透明度、人工监测、准确性、稳健性和网络安全方面进行验证,并验证人工智能医疗设备不侵犯基本权利。
所有三项法规都强调在各种条件下进行测试、评估过程记录和持续监测。该法规要求为目标患者群体提供临床证据和临床益处。对于投放市场后能够学习的人工智能医疗设备,《人工智能法规》还要求控制预定义的变更。
25。制造商如何根据 MDR/IVDR 和 KI 法规进行临床试验和绩效研究?
高风险的人工智能医疗设备必须有临床证据支持,以证明安全性、性能以及适当的临床益处。这可以通过临床试验(MDR)或绩效研究(IVDR)来完成。
当对高风险的人工智能医疗设备进行临床测试或性能研究时,这代表了实际的运行情况。人工智能法规允许在特定条件下将高风险的人工智能系统投放市场之前对其进行测试,而不会影响 MDR 和 IVDR 要求。
26。有哪些流程可以生成临床证据以支持 AI 医疗设备的安全性和性能?
MDR/IVDR 需要通过临床或绩效评估(包括临床试验和绩效研究)生成临床证据。这包括设计和开展研究,根据特定的研究设计、数据收集和统计分析要求评估性能、可靠性和临床影响。
这三项法规都强调了有力的证据对于证明人工智能医疗设备的安全性、性能和有效性的重要性。
27。在 MDR/IVDR 和 KI 法规的范围内,人工智能系统的合格评估程序是什么?
归类为高风险人工智能医疗设备的人工智能系统的相关合规性评估流程由MDR/IVDR确定。附件一优先考虑两种KI-VO系统均适用的高风险人工智能医疗设备。
根据KI-VO第6(2)条被归类为高风险人工智能医疗器械且属于附件三第2—9点范围的人工智能系统遵循附件六KI-VO中规定的合格评估程序(没有公告机构参与的内部控制)。附件三第1点下的人工智能系统遵循KI法规第43条规定的合格评估程序之一。
28。证明合规的程序是什么?
高风险的人工智能医疗器械根据其风险分类接受相关的合格评估程序。大多数人工智能医疗设备被归类为IIa类(MDR)、B类(IVDR)或更高等级,需要公告机构进行质量管理体系审核和技术文件审查。
根据KI-VO第43(3)条,在MDR/IVDR合规性评估过程中,必须考虑KI-VO第8-15条的要求以及有关质量管理体系和技术文件的具体规定。
29。KI-VO下的重大变更如何与MDR/IVDR下可能需要新的合规性评估的变更相协调?
根据人工智能法规,重大变更的概念是一个独立的概念。根据KI-VO第43(4)条,如果发生重大变更,经过合格评估的高风险人工智能医疗设备必须接受新的合格评估。
欧盟委员会将为实际执行制定指导方针。
30。高风险人工智能医疗器械的上市后变更何时不是重大变化?
在上市后继续学习的高风险人工智能医疗设备可以在合规性评估期间对预定义的变更计划进行审查。制造商预先定义并在初始合格性评估期间评估的变更并不代表重大变化。
根据 MDR/IVDR,此类预定义的变更必须明确说明和记录,不应被视为对经认证的医疗器械的更改。这必须载入变更管理系统和技术文件。
31。市场上在2027年8月2日之前经历重大设计变更的高风险人工智能医疗设备是否必须根据KI法规进行新的合规性评估?
否 “投放市场” 一词是指每种产品。根据KI-VO第6(1)条,高风险人工智能系统的申请截止日期为2。2027 年 8 月。
医疗器械是否在此日期之前投放市场:自2027年8月2日起的重大设计变更受KI法规的约束,但在此日期之前没有变化。如果医疗器械从2027年8月2日起投放市场,则AI-VO要求将完全适用。
32。人工智能医疗设备的上市后监测要求?
制造商必须建立和实施监控系统,以监控其投放市场后的性能和安全性。这包括系统的数据收集和分析、风险分析、不良事件评估,以及在必要时采取纠正和预防措施。制造商必须实施警戒制度并向当局报告不良事件。
33。对人工智能医疗设备的持续性能监控机制有哪些要求?
MDR/IVDR 需要监控系统来监控上市后的性能和安全性。人工智能法规要求制定监测计划,以系统地收集和分析生命周期内的相关性能数据,并确保持续遵守KI法规第8-15条的要求。
34。KI法规在现有的上市后监测要求中引入了哪些新的要求维度?
《人工智能法规》维持了制造商的监控义务,但要求对与其他人工智能系统、设备和软件的互动进行额外监测。用户必须监控操作,并在必要时通知制造商。
欧盟委员会将在2026年2月2日之前通过实施法案,其中包含上市后监测计划的模板。如果能确保同等保护,则可以将其与现有的 MDR/IVDR 监控计划整合在一起。
35。是否应将仅在医疗机构内制造和使用的 “内部” 人工智能医疗设备归类为高风险的人工智能系统?
归类为高风险人工智能系统的一个条件是,人工智能医疗器械必须接受公告机构的合规性评估。因此,欧盟医疗机构内部开发并仅在这些机构内使用的医疗器械不受外部监测。
因此,此类人工智能医疗设备不被归类为高风险的人工智能系统。但是,还有其他AI-VO义务,包括禁止某些做法。
36。 医疗保健专业人员的培训应该是什么样子?
MDR/IVDR 和 AI 法规要求制造商在适当时为人工智能医疗设备的用户提供培训,以确保正确使用和降低风险。KI法规要求为用户提供透明度和信息,以便他们能够了解系统并做出适当的决定。
如果确定了人体监测要求,则有关人员必须能够理解并充分监控人工智能医疗设备的功能和局限性。制造商应建议进行培训,让他们充分了解系统的可解释性。KI-VO还要求制造商和用户确保其人员具有足够的基本人工智能知识。
来源: https://health.ec.eu ropa.eu/ document/download/b78a17d7-e3cd-4943-851d-e02a2f22bbb4_en?文件名 e=mdcg_2025-6_en.pdf(链接的复制空间)
欧洲对人工智能医疗设备的监管要求很复杂,要求制造商对患者保护、安全和道德承担高度的责任。许多未解答的问题仍然存在,例如学习系统的透明度、可解释性和监测的实际实施,这需要深入的科学讨论。来自没有可比标准的国家的产品进行破坏会威胁到高水平的保护,需要持续的市场监督和国际协调。MEDIACC 致力于提供科学上卓越的、具有道德责任感的解决方案,并支持制造商实施这些严格的要求。
你想找一个称职的合作伙伴为你的AI医疗设备提供证据吗? 联系我们 请随时联系我们进行初步咨询!
展示您的产品的医疗益处
凭借我们多年的经验和专业知识,我们提供有效的解决方案,以展示您的产品的医疗益处。
从临床前和临床研究的构思到实施,我们为您提供量身定制的服务。
了解 MEDIACC 如何帮助您获得产品退款。