最好的住宿地点是什么?
在涉及医疗器械的临床试验中使用人工智能(AI)有可能优化研究设计和文件、患者招募、数据分析和安全监控等。但是,与此同时,这种技术整合带来了道德、监管、技术和组织方面的挑战,必须仔细考虑。

伦理方面与正义
避免扭曲和机会均等
处理人工智能系统时的一个关键要求是积极避免失真,这可能会给个别群体带来不利影响。人工智能模型非常清楚地反映了其训练数据的不平等性,每个已经在日常生活中使用此类系统的人都知道这一点。特别是在医疗保健领域,这可能导致无法接受的严重后果。分析表明,算法中仍然存在大量患者群体先前已证实的缺点。因此,一个考虑到年龄、性别、出身和其他特征的广泛而平衡的数据库至关重要。因此,定期检查是否存在失真情况,即审计审计,是必要的。
可理解性和解释力
许多人工智能流程的一个主要问题是它们缺乏透明度。医务人员和研究参与者必须能够理解决策所采取的路径,才能建立对技术的信任。解释算法工作原理的方法对此至关重要。宣言必须适应各自的目标群体,必须易于理解,以便作出负责任的决策。
自决和知情同意
参与者必须充分了解是否以及以何种形式使用人工智能。必须确保他们了解人工智能在研究过程中的作用,并能够提供有意识的独立同意。为此,应调整教育,以弥合语言和文化差异。
法律框架和数据保护
欧洲和国家法规
临床试验中人工智能的法律监管以多项叠加的欧洲和国际立法文本为基础,这些文本共同构成了全面的保护框架。其基础是(欧盟)2024/1689号法规,俗称《人工智能法》(AI Act),该法为人工智能应用引入了基于风险的分类系统。这个四阶段模型将人工智能系统分为从不允许到最低风险的类别。
临床试验中的 AI 系统通常被归类为高风险系统,因为他们可以做出直接影响研究参与者的健康和安全的决定。这尤其适用于以下领域的 AI 应用程序:
- 患者招募和选择流程
- 将研究参与者划分为治疗组
- 进行诊断评估
- 监控和检测安全信号
- 合成对照组的生成
- 一般决策支持
(欧盟)2024/1689 号法规要求在使用高风险人工智能系统之前必须严格遵守合规要求。
数据质量和数据管理要求:使用的培训、验证和测试数据集必须具有较高的技术和内容质量。这包括确保数据充分反映目标受众的多样性,并且不包含系统性的扭曲。根据MDCG文件AIB 2025-1/MDCG 2025-6,在医疗应用中使用人工智能系统时,数据必须符合特殊质量标准。
死 (欧盟)第 536/2014 号法规(临床试验法规 — CTR) 是欧洲对人用药品进行研究的主要立法文本。它规定了研究设计、测试对象保护、批准程序和质量控制的要求。临床试验中使用的人工智能系统必须满足所有CTR要求。
死 欧洲药品管理局 (EMA) 已经发布了几项专门的指导方针,以规范在临床试验中使用现代技术。指导方针 EMA/INS/GCP/112288/2023 专门处理临床试验中的计算机辅助系统和电子数据。除其他外,该政策涉及:
- 电子数据系统的可靠性和安全性要求
- 确保学习文件完整性的措施
- 防止意外或未经授权的更改的控制机制
- 系统验证、培训和持续审查要求
- 所有系统流程的可追溯性和记录
此外,EMA有一个 关于在药物生命周期中使用人工智能的反思文件 发布,它为从药物研发的早期阶段到批准及以后的负责任地使用人工智能提供了基本指导。本文强调人工智能系统需要遵守基本的道德原则,并且必须明确定义和记录其应用领域。
死 文件 AIB 2025-1/MDCG 2025-6 欧盟委员会为将人工智能法规应用于医疗器械和医疗软件(包括临床应用中的人工智能系统)提供实用指导。本文件解释了各种欧洲法规(人工智能法规、医疗器械法规、体外诊断法规)如何相互作用,以及哪些具体要求适用于基于人工智能的医疗设备。
(欧盟)2024/1689 号法规并未取代现有法规,但是 补充这个。这意味着临床试验中的人工智能系统必须同时遵守多套法规。
死 法规(欧盟)2016/679(通用数据保护条例 — GDPR) 构成了欧洲个人数据的全面保护框架,即使使用人工智能,也不得违反该框架。
临床研究或试验的设计、规划、实施和评估的所有要求还必须符合所有国际标准和良好的临床实践,特别是 赫尔辛基宣言,根据其基本原则
- 尊重考试对象
- 科学诚实
- 患者安全
- 透明度和可追溯性
已经受到监管,必须予以遵守。
基本的道德原则
监管合规与监督
国际监管机构还就如何在药物试验领域安全和负责任地使用人工智能制定了原则。其中包括对数据质量、可追溯性、持续监控的要求以及在发生错误或事故时分配责任的明确协议。
技术和方法要求
数据质量和可靠性
人工智能模型在研究中的可靠性取决于基础数据的质量。需要精心划分的标准:
- 所用临床数据的测量准确性和及时性
- 确保数据反映整个目标群体和实际护理环境的多样性
- 防止数据收集中的错误和矛盾
适合执业的证据
人工智能模型不仅必须在实验室中证明其可靠性,而且在日常生活的各种条件下也必须证明其可靠性。这需要:
- 验证来自各种医学测试中心或机构的数据
- 在不断变化的数据结构中表现出稳定的性能
- 必要时持续监控和调整模型
应特别注意这样一个事实,即简单的人工智能模型通常更容易解释,但复杂的模型偶尔会达到更高的精度。模型的选择必须始终考虑到临床框架和风险。
融入学生的日常生活和人为控制
监督和决策的形式
负责任地将人工智能引入临床试验始终需要医疗专业人员在自动化和控制之间取得明智的平衡。视风险而定,必须将一人或多人集成到系统中:
- 非常重要的决定应始终由医生审查(“与人交流” 原则)
- 次要支持服务可能需要较少的直接控制,但始终需要干预选项
- 控制水平是灵活的,必须适应研究的特定要求
集成到现有流程中
人工智能应该支持临床研究中的工作流程,使日常工作变得更有效率,但不会增加负担。必须有针对性地解决技术兼容性、缺乏培训或团队阻力等障碍。理想情况下,介绍是分小步进行的,并始终与从业人员密切协调。
教育和培训
有针对性的继续教育至关重要,这样责任人才能充分意识到人工智能的可能性以及局限性和风险。这包括
- 了解各种 AI 应用程序的工作原理
- 培训以识别和防止失真
- 学习如何批判性地处理来自自动化系统的建议
确保安全并记录不良事件
人工智能可以帮助识别大量数据中的异常或与安全相关的模式。这是通过自动化测试程序实现的,例如,自动测试程序从免费文本或文件中提取不利影响的迹象。然而,人们仍然是不可替代的:必须始终检查由人工智能造成的虚假评估或结果不明确,以长期保护患者。
考虑到多样性和参与性
为了使临床研究的结果使尽可能多的人受益,必须注意不同人群的最广泛参与。人工智能可以帮助以更有针对性的方式将以前代表性不足的群体包括在内,并使研究小组的划分更加公平。但是,重要的是,算法本身不要因为进一步增加数据的系统失真而成为新的障碍。只有通过有针对性的审查和外部控制,才能限制此类风险。
实施挑战和前景
在临床试验中引入人工智能系统需要基于伦理原则、技术稳健性、可理解的流程和所有相关方的公平参与的整体方法。必须始终在技术进步和维持人为控制、保护敏感数据和公平对待所有患者群体之间寻求平衡。明确的规则、持续的培训以及透明和负责任地使用新方法是负责任地使用人工智能的好处,造福整个社会的先决条件。
人工智能在患者招募、数据验证和安全监测方面为临床试验提供了相当大的效率潜力,但要负责任地使用人工智能,就需要同时遵守多项复杂的欧洲和国际法规——从长远来看,这项额外努力可以获得更有力、更可信的证据。核心任务不是通过人工智能进行简化,而是通过深思熟虑将其整合为一种专业化工具,可以补充而不是取代人类责任和批判性判断。
(2025 年秋季状态)
来源:(可以向MEDIACC索取)
您是否对作为CRO的MEDIACC在医疗器械的数字临床试验中使用人工智能系统以及如何使用人工智能系统感兴趣?敬请关注或 联系 请随时联系我们进行初步咨询!
展示您的产品的医疗益处
凭借我们多年的经验和专业知识,我们提供有效的解决方案,以展示您的产品的医疗益处。
从临床前和临床研究的构思到实施,我们为您提供量身定制的服务。
了解 MEDIACC 如何帮助您获得产品退款。