降低AI和基于机器学习的医疗技术的风险
人工智能和机器学习(AI / ML)日益改变着医疗行业。从发现恶性肿瘤到读取CT扫描和乳房X线照片,基于AI / ML的技术比传统设备-甚至是最好的医生,都更快,更准确。但是,随之而来的是新的风险和监管挑战。
在他们的最新文章在医药监管锁定算法最近发表在科学,鲍里斯·巴比奇,决策科学INSEAD助理教授;INSEAD决策科学与技术管理教授Theodoros Evgeniou;哈佛大学法学院Petrie-Flom卫生法政策,生物技术和生物伦理学研究中心的研究员Sara Gerke;哈佛大学法学院教授兼Petrie-Flom中心教务主任I. Glenn Cohen着眼于监管机构应对AI / ML陌生途径的新挑战。
他们考虑以下问题:在开发和实施AI / ML设备时,我们面临哪些新风险?应该如何管理它们?监管机构需要关注哪些因素才能确保以最小的风险实现最大价值?
到目前为止,美国食品药品监督管理局(FDA)等监管机构已批准具有“锁定算法”的基于医学AI / ML的软件-即每次提供相同结果且不会随使用而改变的算法。但是,大多数AI / ML技术的主要优势和潜在优势来自其随着模型对新数据的学习而发展的能力。由于AI / ML而使这些“自适应算法”成为可能,从而创建了本质上是学习型医疗保健系统的系统,其中研究与实践之间的界限是多孔的。
鉴于这种自适应系统的巨大价值,当今的监管者面临的一个基本问题是,授权是否应仅限于已提交并评估为安全有效的技术版本,或者它们是否允许营销价值更高的算法可以从该技术的学习能力和适应新条件中找到。
作者深入研究了与此更新问题相关的风险,并考虑了需要重点关注的特定领域以及解决挑战的方式。
他们说,强有力的监管的关键是要优先进行持续的风险监测。
这组作者说:“为了管理风险,监管者应该特别关注持续监控和风险评估,而不是计划将来的算法变更。”
随着监管机构的向前发展,作者建议他们开发新的流程,以持续监控,识别和管理相关风险。他们建议了可能有助于此目的的关键元素,并且将来可能会使用AI / ML将它们自动进行自动化-可能会使AI / ML系统互相监视。
尽管本文主要借鉴了FDA在监管生物医学技术方面的经验,但这些教训和实例具有广泛的相关性,因为其他国家正在考虑如何塑造其相关的监管体系。对于任何开发AI / ML嵌入式产品和服务的业务,从汽车到保险,金融,能源,以及越来越多的其他业务,它们也都非常重要且相关。所有组织的管理人员都需要从当今的监管者的角度了解如何管理新的AI / ML风险。
这组作者警告说:“我们的目标是强调医疗AI / ML系统如何做出反应或适应环境的意外变化可能带来的风险,”微妙的,通常无法识别的参数更新或新型数据可能会导致大而代价高昂的错误。”