专家警告:AI致医疗事故责任认定更难

AI资讯1个月前发布 ainav
38 0

10月15日讯 据英国《卫报》报道,多名专家警告称,人工智能技术在医疗领域的快速应用可能引发复杂的法律责任问题。特别是在发生医疗差错时,责任认定可能会变得异常复杂。

医疗人工智能技术近年来迅速发展,研究人员已经开发出多种基于AI的医疗工具,包括用于辅助影像解读的算法和辅助诊断的支持系统等。同时,在医院管理领域,人工智能也得到了广泛应用,从优化床位使用效率到提升供应链管理水平等方面均发挥了重要作用。

尽管如此,专家们对AI在医疗领域的应用既抱有期待,同时也保持警惕。他们指出,虽然这项技术有望带来诸多好处,但目前仍存在一些显著的问题和隐患。首要问题在于现有AI工具的有效性尚未经过充分验证,其次则是当患者出现不良后果时,如何界定责任归属成为一个难以解决的难题。

专家警告:AI致医疗事故责任认定更难

来自匹兹堡大学的德里克·安格斯教授指出:”可以预见的是,未来会出现这样的情形:当人们认为某个问题是由AI系统导致时,就会试图寻找责任方。”作为去年由美国医学会杂志主办的人工智能峰会议报告的第一作者,安格斯参与撰写的这份报告不仅详细分析了AI工具的特点和应用场景,还深入探讨了其在法律层面带来的挑战。

该报告的另一位作者、哈佛法学院的格伦·科恩教授强调,在患者试图证明AI产品存在使用或设计缺陷时会面临诸多困难。一方面,获取AI工具内部运行信息非常困难;另一方面,即使在不良结果发生后,也很难提出具有说服力的替代设计方案或是提供充分证据证明这些后果与AI系统的应用直接相关。

斯坦福大学法学院的米歇尔·梅洛教授同样是该报告的作者之一。她表示,虽然法院有能力解决相关的法律纠纷,但诉讼前的处理过程往往耗时较长且存在较大的不确定性。这种不确定性无疑会增加AI技术在医疗领域的创新和应用成本。

报告还特别指出,目前对AI工具的评估工作也面临着诸多挑战。许多AI产品并未受到美国食品药品监督管理局等监管机构的有效监督。安格斯教授对此表示:”临床医生关注的是如何改善患者的健康结果,但监管机构并不一定要求相关证明。一旦投入使用,这些AI工具在不同的医疗环境、面对不同患者群体以及由操作水平参差不齐的医护人员使用时,可能会出现各种难以预料的问题。那些在审批阶段看似表现良好的工具,在实际应用中可能会产生完全不同的效果。”

据记者了解,报告还强调了评估AI工具面临的多重障碍。由于这类产品通常需要经过临床的实际使用才能进行全面评估,而现有的评估方法既耗费资金又操作复杂。安格斯教授指出:”为了确保医疗AI工具的安全性和有效性,必须加大投入,建立完善的数字基础设施。”他进一步表示:”峰会的讨论结果发现,经过最充分评估的工具往往应用度最低,而普及程度高的工具却很少接受过系统性评估。”

© 版权声明

相关文章