主页(http://www.cnwulian.net):人工智能的现实检验医疗保健的说法是否言过其实
由人工智能(AI)驱动的健康产品正源源不断地进入我们的生活,从虚拟医生应用到可穿戴传感器和药店聊天机器人。
IBM吹嘘说它的人工智能可以“战胜癌症”。另一些人说,读取x射线的计算机系统将使放射科医生过时。
“没有什么,我看到在我三十多年学习医学,可以有效的和变革”作为人工智能,Eric Topol博士说,心脏病和执行副总裁拉霍亚的斯克里普斯研究。人工智能可以帮助医生解释心脏核磁共振成像、CT扫描的头和眼睛的后面的照片,并有可能接管许多平凡的医疗家务,解放医生花更多的时间和病人说话,托波尔说。
就连过去5年批准了40多种人工智能产品的美国食品和药物管理局(fda)也表示,“数字健康的潜力是革命性的。”
然而,许多医疗行业专家担心,基于人工智能的产品将无法达到宣传的效果。许多医生和消费者维权人士担心,以“迅速失败,然后再修复”为信条的科技行业正在把病人置于危险之中,而监管机构在保护消费者安全方面做得不够。
斯坦福大学(Stanford)生物医学伦理中心(Center for Biomedical Ethics)的儿科学教授米尔德里德·赵(Mildred Cho)说,早期的人工智能实验提供了一个谨慎行事的理由。
Cho说,在一家医院开发的系统在另一家医院部署时经常会失败。用于照顾数百万美国人的软件已经显示出对少数族裔的歧视。人工智能系统有时会根据一些因素做出预测,这些因素与疾病的关系要小于所使用的核磁共振成像机的品牌、验血的时间或病人是否有牧师来探望。在一个案例中,人工智能软件错误地得出结论,认为患有肺炎的人如果患有哮喘,就不太可能死亡——这个错误可能会导致医生剥夺哮喘患者所需的额外护理。
克利夫兰诊所(Cleveland Clinic)的心脏病学主席史蒂文·尼森(Steven Nissen)博士说:“这种情况导致严重的健康问题只是时间问题。”
研究公司高德纳(Gartner) 7月的一份报告总结称,仅在第三季度,医疗人工智能就吸引了16亿美元的风险投资,“几乎达到了过高预期的顶峰”。“随着现实经受考验,人们可能会粗略地滑入幻灭的低谷。”
当人工智能产品被引入现实世界时,这种现实核查可能会以令人失望的结果的形式出现。即便是《深度医学:人工智能如何让医疗保健重新成为人类》(Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again)一书的作者托波尔(Topol)也承认,许多人工智能产品不过是空话。“这是一个大杂烩,”他说。
风险投资公司Venrock的合伙人鲍勃·科克博士(Bob Kocher)等专家则直言不讳。“大多数人工智能产品几乎没有证据支持它们,”Kocher说。在人工智能系统被大量患者使用之前,一些风险不会变得明显。“我们将继续发现在医疗数据上使用人工智能的一系列风险和意想不到的后果,”Kocher说。
Topol说,在美国销售的人工智能产品都没有经过随机临床试验的测试,而随机临床试验是最有力的医学证据来源。第一个也是唯一一个人工智能系统的随机试验——发现结肠镜检查与计算机辅助诊断相比发现更多的小息肉——于10月在网上发表。
《欧洲临床研究杂志》(European Journal of Clinical Investigation)今年1月发表的一篇文章称,很少有科技初创公司在同行评审的期刊上发表研究成果,而同行评审的期刊可以让其他科学家审查他们的工作。这种只在新闻稿或促销活动中描述的“秘密研究”,往往夸大了一家公司的成就。
尽管软件开发人员可能会吹嘘他们的人工智能设备的准确性,但专家指出,人工智能模型大多是在电脑上测试的,而不是在医院或其他医疗机构。使用未经验证的软件“可能会让患者不知不觉地变成豚鼠,”斯坦福医疗保健(Stanford Health Care)人工智能临床整合医学信息学主任李荣恩(Ron Li)博士说。
学习识别数据模式的人工智能系统通常被描述为“黑匣子”,因为即使是它们的开发人员也不知道他们是如何得出结论的。威斯康星大学麦迪逊分校(University of Wisconsin-Madison)法律与生物伦理学教授皮拉尔奥索里奥(Pilar Ossorio)表示,考虑到人工智能是如此的新事物——而且它的许多风险未知——这个领域需要仔细的监管。
然而,大多数人工智能设备并不需要FDA的批准。
Kocher说:“我所投资的公司都不受FDA的监管。”
2016年,美国国会通过了一项法案,将许多类型的医疗软件排除在联邦审查之外,其中包括某些健身应用、电子健康记录和帮助医生做出医疗决定的工具。这项法案得到了科技行业的支持。
根据国家医学研究院12月17日发布的一份关于人工智能的报告,目前很少有关于目前使用的32万个医疗应用是否真的能改善健康的研究。
如果快速失败意味着很多人会死,我认为我们不想快速失败。如果有人死亡或严重受伤,没有人会高兴,包括投资者。
西雅图艾伦人工智能研究所(Allen Institute for AI)首席执行官奥伦·埃齐奥尼(Oren Etzioni)说
宾夕法尼亚大学佩雷尔曼医学院(Perelman School of Medicine at the University of Pennsylvania)医学伦理与卫生政策教授伊泽基尔·伊曼纽尔(Ezekiel Emanuel)博士表示:“几乎所有面向患者的(人工智能)产品都没有真正奏效。”
FDA长期以来一直关注对患者构成最大威胁的设备。消费者维权人士也承认,与诊断或治疗疾病的设备相比,一些帮助人们计算日常步数的设备需要较少的检查。
《内科学年鉴》(Annals of Internal Medicine) 2018年的一项研究显示,一些软件开发人员甚至在法律要求的情况下也懒得申请FDA的许可或授权。
行业分析人士表示,人工智能开发人员对进行昂贵而耗时的试验兴趣不大。技术咨询公司博思艾伦咨询公司(Booz Allen Hamilton)的负责人、美国国家科学院报告的合著者约阿希姆·罗斯基(Joachim Roski)说,“这些公司主要关心的不是将自己提交给同行评议的期刊进行严格的评估。”“美国经济不是这样运行的。”
但西雅图艾伦人工智能研究所(Allen Institute for AI)首席执行官奥伦埃齐奥尼(Oren Etzioni)表示,人工智能开发商有确保其医疗产品安全的经济动机。
Etzioni说:“如果快速失败意味着很多人会死去,我认为我们不希望快速失败。”“如果有人死亡或严重受伤,没有人会高兴,包括投资者。”
近年来,FDA因允许销售危险医疗设备而备受指责。国际调查记者联盟(International Consortium of Investigative Journalists)认为,在过去10年里,这些危险医疗设备导致8万人死亡,170万人受伤。
这些设备中有许多是通过一种被称为510(k)途径的有争议的程序获得许可使用的,该程序允许公司在没有临床测试的情况下销售“中等风险”的产品,只要它们被认为与现有设备相似。
2011年,美国国家医学研究院的一个委员会得出结论,认为510(k)程序存在根本性缺陷,FDA应该把它扔掉,重新开始。
相反,FDA正在利用这一过程为人工智能设备开绿灯。