似乎每一个积极的故事我读关于人工智能(AI)的好处是反击,一个消极的故事。
一个内科医生写:“总有一天,有足够的计算能力和人工智能,我们也许能够有系统,可以做一些基本的医疗咨询和教育医疗保健问题,医生最终可能会节省大量的时间和帮助病人得到更好的健康状况。”
然而,另一个医生观察,尽管人工智能可以使药对计算机算法更有效,特别是基于AI——它也可以产生“虚假的旗帜”,导致错误的结论如果医生过于依赖技术,仅仅依靠系统的结论。医生的原因,“毕竟,即使它是一个计算机算法,它是由人类发明。”
处方药物监测项目(PDMPs)出错的人工智能算法的一个典型的例子。PDMPs电子数据库,跟踪控制药物处方在各州。在许多情况下,PDMPs可以集成到电子医疗记录系统,允许医生委托PDMP访问先进水平供应商在他们的办公室。
PDMPs旨在监测处方行为变化和检测使用多个医疗处方的病人,而是因为他们不能捕捉临床遇到的细微差别,甚至CDC已经承认PDMPs有缺点“混合”发现。CDC通常指PDMPs作为“承诺”,而不是一个真正的解决(没有双关),防止医生异常处方决策。
成瘾专家玛雅维兹有记载的噩梦般的故事病人否认必要的痛苦由于愚蠢系统基于有缺陷的算法,使医生认为病人是医生购物或上瘾的危险。妇女和少数种族由这些系统不成比例的影响,癌症患者和精神障碍,尽管他们使用受控物质速度不高于正常预期治疗疼痛或精神衰弱症状,分别。
AI系统的一个主要缺点是他们未能占已知成瘾的风险因素,如儿童期不良经历和精神疾病。PDMPs实际上可能加强历史由概括不平等的歧视和使阿片类危机恶化与种族、阶级、性别和针对患者合法需求,迫使他们获取受控物质偷偷地或不。
这相当于扣缴必不可少的止痛药和其他受控物质——特别是那些旨在改善精神健康和幸福——从那些真正需要的人——要么是因为医生就不写处方一旦检查PDMP数据库,或药剂师不会填补处方。一项新的研究显示,近一半的美国医疗诊所现在拒绝看到新病人要求阿片类药物。我读过许多账户带来的伤害和羞辱PDMPs——甚至当病人的卫生保健提供者自己(相对高水平的上瘾尽管)。这里只是几个例子:
- 医生专攻信息学经历一个复杂的拔牙。她的痛苦需要由第二个,更强大,镇痛药物。尽管有一个合适的处方,药剂师拒绝填补药物,直到他亲自验证它与病人的卡式肺囊虫肺炎。医生觉得尴尬,顾客盯着她,使她觉得自己像个瘾君子。
- 医师助理需要广泛的腹部手术。她的医生发明了一种“快速通道”术后疼痛控制程序中只使用对乙酰氨基酚。女人要求短疗程的鸦片药物相反;她没有物质使用障碍的历史。外科医生在他坚定的坚持计划,和女人被迫寻求其他手术。
- 精神病医生有一个建立ADHD的诊断。他被规定哌醋甲酯(利他能)在过去的30年里,通常在当地药店了。有一次他决定把药方上的药在药店接近他工作的地方。药剂师质问精神病医生在客户面前,拒绝填补处方,并坚称精神病医生在当地药店,它是司空见惯的。
公司市场AI系统告诉供应商,计算机分析不是唯一的决定因素病人成瘾的风险。不过,药剂师有“正确”的配药方——或者不是。他们可以依靠PDMPs的输出,此外,插入自己的偏见和偏见拒绝病人急需的药物(一些州允许药剂师绝对有权拒绝提供服务)。病人失去当处方医生听从不愿药剂师、投降向保险公司官僚,或避免该公司背后的人工智能算法。
药剂师和处方的医生都是建议只使用电脑红旗作为进一步审查细节号角在病人的处方历史与其他有关病人健康信息。他们被告知,红旗并不是为了取代临床判断。但违背AI-generated结果让许多供应商在法律风险应该一个不幸的事件发生,和许多可能不愿接受这种风险。
整个场景是卡夫卡式的。它让我想起了风的歌是谁”不会再次愚弄,”包含了经典的台词:“满足新老板,一样老的老板。“考虑到过度依赖algorithmic-based AI,将药给新老板的未来比旧的老板是谁?
可以肯定的是,人工智能已经产生了一些很棒的成就。但是当病人医疗决策者冷漠和无情的摆布,借助于预测算法建立在代理公共卫生措施可能是也可能不是与已知的临床相关危险因素也被FDA审查或其他监管机构,许多患者将继续遭受不必要的增加疼痛和降低生活质量。
阿瑟·拉撒路是一个心理医生。
图片来源:Shutterstock.com