客座专栏美国麻醉师学会, KevinMD独家提供。
十年来在质量和患者安全方面的工作给了我一个痛苦的教训:不要对一线医护人员说“质量”或“患者安全”。通常情况下,他们会立即变得自我防卫或逃避。q ^l&ty和s^f*ty是如何变成四个字母的单词的?关键在于理解医学所采用的安全模式。
1978年,英国统计学家George Box写道:“所有的模型都是错误的,但有些是有用的。”在处理复杂问题时,我们依靠心智模型来简化复杂性。这些模型利用了通常不会显著降低其性能的假设和简化。有时,模型的缺点会成为需要解决的问题。
我的大学化学教授教我要考虑模型的不准确性。我之前研究过波尔原子模型,每个原子核都被电子轨道包围。只要找到填满轨道的适当元素平衡,就能解出原子方程。化学能有多难?当我的化学教授在黑板上写下一个简单的化学方程时,我的天真暴露了出来。尽管我尽了最大的努力,我还是无法配平这个等式。教授解释说玻尔模型永远不会得到解。这是一个不完善的模式。然后他介绍了量子电子云模型。
医疗保健行业正在挣扎于自己版本的波尔模型——坏苹果理论。正如Sidney Dekker在理解“人为错误”的现场指南,坏苹果理论假设:1)复杂系统基本上是安全的;2)这些系统需要受到保护,不受不可靠的人的影响。根据坏苹果理论,系统的主要故障点是人为错误。支持者认为,医疗保健系统是由政策有效定义的,如果人们不再脱轨,患者安全事件就可以避免。
根据坏苹果理论,系统故障可以通过识别人为偏差来解释。潜在的动机和环境可以粗略地探究,但最终的原因是个人没有遵守政策、协议或指导方针。即使没有合理的因果关系,这种情况也会发生。当关注人类偏离预期行为时,解决方案倾向于工人教育、培训、认证、两人验证或更多的规则和政策。听起来是不是很熟悉?2018年的一项研究确定,培训、教育和政策制定或修订是最常见的根本原因分析干预措施.毫不奇怪,所有这些干预都被认为是“较弱的行动”国家患者安全基金会(NPSF) RCA2分级.
许多其他迹象表明,医疗保健系统是建立在“坏苹果理论”的基础上的。安全调查最常见的根本原因是“人为错误”吗?安全报告系统的名称是否已被用作动词,表示“报告麻烦的同事”?前线员工在进行安全调查时是否会感到紧张和抵触?在一个人为偏差是罪魁祸首的文化中,人为纠正就成为了主要干预手段。
安全专家开发了一种更先进的安全模型。1947年,陆军心理学家保罗·菲茨(Paul Fitts)和理查德·琼斯(Richard Jones)回顾了数百起归咎于“人为错误”的航空事故。他们的报告发现,大多数“试点错误”应该归咎于更深层次的系统性问题。例如,“飞行堡垒”B-17轰炸机的襟翼和起落架使用了相同风格的开关,它们彼此相邻。在关键的着陆过程中,飞行员会不小心收回起落架,而不是襟翼。多年来,这一直被归咎于“飞行员的失误”,但在驾驶舱设计被修改后,这些事故几乎都消失了。
菲茨的报告提出了后来被称为“人为因素理论”的观点:“通过按照人的要求设计设备,应该可以消除很大一部分所谓的‘飞行员-错误’事故。”人为因素理论寻求识别和修复导致“人为错误”的潜在动态。西德尼·德克尔解释说:“我不再把调查看成是寻找人们哪里出了问题。相反,我试图理解为什么他们的评估和行动在当时对他们来说是有意义的。”
在人为因素理论下,失败不能通过证明人为偏离预期行为来令人满意地解释。取而代之的是,对环境和潜在压力进行了细致的探索,发现了系统性的缺陷。干预倾向于设计改进、工程控制或过程简化和标准化。可以调整人员和工作量的平衡,或者可以追求软件的增强。在NPSF RCA2分级中,这些干预措施被认为是“中间”和“较强的行动”。
与坏苹果理论相反,人的因素理论假设1)复杂系统从根本上是不安全的,2)人们在协商多个系统目标时创造安全。换句话说,复杂的系统充满了漏洞、竞争性的需求和潜在的故障点。他们不断发展。尽管试图对操作进行编码,但漏洞将不可避免地对齐,灾难性的故障将迫在眉睫。在这种情况下,人们感知和适应环境的能力是安全的主要来源。在复杂系统中,偏离预期行为的能力最近被认为是安全的主要来源——一种被称为“安全- ii”的范式。”
在一个系统漏洞是主要罪魁祸首的文化中,系统修正成为主要干预措施,而不是人为修正。当系统不可避免地面临失败的威胁时,人就充当了最后的安全网。想象一下,在一个视员工为解决方案而非问题的医疗保健系统中工作。也许我们可以重新使用“质量”和“患者安全”。
免责声明:本文仅代表作者个人观点,并不代表美国国防部或美国政府的官方政策。非美国的出现。政府网站链接不构成国防部(DoD)对网站或其中包含的信息、产品或服务的认可。这些网站的提供符合本刊物的宗旨。
r·克里斯托弗·科尔,迈克尔·奥康纳和基思·拉斯金是麻醉师。
图片来源:Shutterstock.com