牛津大学生物伦理学家 Brian Earp 和他的同事希望在获得资金后立即开始开发该工具,这可能在未来几个月内实现。但实际推出该工具将非常困难。批评者质疑使用个人数据来训练这种工具在伦理上是否合理,以及生死攸关的决定是否应该留给人工智能。
生存还是毁灭
约有 34% 的患者因各种原因无法自行做出医疗决定。例如,他们可能失去意识或无法理性思考或交流。老年人的比例甚至更高——一项针对 60 岁以上美国人的研究发现,70% 的人无法自行做出重要的医疗决定。“要做的决定不只是很多,”卡罗琳医生说。“有很多非常重要的决定,基本上决定了一个人在不久的将来是生是死。”
对心力衰竭患者进行胸外按压可能会延长生命,但这种治疗有导致胸骨和肋骨骨折的风险,而且即使患者最终苏醒过来(如果他或她真的醒过来的话),他们的脑部可能已经严重受损。让心脏和肺部继续依靠机器运作可能会让其他器官获得含氧血液,但并不能保证康复。与此同时,患者可能容易受到各种感染。身患绝症的人可能愿意继续尝试医院提供的药物和治疗,希望再活几周或几个月,但其他人可能会放弃这些干预措施,宁愿在自己舒适的家中度过余生。
在美国,只有大约三分之一的成年人会填写预先护理指示 ( ) — 一份法律文件,其中指定了他们希望接受的临终护理类型。据估计,90% 以上的临终决定最终都是由患者以外的人做出的。代理人的作用是根据患者对他们希望如何接受治疗的看法来做出这一决定,但人们通常不太擅长做出这类预测。研究表明,代理人准确预测患者临终决定的准确率约为 68%。
此外,这些决定本身也可能非常痛苦。虽然一些代孕妈妈因为支持了亲人而感到满足,但其他人却在情感上承受着巨大的负担,并可能在几个月甚至几年后感到内疚。有些人担心他们过早地结束了亲人的生命,而另一些人担心他们不必要地延长了亲人的痛苦。“对很多人来说,这真的很糟糕,”他说。“人们会把它描述成他们经历过的最糟糕的事情之一。”
一直在研究一种帮助代理人做出决策的方法。十多年前,他设想了一种工具,可以根据年龄、性别和保险状况等特征预测患者的偏好,这种工具基于对普通人群调查反复训练的计算机算法。这听起来可能很粗鲁,但这些特征似乎确实会影响人们对医疗保健的态度。例如,青少年比 90 岁老人更有可能选择激进的治疗。研究表明,基于平均值的预测比家庭成员的猜测更准确。
2007 年,他和同事基于少量数据开发了该工具的初级版本。他说,该简化工具在预测人们希望接受何种护理方面“至少与近亲代理一样好”。
现在,Earp 和同事们正在研究一个新想法。新工具计划构建一个个性化工具,而不是基于粗糙的功能。研究团队建议使用人工智能和机器学习技术,根据个人数据(如病史、电子邮件、个人信息、网页浏览历史、社交媒体帖子甚至点赞)预测患者的治疗偏好。结果将是一个人的“数字心理双胞胎”——医生和家人可以参考该工具来指导患者的医疗护理。目前尚不清楚这在实际应用中会是什么样子,但研究团队希望在进一步完善之前构建和测试该工具。
研究人员将他们的工具称为“患者个性化偏好预测器”(P4)。Earp 表示,理论上,如果该工具能够发挥预期作用,那么它可能比该工具的早期版本更准确,甚至比人类代理更准确。Earp 表示,它还可以比十年前签署的预先医疗同意书更好地反映患者当前的想法。
有更好的选择吗?
德克萨斯州贝勒医学院的医学伦理学家巴比表示,像 P4 这样的工具还可以帮助减轻代孕妈妈在为家人做出生死攸关的重大决定时所承受的情感负担,这种负担有时会导致人们出现创伤后应激障碍的症状。
指出,一些代理人可能会经历“决策瘫痪”,并选择使用该工具来协助他们做出决策。在这种情况下,P4 可以帮助减轻代理人可能遇到的一些负担,而无需给出非黑即白的答案。例如,它可能会建议患者“很可能”或“不太可能”对治疗抱有特定的态度,或者给出百分比分数来表明答案正确的可能性。
我认为像 P4 这样的工具在类似情况下会很有帮助——当家庭成员对某人的医疗保健有不同的意见时,可以为他们提供这个工具,理想情况下可以帮助他们达成共识。
该工具还可以帮助没有代理人的患者做出护理决定。卡罗琳·米勒是休斯顿本陶布医院的内科医生,这是一家“安全网”医院,无论患者是否有医疗保险,都会为他们提供治疗。“我们的许多患者都是无证件、被监禁或无家可归的,”她说。“我们照顾的病人基本上无法在其他地方得到治疗。”
当这些患者被问诊时,他们往往已处于疾病晚期,处境极其艰难。许多患者无法亲自参与讨论治疗方案,有些患者也没有家人可以代表他们发言。她说,她可以想象在这种情况下使用像 P4 这样的工具来帮助医生更多地了解患者可能的愿望。在这些情况下,可能很难掌握患者的社交媒体资料,但其他信息可能会有用。“如果某些因素可以作为预测因素,我希望将它们纳入模型,”她说。“如果人们的头发颜色、就读的学校或姓氏的首字母可以预测他们的愿望,那么我希望将这些因素纳入模型。”
这种方法得到了 Earp 及其同事的初步研究的支持,他们已经开始调查个人,以了解他们对使用 P4 的感受。这项研究仍在进行中,但早期反馈表明,如果没有人类代理决策者,人们愿意尝试该模型。Earp 说他也有同感。他还提到,如果 P4 和代理决策者给出不同的预测,“我可能倾向于相信了解我的人,而不是模型。”
不是人类
Earp 的感受反映了许多人共有的直觉:这些重大决定最好由人类来做。瑞士洛桑联邦理工学院的研究员 Georg 说:“问题是:我们希望如何做出临终决定,由谁来做?”他担心技术方法可能会将一个私密、复杂且个人的决定变成“工程问题”。
当罗切斯特大学伦理学家 Moore 听说 P4 时,她的第一反应是“哦,不。” Moore 是一名临床伦理学家,为两家医院的患者、家属和医院工作人员提供咨询。“我们工作的很大一部分是为那些面临艰难决定的人提供帮助……他们没有好的选择,”她说。“代理决策者真正需要的是一个能倾听他们的故事并通过积极倾听和支持来确认他们的角色的人……说实话,我真的不知道是否真的需要这样做。”
摩尔同意,代理决策者在决定如何照顾亲人时并不总是做出正确的选择。即使我们可以直接询问对方,他们的答案也可能随着时间而改变。摩尔称之为“过去的自我与现在的自我”问题。
摩尔并不认为像 P4 这样的工具一定能解决这个问题。即使一个人的愿望在过去的笔记、信息或社交媒体帖子中已经明确表达,但面对实际的医疗状况时,很难确切地知道他的感受。他回忆起治疗过一位患有骨质疏松症的 80 岁老人,他坚持说,如果他的心脏停止跳动,他希望进行胸部按压。但当那一刻到来时,他的骨头太薄太脆弱,无法承受按压。他记得听到他的骨头像牙签一样折断,胸骨从肋骨上脱落。“然后你想知道,我们在做什么?我们在帮助谁?真的有人想要这个吗?”他说。
还有其他担忧。首先,接受社交媒体帖子训练的人工智能可能不会成为真正的心理双胞胎。“任何使用社交媒体的人都知道,我们发布的内容往往并不真正代表我们的信仰、价值观或愿望,”Barby 说。即便如此,我们很难知道这些帖子如何反映我们对临终关怀的感受——我们中的许多人发现与家人讨论这些问题已经很困难了,更不用说在公共平台上了。
目前,人工智能并不总是能很好地回答人类的问题。即使对人工智能模型的提示进行轻微的改变,也会得到完全不同的回答。“想象一下,这种情况发生在一个大型、精细调整的语言模型上,而这个模型应该告诉你病人在生命结束时的愿望,”他说。“这很可怕。”
另一方面,人也会犯错。贝勒医学院生物伦理学家卡罗琳·米勒认为,只要经过严格测试,P4 就是个好主意。“我们不应该对这些技术有比我们自己更高的标准,”她说。
Earp 和其他人承认,他们面临着巨大的挑战。他们希望开发一种工具,既能捕捉到反映个人意愿的有用信息,又不会侵犯个人隐私。这是一个有用的指南,患者和代理决策者可以选择使用,但它不应该成为决定患者护理的默认方式。
即使他们成功了,他们也可能无法控制这些工具最终如何使用。例如,对于有儿科病史的患者,如果使用 P4,其预测可能只会进一步破坏已经紧张的家庭关系。Barby 指出,如果 P4 被认为是最接近患者意愿的预测,患者的医生可能会觉得有法律义务遵循 P4 的结果,而不是家庭成员的意见。“这可能会让家庭成员感到非常困惑和痛苦,”她说。
“我最担心的是谁控制着它,”安德鲁斯博士说。他担心医院可能会滥用 P4 之类的工具来避免执行昂贵的程序。“可能会有各种各样的经济诱因,”他说。
《麻省理工技术评论》采访的每个人都同意,使用 P4 这样的工具应该是自愿的,并不是每个人都适合。“我认为它有可能对一些人有所帮助,”厄普说。“但很多人不会希望人工智能系统以任何方式参与他们的决策,因为风险太高了。”
原文链接:


