让患者完全信任AI,到底难在哪儿?
编者按:本文来自微信公众号“哈佛商业评论”(ID:hbrchinese),作者 基娅拉·隆戈尼(Chiara Longoni)凯里·莫尔韦奇(Carey K. Morewedge),36氪经授权转载。
我们最近的研究表明,即使医学人工智能的表现优于人类医生,患者也不愿意使用它提供的医疗保健。这是为何?因为患者认为他们的医疗需求是独一无二的,不能通过算法得到充分解决。为了实现医学人工智能允诺的诸多好处和成本节约,医疗提供机构必须找到克服这些疑虑的办法。
医学人工智能的表现可以达到专家级精准程度,并大规模地提供具有成本效益的医疗服务。IBM的Watson诊断心脏病的能力比心脏病专家更强。Chatbot替代护士向英国的国民医疗保健服务体系提供医疗建议。智能手机应用程序现在能够以专家级的精确度检测皮肤癌。
算法完全可以像专科医生一样识别眼疾。有人预言,医学人工智能将普及到90%的医院,并取代医生目前80%的工作。但是要让这一切成真,医疗保健体系必须克服患者对人工智能的不信任。
我们在与纽约大学的同事安德烈亚·博内齐(AndreaBonezzi)共同开展的一系列实验中探究了患者对医学人工智能的接受度。即将发表于《消费者研究杂志》(Journalof Consumer Research)一篇论文中的研究结果表明,从皮肤癌筛查到心脏起搏器植入手术,人们在各种医疗程序中都强烈地表现得勉为其难。
我们发现,当医疗服务由人工智能而非人类医疗服务提供者提供时,患者利用该服务的可能性较低,并且希望为之支付更少的费用。他们也更喜欢让人类医疗提供者来执行服务,哪怕这意味着出现误诊或手术并发症的风险更大。
我们发现,原因不在于患者认为人工智能提供的医疗服务更差,也不在于患者认为人工智能花钱更多、不太方便或信息量更少。相反,对医学人工智能的抵触似乎源自这样一种看法:人工智能不会考虑个人特质和特殊情况。人们都认为自己与众不同,这种想法也包括他们的健康。
别人患了感冒,然而,“我的”感冒是以独特方式困扰着“我”的特有疾病。相比之下,人们认为人工智能提供的医疗服务是刻板的、标准化的——适合治疗普通病人,但却不足以对适用于个人的独特情况负责。
来看看我们开展的一项研究的结果。我们为波士顿大学和纽约大学的200多名商学院学生提供了接受免费评估的机会,该评估会对他们的压力水平进行诊断,并向他们推荐一套帮助应对压力的行动方案。
结果是:当他们被告知将由一名医生给他们诊断时,40%的人报了名,可是当执行诊断的将是一台电脑时,只有26%的人报了名。(在这两种实验条件下,参与者都被告知,此项服务是免费的,而且服务提供者在过往的病例中,正确诊断和建议的比例为82%-85%。)
在另一项研究中,我们对一个在线样本库中的700名美国人进行了调查,以测试在人工智能的表现明显优于人类医疗提供者时,患者是否会选择人工智能医疗提供者。
我们要求研究参与者回顾一下两个医疗保健提供者(称为提供者X和提供者Y)在诊断皮肤癌的准确度、医疗急诊分诊决定的准确度,或者这些提供者过去实施过的心脏起搏器植入手术的并发症率方面的信息。
然后,我们要求参与者按照端点为1(更喜欢提供者X)、4(没有偏好)、7(更喜欢提供者Y)的7分量表等级来表示他们在两个提供者之间的偏好。当参与者在表现有异的两位人类医生之间进行选择时,所有参与者首选的是表现更佳的那位人类医生。
可是当他们在一名人类医生和一个人工智能提供者(比如,算法、聊天机器人或者通过电脑程序远程控制的机械臂)之间选择时,参与者对表现更好的人工智能提供者的偏好明显较弱。换句话说,参与者愿意放弃更好的医疗保健,让人类而非人工智能提供医疗服务。
对医疗人工智能的抵触也表现在愿意为相同的诊断程序支付费用。我们给一个在线样本库中的103名美国人提供了50美元的参考价,让他们参与一项可以由人工智能或人类提供者进行诊断的压力测试;两者的准确率均为89%。
比如,在默认人工智能的情况下,参与者被告知人工智能的诊断费用为50美元。然后,他们要说出他们愿意付多少钱来换成人类提供者的诊断。当默认提供者是人工智能时,参与者愿意支付更多的费用换成人类提供者,而当默认提供者是人类时,参与者为更换成人工智能提供者而愿意支付的费用并没有那么多。
由于强调的是他们情况特殊这种看法的重要性,参与者越认为自己独一无二、与众不同,他们对人工智能提供者的抵触就越明显。我们要求一个在线样本库里的243名美国人指出他们在两个皮肤癌筛查提供者之间的偏好。两个提供者的诊断准确率均为90%。
参与者认为自己与众不同的程度预示了他们对人类的偏爱超过了(同样准确的)人工智能提供者;这对他们在两个人类提供者之间的偏好选择没有影响。
医疗服务提供者可以采取许多措施来克服患者对医疗人工智能的抵触。比如,提供者可以通过采取行动来增加人工智能提供的医疗服务的可感知个性化程度,从而缓解患者对于被当作普通病人或统计数据的担忧。
当我们明确地将某个人工智能提供者描述为有能力根据每位患者的独特特征和病史来调整其是否要进行冠状动脉搭桥手术的建议时,研究参与者报告说,他们遵循人工智能提供者建议的可能性与他们遵循人类医生治疗建议的可能性相同。
为此,对于纯粹基于人工智能的医疗保健服务(比如,聊天机器人诊断、基于算法的预测建模、基于应用程序的治疗、可穿戴设备的反馈),提供者可以强调收集到的有关患者的信息,以生成他们独特的个人资料,包括他们的生活方式、家族史、基因和染色体资料以及他们环境的有关细节。
这样,患者可能会觉得人工智能提供者会将人类提供者(比如,能够访问他们病史的全科医生)要考虑的那些信息考虑进去。这些信息可以用来更好地向患者解释对他们的医疗服务如何会根据他们的独特情况而进行量身定制。
完全基于人工智能的服务业可以包括表明个性化的提示——比如“基于你独特的个人资料”。此外,医疗机构可以做出特别努力来传播消息,即人工智能提供者真的可以提供个人的和个性化的医疗保健服务——比如,通过与媒体分享证据的方式,解释算法如何工作,分享患者对服务的评论。
让医生证实人工智能提供者的建议应该可以使人更容易接受基于人工智能的医疗服务。我们发现,如果一名医生仍然负责最终的判断,人们会很乐意使用医疗人工智能。在我们的论文里讨论的一项研究中,参与者报告说,他们很可能会使用这样一个程序:算法对他们身体的皮肤癌扫描结果进行分析,并向最终做判断的医生提供建议,就像他们愿意接受自始至终都由医生提供的医疗服务一样。
基于人工智能的医疗保健技术正以令人惊叹的速度开发和部署。人工智能辅助的手术可以在手术期间指引外科医生的器械,并利用过去手术的数据来为新的手术技术提供信息。基于人工智能的远程医疗可以向获取医疗保健服务不便的偏远地区提供基本的医疗支持。
虚拟的助理护士可以全天候与患者互动,提供二十四小时监控并解答问题。可是要充分利用这些以及其他面向消费者的医疗人工智能服务的潜力,我们首先需要克服患者对使用算法而非一个人来决定他们医疗服务的疑虑。
相关推荐
让患者完全信任AI,到底难在哪儿?
让Facebook审查东南亚假新闻,难在哪儿
当AI开始“踢脏球”,你还敢信任强化学习吗?
国内46城将投200亿推进垃圾分类,AI公司们的机会在哪儿?
DeepMind新成果:让AI做了200万道数学题,结果堪忧
难摆脱医生资源争夺,互联网医疗仍缺“AI”
AI也有偏见,我们该如何信任它们?
AI 会让谁失业?
AI会让谁失业?
周航:创新到底难不难?
网址: 让患者完全信任AI,到底难在哪儿? http://www.xishuta.com/newsview16326.html
推荐科技快讯
- 1问界商标转让释放信号:赛力斯 94758
- 2人类唯一的出路:变成人工智能 17671
- 3报告:抖音海外版下载量突破1 17182
- 4移动办公如何高效?谷歌研究了 16947
- 5人类唯一的出路: 变成人工智 16771
- 62023年起,银行存取款迎来 9949
- 7网传比亚迪一员工泄露华为机密 7894
- 812306客服回应崩了 12 6314
- 9山东省大数据局副局长禹金涛率 6091
- 10从TikTok在美困境看全球 6049