为什么医疗保健领域的人工智能应用不应以牺牲低收入患者的利益为代价

1–2 minutes

想象一下,走进医生办公室,迎接你的是一位使用人工智能诊断你病情的医疗助理。听起来像是未来世界的梦想,对吧?但在南加州,这对于许多低收入患者来说却是残酷的现实。一家名为Akido Labs的私营公司正在运营一些诊所,在这些诊所里,患者由医疗助理接诊,这些助理使用人工智能聆听他们的对话,然后给出可能的诊断和治疗方案,最终由医生审核。他们的目标是“让医生退出诊疗过程”。但这注定会酿成灾难。

## 人工智能在医疗保健领域的风险

人工智能在医疗保健领域的应用趋势正在加速发展,三分之二的医生都在使用人工智能辅助日常工作,包括诊断患者。但这一趋势对低收入人群的影响更为深远,他们本就面临着就医的重重障碍,并且在医疗机构中更容易遭受不公正待遇。无家可归且收入微薄的人群不应该成为人工智能在医疗保健领域应用的试验场。相反,他们的意见和优先事项应该决定人工智能是否、如何以及何时应用于他们的医疗保健。

## 人工智能偏见的阴暗面

研究表明,人工智能工具会产生不准确的诊断。2021 年发表在《自然医学》上的一项研究发现,基于大型胸部 X 光数据集训练的人工智能算法系统性地低估了黑人和拉丁裔患者、女性患者以及持有医疗补助保险(Medicaid)的患者的病情。另一项发表于 2024 年的研究发现,人工智能会误诊黑人患者的乳腺癌筛查结果。这种系统性偏见可能会加剧本已面临就医障碍的患者所面临的健康不平等。

## 不知情的患者

有些患者甚至不知道他们的医疗服务提供者或医疗保健系统正在使用人工智能。一位医疗助理告诉《麻省理工科技评论》,他的患者知道人工智能系统正在监听,但他不会告诉他们该系统会给出诊断建议。这让人回想起剥削性的医疗种族主义时代,当时黑人在未经知情同意的情况下,往往违背自身意愿,被当作实验对象。

## 人工智能在医疗保健领域的深远影响

致力于保护经济弱势群体免受人工智能危害的倡导组织 TechTonic Justice 发布了一份报告,估计有 9200 万低收入美国人的生活某些基本方面由人工智能决定。目前,联邦法院正在审理一起真实的案例:联邦医疗保险优势计划 (Medicare Advantage) 的客户正在起诉联合健康保险公司 (UnitedHealthcare) 和哈门那保险公司 (Humana),指控其因人工智能系统错误而拒绝提供保险。如果你有经济能力,就能获得优质的医疗保健服务。但如果你无家可归或收入微薄,人工智能可能会让你完全失去获得医疗保健的机会。这就是医疗领域的阶级歧视。我们不应该为了推广人工智能而拿无家可归或低收入的患者做实验。已记录在案的危害远远大于初创公司和其他科技企业所承诺的潜在但未经证实的益处。

鉴于无家可归和低收入人群面临的重重困境,至关重要的是,他们能够获得以患者为中心的医疗服务,由一位倾听他们健康需求和优先事项的医护人员提供服务。我们不能建立一种以人工智能(由私营公司运营)为主导、而将医护人员置于次要地位的医疗体系。未经社区自身严格评估就“倾听”并开发的人工智能系统,剥夺了患者的决策权,使他们无法决定在医疗保健中应用哪些技术(包括人工智能),从而削弱了患者的自主权。

Asset Management AI Betting AI Generative AI GPT Horse Racing Prediction AI Medical AI Perplexity Comet AI Semiconductor AI Sora AI Stable Diffusion UX UI Design AI