想像一下,走進醫生辦公室,迎接你的是一位使用人工智慧診斷你病情的醫療助理。聽起來像是未來世界的夢想,對吧?但在南加州,這對許多低收入患者來說卻是殘酷的現實。一家名為Akido Labs的私人公司正在經營一些診所,在這些診所裡,患者由醫療助理接診,這些助理使用人工智慧聆聽他們的對話,然後給出可能的診斷和治療方案,最終由醫生審核。他們的目標是「讓醫生退出診療過程」。但這注定會釀成災難。
## 人工智慧在醫療保健領域的風險
人工智慧在醫療保健領域的應用趨勢正在加速發展,三分之二的醫生都在使用人工智慧輔助日常工作,包括診斷患者。但這一趨勢對低收入者的影響更為深遠,他們本就面臨著就醫的重重障礙,並且在醫療機構中更容易遭受不公正待遇。無家可歸且收入微薄的人不應該成為人工智慧在醫療保健領域應用的試驗場。相反,他們的意見和優先事項應該決定人工智慧是否、如何以及何時應用於他們的醫療保健。
## 人工智慧偏見的陰暗面
研究表明,人工智慧工具會產生不準確的診斷。 2021 年發表在《自然醫學》上的一項研究發現,基於大型胸部 X 光資料集訓練的人工智慧演算法系統性地低估了黑人和拉丁裔患者、女性患者以及持有醫療補助保險(Medicaid)的患者的病情。另一項發表於 2024 年的研究發現,人工智慧會誤診黑人患者的乳癌篩檢結果。這種系統性偏見可能會加劇本已面臨就醫障礙的病人所面臨的健康不平等。
## 不知情的患者
有些患者甚至不知道他們的醫療服務提供者或醫療保健系統正在使用人工智慧。一位醫療助理告訴《麻省理工科技評論》,他的病人知道人工智慧系統正在監聽,但他不會告訴他們該系統會給予診斷建議。這讓人回想起剝削性的醫療種族主義時代,當時黑人在未經知情同意的情況下,往往違背自身意願,被當作實驗對象。
## 人工智慧在醫療保健領域的深遠影響
致力於保護經濟弱勢群體免受人工智慧危害的倡導組織 TechTonic Justice 發布了一份報告,估計有 9,200 萬低收入美國人的生活某些基本面向由人工智慧決定。目前,聯邦法院正在審理一起真實的案例:聯邦醫療保險優勢計劃 (Medicare Advantage) 的客戶正在起訴聯合健康保險公司 (UnitedHealthcare) 和哈門那保險公司 (Humana),指控其因人工智慧系統錯誤而拒絕提供保險。如果你有經濟能力,就能獲得優質的醫療保健服務。但如果你無家可歸或收入微薄,人工智慧可能會讓你完全失去醫療保健的機會。這就是醫療領域的階級歧視。我們不應該為了推廣人工智慧而拿無家可歸或低收入的病人做實驗。已記錄在案的危害遠大於新創公司和其他科技企業所承諾的潛在但未經證實的益處。
鑑於無家可歸和低收入者面臨的重重困境,至關重要的是,他們能夠獲得以患者為中心的醫療服務,由一位傾聽他們健康需求和優先事項的醫護人員提供服務。我們無法建立以人工智慧(由私人公司經營)為主導、而將醫護人員置於次要地位的醫療體系。未經社區自身嚴格評估就「傾聽」並開發的人工智慧系統,剝奪了患者的決策權,使他們無法決定在醫療保健中應用哪些技術(包括人工智慧),從而削弱了患者的自主權。




