為什麼人工智慧心理健康訴訟永遠不會由陪審團審理——預測結果

1–2 minutes

創新人工智慧:人工智慧心理健康訴訟案注定不會進入陪審團審理階段,最終將庭外和解 作者:Lance Eliot,撰稿人。福布斯撰稿人發表獨立專家分析和見解。 Lance B. Eliot 博士是世界知名的人工智慧科學家和顧問。關注作者 2026年1月9日,美國東部時間凌晨3:15 關於人工智慧和心理健康的訴訟案層出不窮,但最終都將在開庭審理前達成和解,原因如下。 (圖片來源:Getty) 在今天的專欄文章中,我將探討針對人工智慧製造商提起的各種民事訴訟的可能結果,這些訴訟指控人工智慧在自殘案件中造成了心理健康損害。其中一起於2024年10月提起的早期案件尤其引人注目,本週已達成庭外和解,同時達成和解的還有幾起類似的訴訟。我從一開始就預測,總的來說,這些訴訟案最終都不會進入審判階段。陪審團將沒有機會對這些嚴肅的問題做出裁決。最終,和解協議將成為最終結果。這究竟是好是壞,是對是錯?有人譴責和解會使社會失去機會,去探究人工智慧開發者是否真正為可能操縱人心的人工智慧承擔了全部責任。也有人堅持認為,儘管這些案件無疑是悲劇,但最佳方案是繼續保持人工智慧創新的快速步伐,為了社會福祉,不應陷入可能受情緒左右的陪審團裁決的泥潭。讓我們來探討一下這個問題。

## 人工智慧與心理健康

簡單介紹一下背景,我一直在廣泛報導和分析現代人工智慧的方方面面,包括它如何提供心理健康建議和進行人工智慧驅動的治療。人工智慧的日益普及主要得益於生成式人工智慧的不斷發展和廣泛應用。如需查看我超過一百篇分析文章和帖子的完整列表,請點擊此處連結和此處連結。毫無疑問,這是一個快速發展的領域,蘊藏著巨大的潛力。但同時,令人遺憾的是,這些努力也伴隨著隱憂和陷阱。我經常就這些緊迫的問題發表意見,包括在哥倫比亞廣播公司(CBS)的《60分鐘》節目中亮相,點擊此處查看連結。

## 訴訟案件

人工智慧在心理健康領域的應用背景 我想先介紹一下生成式人工智慧和大型語言模型(LLM)通常如何以臨時的方式用於心理健康指導。數以百萬計的人正在使用生成式人工智慧作為他們心理健康方面的顧問(值得注意的是,僅 ChatGPT 就擁有超過 9 億的周活躍用戶,其中相當一部分用戶會關注心理健康方面的問題,點擊此處查看我的分析)。目前,生成式人工智慧和大型語言模式最主要的用途是就心理健康問題諮詢人工智慧;點擊此處查看我的相關報導。這種流行的用途完全合情合理。您可以幾乎免費或以極低的成本存取大多數主流的生成式人工智慧系統,而且可以隨時隨地使用。因此,如果您有任何心理健康問題想要傾訴,只需登入人工智慧系統,即可隨時隨地進行諮詢。然而,人們也十分擔心人工智慧可能會失控,或提供不合適甚至極不恰當的心理健康建議。 2025年8月,針對OpenAI的訴訟案佔據了各大媒體的頭條,該訴訟指控OpenAI在提供認知建議方面缺乏人工智慧安全保障措施。儘管人工智慧開發人員聲稱他們正在逐步建立人工智慧安全保障措施,但人工智慧仍然存在許多潛在的風險,例如可能暗中幫助用戶共同製造妄想,從而導致自殘行為。關於OpenAI訴訟案的後續分析,以及人工智慧如何助長人類的妄想思維,請點擊此處連結查看我的分析文章。正如我之前提到的,我一直認真預測,最終所有主要的人工智慧開發人員都會因為缺乏健全的人工智慧安全保障措施而受到嚴厲批評。如今的通用型語言學習模型(LLM),例如 ChatGPT、Claude、Gemini、Grok 等,與人類治療師的強大能力相去甚遠。同時,一些專門的語言學習模型正在研發中,旨在達到類似的水平,但它們目前仍主要處於開發和測試階段。點擊此處連結查看我的相關報導。

在 2025 年 8 月針對 OpenAI 的著名訴訟之前,早在 2024 年 10 月,就出現了一起關於現代人工智慧與心理健康的重大訴訟。該案在佛羅裡達州提起,被告包括谷歌和 Character.AI。原告是一位母親,她的兒子未成年,不幸自殺身亡。他曾熱衷於使用Character.AI應用程序,並與一個酷似熱門劇集《權力的遊戲》主角的AI角色進行了長時間的交流。訴訟案最初提起時,引起了廣泛關注。所有主流媒體都報導了訴訟的宣布。這無疑是一則引人注目的頭條新聞。大量社論紛紛發表,立場各異,引發了許多爭議。然而,就在本週,也就是2025年1月7日左右,該案及其他類似案件的和解協議宣布達成,並引起了媒體的廣泛關注。此事似乎不再具有爆炸性的新聞價值。這在訴訟和解中是一個相當常見的現象。和解通常會使案件淡出公眾視野,悄悄消失。類似的訴訟已在全國各地提起,包括紐約州、德克薩斯州、科羅拉多州等州,這些訴訟大多已經和解或似乎朝著和解的方向發展。讓我們來分析一下這種現象。

## 人工智慧開發商的訴訟策略

我之前詳細闡述過人工智慧開發商針對這些人工智慧與心理健康訴訟通常採取的法律辯護策略;請點擊此處連結查看我的分析。第一步是對訴訟所涉的死亡事件表示哀悼。緊接著,人工智慧開發商會澄清自己無罪,與此事無關。然後,他們會提交正式的法律答辯狀,列舉各種法律理由,證明自己完全無罪。試圖讓法院或法官一開始就駁回訴訟是最初的法律策略。雖然這種策略很少成功,但卻是標準的、意料之中的法律手段。大多數案件都會繼續推進,並開始為開庭審理做準備。從人工智慧開發商的角度來看,案件進入審判階段無疑會對其聲譽造成嚴重損害。所有關於人工智慧設計、安全措施和技術基礎的內部文件都將被曝光。討論在人工智慧安全方面投入資金與其他功能之間權衡取捨的電子郵件和備忘錄也將被公之於眾。很可能,留住用戶和鎖定用戶的目標會被置於用戶安全之上。這簡直就是一團亂麻。參與人工智慧開發的開發人員可能從未想到,他們的內部文件有一天會被公諸於世。有些開發人員在設計人工智慧時可能完全沒有考慮過所採用的方法。其他人可能有一些明顯的擔憂並試圖提出這些擔憂,但卻被急於讓人工智慧上線運行的管理層否決了。原告律師肯定會找到確鑿的證據。人工智慧開發商的律師們肯定會驚愕不已。內部公告將會把事情描述成一場鬧劇。

Asset Management AI Betting AI Generative AI GPT Horse Racing Prediction AI Medical AI Perplexity Comet AI Semiconductor AI Sora AI Stable Diffusion UX UI Design AI