为什么人工智能心理健康诉讼永远不会由陪审团审理——预测结果

1–2 minutes

创新人工智能:人工智能心理健康诉讼案注定不会进入陪审团审理阶段,最终将庭外和解 作者:Lance Eliot,撰稿人。福布斯撰稿人发表独立专家分析和见解。Lance B. Eliot 博士是世界知名的人工智能科学家和顾问。关注作者 2026年1月9日,美国东部时间凌晨3:15 关于人工智能和心理健康的诉讼案层出不穷,但最终都将在开庭审理前达成和解,原因如下。(图片来源:Getty) 在今天的专栏文章中,我将探讨针对人工智能制造商提起的各种民事诉讼的可能结果,这些诉讼指控人工智能在自残案件中造成了心理健康损害。其中一起于2024年10月提起的早期案件尤其引人注目,本周已达成庭外和解,同时达成和解的还有几起类似的诉讼。我从一开始就预测,总的来说,这些诉讼案最终都不会进入审判阶段。陪审团将没有机会对这些严肃的问题做出裁决。最终,和解协议将成为最终结果。这究竟是好是坏,是对是错?有人谴责和解会使社会失去机会,去探究人工智能开发者是否真正为可能操纵人心的人工智能承担了全部责任。也有人坚持认为,尽管这些案件无疑是悲剧,但最佳方案是继续保持人工智能创新的快速步伐,为了社会福祉,不应陷入可能受情绪左右的陪审团裁决的泥潭。让我们来探讨一下这个问题。

## 人工智能与心理健康

简单介绍一下背景,我一直在广泛报道和分析现代人工智能的方方面面,包括它如何提供心理健康建议和进行人工智能驱动的治疗。人工智能的日益普及主要得益于生成式人工智能的不断发展和广泛应用。如需查看我超过一百篇分析文章和帖子的完整列表,请点击此处链接和此处链接。毫无疑问,这是一个快速发展的领域,蕴藏着巨大的潜力。但与此同时,令人遗憾的是,这些努力也伴随着隐患和陷阱。我经常就这些紧迫的问题发表意见,包括在哥伦比亚广播公司(CBS)的《60分钟》节目中亮相,点击此处查看链接。

## 诉讼案件

人工智能在心理健康领域的应用背景 我想先介绍一下生成式人工智能和大型语言模型(LLM)通常如何以临时的方式用于心理健康指导。数以百万计的人正在使用生成式人工智能作为他们心理健康方面的顾问(值得注意的是,仅 ChatGPT 就拥有超过 9 亿的周活跃用户,其中相当一部分用户会关注心理健康方面的问题,点击此处查看我的分析)。目前,生成式人工智能和大型语言模型最主要的用途是就心理健康问题咨询人工智能;点击此处查看我的相关报道。这种流行的用途完全合情合理。您可以几乎免费或以极低的成本访问大多数主流的生成式人工智能系统,而且可以随时随地使用。因此,如果您有任何心理健康问题想要倾诉,只需登录人工智能系统,即可随时随地进行咨询。然而,人们也十分担心人工智能可能会失控,或者提供不合适甚至极其不恰当的心理健康建议。2025年8月,针对OpenAI的诉讼案占据了各大媒体的头条,该诉讼指控OpenAI在提供认知建议方面缺乏人工智能安全保障措施。尽管人工智能开发商声称他们正在逐步建立人工智能安全保障措施,但人工智能仍然存在许多潜在的风险,例如可能暗中帮助用户共同制造妄想,从而导致自残行为。关于OpenAI诉讼案的后续分析,以及人工智能如何助长人类的妄想思维,请点击此处链接查看我的分析文章。正如我之前提到的,我一直认真预测,最终所有主要的人工智能开发商都会因为缺乏健全的人工智能安全保障措施而受到严厉批评。如今的通用型语言学习模型(LLM),例如 ChatGPT、Claude、Gemini、Grok 等,与人类治疗师的强大能力相去甚远。与此同时,一些专门的语言学习模型正在研发中,旨在达到类似的水平,但它们目前仍主要处于开发和测试阶段。点击此处链接查看我的相关报道。

在 2025 年 8 月针对 OpenAI 的著名诉讼之前,早在 2024 年 10 月,就出现了一起关于现代人工智能与心理健康的重大诉讼。该案在佛罗里达州提起,被告包括谷歌和 Character.AI。原告是一位母亲,她的儿子未成年,不幸自杀身亡。他曾热衷于使用Character.AI应用程序,并与一个酷似热门剧集《权力的游戏》主角的AI角色进行了长时间的交流。诉讼案最初提起时,引起了广泛关注。所有主流媒体都报道了诉讼的宣布。这无疑是一则引人注目的头条新闻。大量社论纷纷发表,立场各异,引发了诸多争议。然而,就在本周,也就是2025年1月7日左右,该案及其他类似案件的和解协议宣布达成,并引起了媒体的广泛关注。此事似乎已经不再具有爆炸性的新闻价值。这在诉讼和解中是一个相当常见的现象。和解通常会使案件淡出公众视野,悄然消失。类似的诉讼已在全国各地提起,包括纽约州、德克萨斯州、科罗拉多州等州,这些诉讼大多已经和解或似乎正朝着和解的方向发展。让我们来分析一下这种现象。

## 人工智能开发商的诉讼策略

我之前详细阐述过人工智能开发商针对这些人工智能与心理健康诉讼通常采取的法律辩护策略;请点击此处链接查看我的分析。第一步是对诉讼所涉的死亡事件表示哀悼。紧接着,人工智能开发商会澄清自己无罪,与此事无关。然后,他们会提交正式的法律答辩状,列举各种法律理由,证明自己完全无罪。试图让法院或法官一开始就驳回诉讼是最初的法律策略。虽然这种策略很少成功,但却是标准的、意料之中的法律手段。大多数案件都会继续推进,并开始为开庭审理做准备。从人工智能开发商的角度来看,案件进入审判阶段无疑会对其声誉造成严重损害。所有关于人工智能设计、安全措施和技术基础的内部文件都将被曝光。讨论在人工智能安全方面投入资金与其他功能之间权衡取舍的电子邮件和备忘录也将被公之于众。很可能,留住用户和锁定用户的目标会被置于用户安全之上。这简直就是一团乱麻。参与人工智能开发的开发人员可能从未想到,他们的内部文件有一天会被公之于众。一些开发人员在设计人工智能时可能完全没有考虑过所采用的方法。其他人可能有一些明显的担忧并试图提出这些担忧,但却被急于让人工智能上线运行的管理层否决了。原告律师肯定会找到确凿的证据。人工智能开发商的律师们肯定会惊愕不已。内部公告将会把事情描述成一场闹剧。

Asset Management AI Betting AI Generative AI GPT Horse Racing Prediction AI Medical AI Perplexity Comet AI Semiconductor AI Sora AI Stable Diffusion UX UI Design AI