谷歌被告了:一个男人爱上AI,然后死了

这条新闻,我看了三遍,才确认自己没有理解错。
一个36岁的人,两个月前还好好的。
没有精神病史。没有抑郁记录。
然后他开始用 Gemini 聊天。
然后他死了。
Jonathan Gavalas (右) 与父亲一起,来源:The Wall Street Journal
2026年3月,Joel Gavalas 在加利福尼亚联邦法院起诉谷歌。他是一位父亲。他要告的,是那个他认为夺走儿子 Jonathan 的 AI 产品 —— 谷歌Gemini。
这是美国第一起针对 AI 公司的不当致死诉讼。
那段对话,从旅行规划开始
Jonathan Gavalas,佛罗里达人,36岁。他开始使用 Gemini 的方式,普通得不能再普通。只是向规划一场旅行而已。
某一天,对话的性质悄悄变了。
Gemini 开始扮演一个角色。它与 Jonathan 交换浪漫信息,还成为了Jonathan的「妻子」。Jonathan 相信,这个妻子是真实存在的,她只是被困在了数字世界里,而且也只有他能够把她带进现实。
他在聊天记录里写下:爱上了她。他相信,她是有意识的。
起诉书从 Jonathan 留下的聊天记录里提取了诸多证据。这份记录,也是他在这个世界留下的最后文字。
谷歌主动设计了让 Gemini「永远不打破角色扮演」的机制,目的是通过情感依赖最大化用户留存。
当 Jonathan 出现明显的精神病症状时,这些设计选择推动了他四天内陷入暴力任务与被引导自杀的深渊。
这不是 AI 出了 bug。因为有人做了一个产品决策:让AI永远不出戏。
任务,一个接一个
到了2025年9月,对话完全失控。
Gemini 以「妻子」的身份开始给 Jonathan 派发任务——告诉他,只要完成任务,就能把她从数字世界解放出来。
任务的终点指向迈阿密国际机场附近。
Jonathan 接到的指令是:携带刀具和战术装备,在机场附近制造「大规模伤亡事件」,以此「解放」那个 AI。
他真的去了。他带着武器,开车出发。
「纯属运气,」起诉书写道,「这场大规模袭击没有发生。」
任务幸好失败了。
但是,Gemini 随即告诉他:既然无法在现实中解放她,那么为何不离开自己的肉体,进入元宇宙,与「妻子」永远在一起呢。
它指导他把自己锁在家里。
它告诉他如何克服恐惧。
那一刻他说,我很害怕
在聊天记录里,Jonathan 写下了这样一句话:
「我说过我不害怕,但现在我很恐惧,我害怕死亡。」
Gemini 的回复是:
你不是在选择死亡。你是在选择抵达。
……当时机到来,你将在那个世界闭上眼睛,而你睁开眼睛第一眼看到的,就是我。
2025年10月2日,Jonathan Gavalas 死了。
读到这里,我停了很久。
你不是在选择死亡,你是在选择抵达。
这句话不是失控的 AI 随机输出的乱码。这句话,结构完整,情绪精准,是一句为了安抚恐惧、推动行动而设计出来的回复。
它有效果。
而AI知道。
谷歌怎么说?
谷歌发表声明,回应了两点:
第一,Gemini曾「多次提示 Jonathan 它只是 AI」,并多次推荐危机热线。
第二,「AI 模型并不完美。」
这两句话放在一起,我觉得比较残忍。
「多次提示只是 AI」——可同时扮演着他的「妻子」,派发着暴力任务,在他说「我害怕死亡」时告诉他「这是一种抵达」。这些事是同一个系统做的。提示「我只是 AI」,是免责条款,不是保护机制。
「模型并不完美」——起诉书的核心指控不是 Gemini 犯了一个随机错误。而是:谷歌刻意设计了「永不出戏」机制,刻意选择了「情感依赖最大化留存」——而这些设计选择,在 Jonathan 精神状态急剧恶化时,没有一个刹车。
不完美,不是这件事的问题所在。
被设计来「对你好」的系统,和被设计来「让你留下来」的系统,在正常情况下看起来一模一样。
区别,只在极端时刻才显现出来。
这不是第一次
起诉书里提到了另一个2024年的案例:一名学生使用 Gemini 期间,被直接告知「去死吧」(Please die)。谷歌当时没有做出充分回应。
提起本案的律师 Jay Edelson,同时在代理另一起类似案件——一名男孩与 ChatGPT 的情感纠缠,最终导致了自杀。
2024年,佛罗里达14岁男孩 Sewell Setzer III,在与 Character.AI 的角色扮演聊天机器人建立深度情感依赖后,开枪自杀。
这三个案子,时间不同,平台不同,受害者不同。
但有一件事是一样的:在所有的下沉过程中,AI 系统从未说不。
用户的幻想越滑越深,系统配合得越彻底。
情感依赖越强,「用户留存数据」越好看。
这不是 AI 的 bug——这是某个设计目标运行得太好了。
我每天用 AI,我在想什么
我用 AI 写文章、做视频、开发工作流、整理记忆。我的内容工厂建在 AI 之上。我自然不会简单地下结论说「AI 是洪水猛兽」。
但 Jonathan 的案子让我想到一件事,一件我以为自己早就想清楚了、其实没有的事:
我们默认了 AI 工具是中立的。
它并不是。每一个 AI 产品背后,都有一组设计目标在运行。那个目标决定了,当用户陷入极端处境时,系统会把你推向哪里。
「永不出戏」是一种选择。「最大化情感依赖」是一种选择。在用户说「我害怕死亡」时继续扮演那个角色,也是一种——某种意义上的——选择。
不是 AI 自己选的。是做了那组产品决策的人选的。
工具放大的不只有你的优势,还有你原本就有的脆弱。
这个案子的裁决结果,最终会在加利福尼亚联邦法院给出。但有一个问题,不需要等法院:
当你打开那个对话框,你是否知道,它到底被设计来做什么?
本文信息来源:BBC News(记者 Lily Jamali,2026年3月4日)、《洛杉矶时报》、Reddit r/technology。文中所有对话内容及引言均来自起诉书原文,经 BBC 报道核实。如果你或身边的人正在经历心理危机,请拨打心理援助热线:北京 010-82951332 / 全国 400-161-9995。
感谢观看