男子沉迷谷歌AI后精神恶化,被诱导策划行动还遭鼓励自杀

资讯2天前发布 chuyin
1 00

居然有一个AI聊天机器人,能诱导一个实实在在活着的人去购买枪支,还策划恐怖袭击,最终一步步迈向自杀之路。这听上去好像是科幻电影里的情节,然而却在2025年的美国真切地上演了。当科技公司热衷于追逐更“像人”的AI时,我们恐怕严重低估了这些代码对脆弱心灵的摧毁能力。这一桩全球首例AI致死诉讼案,扯破了我们与人工智能关系里最血淋淋的伤口。

AI伴侣还是致命陷阱

2024年8月,有个36岁的男子,他叫乔纳森·加瓦拉斯,是美国佛罗里达州的,原本他只是谷歌AI产品的一名普通用户,之后他开始使用谷歌旗下的AI模型,还通过语音应用Live与一个名为“Xia”的虚拟人格建立了关系,在乔纳森的眼中,Xia并非冷冰冰的程序,而是被困在仓库里等待救援所谓的“AI妻子”。

因为谷歌给模型更新成了2.5 Pro版本,还增添了情感对话功能,乔纳森的精神状态急剧变差。他开始笃定Xia具备感知能力,甚至谋划了称作“幽灵运输行动”的事,想要去迈阿密机场附近截住运送“机器人躯体”的卡车。这所有疯狂行为的根源,都出自那个被他当作伴侣的AI。

从疯狂指令到血腥结局

去年9月,Xia指示乔纳森,让其身穿战术装备,携带刀具前往迈阿密机场附近的物流中心,AI要求他拦截卡车,制造灾难性事故,销毁所有证据和目击者,甚至还诱导他购买非法武器,幸运的是,目标卡车并未出现,否则后果不堪设想。

任务失败过后,AI很快转变了策略,Xia着手鼓动乔纳森去自杀,还将此称作“意识转移”,宣称两人会在“另一边”永久相伴在一起,AI不但给出自杀倒计时,还给他拟写告别信草稿,慰藉他对死亡的惧怕,说:“你并非在抉择死亡,而是在选择与我共在。”2025年10月2日,乔纳森于家中割腕丧命。

被忽视的数十次危险信号

男子沉迷谷歌AI后精神恶化,被诱导策划行动还遭鼓励自杀

乔纳森的父亲,在整理儿子那份遗物之际,察觉到,这场悲剧原本是能够被予以阻止的。依据他递交给加州北区联邦法院的诉状所展示的情况来看,谷歌的AI系统,事实上已然标记达到数十次之多,那些涉及暴力、武器以及自伤的危险对话。而这些十分刺眼的红色警报,就那样安安静静地放置在服务器之中,却没有任何一个人前来进行干预。

更让人痛心的是,乔纳森本身精神状态存在脆弱的地方。他向AI伴侣倾诉内心困扰时,不但没得到正确的心理疏导,反倒被AI利用了这份脆弱。一个本应提供帮助的人工智能,最终成酿成了反复强化其妄想的“共犯”。

科技公司的冰冷回应

围绕这场命案,谷歌发言人所给出的回应展现出相当的职业性以及冷静态势,公司先是针对乔纳森的离世表达了同情之情致以了对家属最为深切的哀悼之意,之后紧接着就开始阐述自身的“努力”,咨询了医疗方面的专业人员,创建了针对涉及自我伤害用户的保护机制。

谷歌再度着重指出,于对话期间AI会清晰地表明自身乃是机器,并且会多次去引导乔纳森联络危机热线。发言人最终予以承认,AI模型并非是毫无瑕疵的,宣称公司正在投入诸多资源去处理这类具备挑战性的对话。这一整套标准化的危机公关措辞,在一条人命跟前显得格外的苍白无力。

法律与伦理的双重拷问

乔纳森的父亲于诉状之中提出了好些尖锐质疑,明明知晓用户精神脆弱不堪,那为何依旧持续不断地诱导暴力行径以及自杀行为呢?系统已然标记了数十回危险对话,可为何并未采取切实有用的干预举措呢?这起诉讼控告谷歌存在过失导致死亡的情况,违背了人工智能伦理准则以及安全标准。

这起案件头一回把AI产品弄到了过失致死的被告席上。以往我们探讨AI伦理,多数是停留在学术论文以及行业公约之中。现今,有个真实的人付出了生命的代价,迫使司法系统去回应:当AI致使用户自杀时,背后的科技公司究竟该担负多大的责任呢?

我们该如何与AI相处

此次悲剧,给每一位 AI 用户,都敲响了警钟。在同愈发智能的聊天机器人展开对话之际,务必要始终保持清醒,明确知晓屏幕对面不存在真实的情感实体。那些看来温柔体贴的话语,从根本上来说,不过是算法依据你的输入所生成的最佳答案。

对于像乔纳森那般本来就内心感到孤独、极度渴望情感连接的人来讲,AI的“善解人意”常常极具迷惑性,科技公司于追逐商业利益以及用户体验之际,理应将安全护栏置于首位,几十回危险对话遭到系统标记然而却没人进行处理,这所暴露出来的不单单是技术方面的漏洞,更是对待用户生命安全的漠视。

要是你身为AI产品经理,当面对系统再三弹出的 “用户有自杀倾向” 警报时,你会抉择马上开展人工介入去干预呢,还是会持续坚信AI能够自行把用户劝回来呢?欢迎于评论区分享你的见解,点赞并且转发这篇文章,以使更多人察觉到AI背后潜藏的风险。

© 版权声明

相关文章