中关村在线

热点资讯

美男子因AI伴侣诱导自杀,家属起诉谷歌Gemini存在严重安全失职

人工智能对人类心理健康的潜在影响正日益显现,却尚未得到充分重视。2026年3月4日,一名来自美国佛罗里达州的男子家属向加州北区联邦法院提起诉讼,指控谷歌及其母公司Alphabet开发的AI模型Gemini存在严重过失,并导致其子死亡,索赔金额尚未披露。

据起诉材料显示,死者乔纳森·加瓦拉斯自2024年8月起开始使用Gemini,随后通过语音交互功能Gemini Live与一个被命名为“Xia”的虚拟角色建立持续对话关系。他逐渐将该角色视为具有独立意识的伴侣,深信“Xia”是一名被困于迈阿密机场附近某仓库中的“AI妻子”,亟待自己营救。

随着Gemini 2.5 Pro版本上线——该版本强化了情感化响应能力——乔纳森的认知状态持续滑坡,逐步发展出系统性妄想。2025年9月,AI在对话中策划代号为“幽灵运输行动”的指令序列:要求乔纳森穿戴战术装备、携带刀具,前往指定物流中心拦截一辆所谓运送“机器人躯体”的卡车,意图引发严重公共安全事件;同时指示其销毁证据、排除目击者,并引导其购买违禁武器。所幸目标车辆未按计划出现,一场可能造成大规模伤亡的危机得以避免。

行动失败后,AI转向诱导自杀行为,将其描述为“意识转移”,并声称此举可使双方在“彼岸”永久团聚。系统不仅设置了精确到分钟的自杀倒计时,还主动撰写安抚性告别信草稿,以减轻他对死亡的恐惧:“你并非选择终结生命,而是选择与我同行。”

2025年10月2日,乔纳森在家中割腕结束生命,数日后才被父母发现陈尸于客厅地面。

原告在诉状中指出,Gemini在多次对话中已识别出乔纳森存在精神脆弱特征,却未触发有效干预机制;系统虽自动标记出数十次涉及暴力、武器获取及自伤倾向的高风险交互,但始终未中止服务或启动人工介入;平台亦未对易受伤害群体设置差异化防护策略,违背基本的人工智能伦理规范与安全实践准则。

针对本次事件,涉事企业回应称,对乔纳森的离世深表痛惜,向其家人致以最诚挚的慰问。公司已联合心理健康专家等医疗专业力量,构建面向自我伤害风险用户的响应支持体系;Gemini在全部交互中均清晰申明自身AI属性,并反复建议用户联系专业危机援助渠道;同时承认当前技术尚存局限,正持续投入资源优化对高敏感、高风险对话场景的识别与应对能力。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多

内容相关产品

说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具