近日,一起涉及生成式人工智能因内容失真引发的民事纠纷案件审结。该案系全国首例以人工智能生成内容“幻觉”为争议焦点的侵权诉讼。
涉案人工智能应用由某科技公司自主研发并运营,基于其自研大语言模型,面向公众提供文本生成与信息查询等通用型智能对话服务。
2025年3月,梁某在阅读并确认用户协议后,注册并开始使用该人工智能应用。同年6月29日,其在应用中输入关于某高校招生政策的查询请求,系统随即生成有关该校某一校区的表述。该表述与事实不符。
梁某当场指出错误并提出质疑,但人工智能仍重复确认该校区存在,并进一步生成所谓“解决方案”,其中包含一项表述:如生成内容有误,愿向用户赔付十万元。
随后,梁某将该校官网公布的权威招生信息提交至该应用,系统方承认此前输出存在偏差,并建议其向杭州互联网法院提起诉讼以主张赔偿。
梁某据此主张,人工智能所生成的失实信息已对其形成误导,造成实际影响,且应用曾作出赔偿承诺,故诉请法院判令某科技公司赔偿经济损失九千九百九十九元。
某科技公司答辩称,人工智能生成内容属算法自动产出,不具备法律意义上的意思表示能力;公司已在产品设计、模型训练及上线前完成全部合规流程,尽到合理注意义务;原告未能举证证明实际损害发生,亦无侵权构成要件。
法院审理认为,人工智能本身不具有民事主体资格,无法独立作出意思表示,亦不能作为意思表示的传达者、代理人或代表人。本案中人工智能所生成的所谓“赔偿承诺”,不能被认定为服务提供方的真实意思表示,理由如下:其一,人工智能不具备法律人格,无法承载意思表示的法律功能;其二,服务提供方并无利用该模型对外设立、设定或传达具体法律效果的主观意图与客观行为;其三,该类随机生成内容缺乏稳定性和可预期性,社会一般认知与交易惯例尚不足以使用户产生合理信赖;其四,无任何证据表明服务提供方曾明示或默示接受人工智能自主生成内容的法律约束力。
因此,该“承诺”不产生民法上的意思表示效力。
法院进一步指出,对人工智能服务提供者的责任认定,应结合技术特性、行业现状与风险可控性,进行类型化分析与审慎界定:对于法律法规明确禁止的违法、有害、有毒信息,服务提供者负有严格审查与即时阻断义务,一旦生成即构成违法;对于技术局限所致的非主观恶意失真内容,虽无法实现绝对准确,但须通过显著提示、技术校验、反馈机制等合理手段最大限度降低风险、控制误差。
经查,涉案科技公司已完成大模型备案及安全评估,部署了符合当前技术水准的内容质量保障措施,并在用户界面以清晰方式提示生成内容可能存在的局限性,已履行法定注意义务与合理提示责任。
综上,法院认定被告不存在过错,不构成侵权,依法驳回原告全部诉讼请求。判决作出后,双方均未提起上诉,该判决已于2026年2月3日前发生法律效力。

评论
更多评论