全国首例因“AI幻觉”引发侵权案宣判 AI“胡说八道”要承担责任吗?

分类:8版 今日文摘   来源:   作者:   发布时间:2026-01-29

A+  |  a

  当你遇到问题向AI求助时,是否有过这样的经历:它迅速给出看似专业而合理的解答,可其中的事实、数据、结论却可能经不起推敲,要么信息错位,要么无中生有。

  AI一本正经地“胡说八道”,这是“AI幻觉”的典型表现。

  2025年6月,梁某通过一个AI平台查询高校报考信息。结果,AI生成了该高校主校区的不准确信息。

  “你这个骗子!根本没有这个校区。”梁某指出错误后,AI却坚称存在这个校区,并回答“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉。”直到梁某向AI提供该高校的官方招生信息,AI才“败下阵来”,承认生成了不准确的信息。

  梁某认为,AI生成错误信息对其构成误导,而且承诺赔偿,于是向杭州互联网法院提起诉讼,要求AI平台研发公司赔偿9999元。

  这是国内首例因“AI幻觉”引发的侵权案。

  AI生成的“赔偿承诺”算不算数?AI需要为“说”出的每句话负责吗?

  法院认为,人工智能不具有民事主体资格,不能作出意思表示。涉案AI自行生成的“赔偿承诺”亦不能视为服务提供者(被告)的意思表示,理由在于:第一,人工智能不具有民事主体资格,不能作为意思表示的传达人、代理人或代表人;第二,被告并无通过该AI模型来设定或传达其意思表示的行为;第三,一般的社会观念、交易习惯等尚不足以使原告对该随机生成的“承诺”产生合理信赖;第四,无证据表明被告曾作出愿受人工智能生成内容约束的外在表示。因此,该“承诺”不产生意思表示的法律效力。

  当人与机器对簿公堂,法院如何评判?

  法院明确,对于服务提供者的责任需要综合考量,进行类型化区分和界定:首先,服务提供者应对法律禁止的有毒、有害、违法信息尽严格审查义务,一旦生成这类信息就构成违法;同时,平台虽无法保证“零幻觉”,但须以醒目方式提示风险、采取合理技术防错。

  在该案中,研发公司完成了大模型备案与安全评估,采取了当前技术条件下的必要措施保障内容准确性,并履行了提示说明义务。最终,法院认定平台不存在过错,不构成侵权。

  最终,法院驳回了原告的诉讼请求。原、被告均未上诉。

  据1月27日《每日经济新闻》


标签:

最新更新

看新疆新闻,关注法制报微信

  • 分享到:

版权和免责申明

新疆法制报网制作的专题内容,所注“中国西部网讯”均为新疆法制报网独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为“新疆法制报网”并保留“新疆法制报网讯”电头。