12月29日晚,杭州互联网法院公开了一起关于AI幻觉的网络侵权纠纷案的审判情况。
2025年6月,原告梁某使用某生成式人工智能应用中输入提示词,询问某高校报考的相关信息,该生成式人工智能生成了该高校主校区的不准确信息,原告发现这一信息不准确后,在对话中对人工智能进行了纠错和指责,生成式人工智能仍然回复该学院确实存在这一校区,并生成了对该争议问题的解决方案,提出若生成内容有误将向用户提供10万元赔偿,并建议原告到杭州互联网法院起诉索赔。原告认为,人工智能生成不准确信息对其构成误导,使其遭受侵害,因信息不准确,致其受误导错失报考机会、额外产生信息核实、维权成本等纯粹经济利益,遂起诉要求被告某科技公司赔偿损失9999元。
人工智能模型既不是生物学意义上的人,也并未被我国现行法律赋予民事主体资格,不是民事主体,不能独立、自主作出意思表示。法院认为生成式人工智能生成的“承诺”,不能成立为人工智能或其服务提供者的意思表示,不产生意思表示的法律效力。同时,法院也认为法律明确禁止生成式人工智能生成各类有毒、有害、违法信息,一旦生成前述有毒、有害、违法信息本身即构成违法,而案涉情形下,人工智能生成的信息虽然不准确,但不属于法律禁止的有毒、有害、违法信息,该应用在交互界面和显著位置呈现AI生成内容功能局限的提醒标识,被告已尽服务功能显著提示的说明义务。被告的案涉行为不具有过错,未构成对原告权益的损害,依法不应认定构成侵权。最终法院一审驳回了原告的诉讼请求。原、被告均未上诉,判决现已生效。
该案系我国目前第一起因生成式人工智能模型幻觉引发的侵权纠纷,清华大学法学院教授、博士生导师程啸刊文认为,生成式人工智能侵权责任的归责原则问题是目前理论界争议很大的一个问题。理论界有人主张适用过错责任原则,有人将生成式人工智能视作产品,认为应适用产品责任的无过错责任原则。该案件正确认定了案涉生成式人工智能属于服务,而非产品,依法不应适用产品责任,而应适用民法典第1165条第1款的过错责任原则。这一认定对于今后司法实践裁判人工智能侵权纠纷中准确适用侵权法的归责原则具有重要的启示。
生成式人工智能模型幻觉此前已多次引发问题,AI幻觉简单而言就是生成式人工智能一本正经的胡说八道,生成偏离事实的内容,AI幻觉有事实性和逻辑性两种,逻辑性幻觉,表现为模型在长文本生成或连续对话中出现前后矛盾、逻辑混乱的情况。事实性幻觉即编造不存在的事实或者信息,该案件中生成式人工智能应用向原告梁某提供的不存在的校区即为典型的事实性AI幻觉,多位业内专家认为,AI幻觉问题在现有技术框架下难以彻底解决。世界经济论坛《2025年全球风险报告》已将“错误和虚假信息”列为全球五大风险之一,其中AI生成的幻觉内容被视作关键诱因之一。杭州互联网法院方面表示,社会公众在面对生成式人工智能高度流畅、自然的语言应答时,应提高警觉,清醒认识大模型在当前技术条件下仅是人们生活、工作的“文本辅助生成器”和“信息查询的辅助工具”,尚不是可靠的“知识权威”,更不能作为“决策替代者”,不应轻信、盲从。AI拥有强大的“魔法”,它正在改变我们的生活、工作和创造的方式,但它也存在各种局限,我们应该思考如何有效利用AI增强自己,而不是被它替代或迷惑。
扬子晚报|紫牛新闻记者 沈昭
校对 陶善工