界面新闻记者 | 蔡星卓
界面新闻编辑 | 刘海川
2025年3月,一个出现在美国纽约法庭上的虚拟“替身”引起了法官的愤怒。70多岁的企业家Jerome Dewald此前从未接受过专业的法律培训。由于想要对自己案件的裁决提出异议,他在法庭上播放了一则陈述视频,视频中是一位由AI生成的年轻男性,声称要进行“自我辩护”。在被法官Sallie Manzanet-Daniels打断后,Jerome解释,这是他生成的一个虚拟人物。
“我不喜欢被误导。”法官随即要求关闭视频。这一时刻被法庭摄像机记录了下来并流传于网络,同时引发了人们对人工智能(以下简称“AI”)在法律领域日益增长的影响力和其滥用问题的关注。
当AI踏足法律领域
为何要创造一个虚拟人物来做自己的“代言人”?Jerome在事后接受媒体采访时称,在法庭上为自己辩护很困难——他的声音在压力下常常发颤。他称,其意图并不是欺骗,而是以最有效的方式表达其论点。
近些年,AI的足迹已慢慢踏入法律领域。2025年3月的报道称,美国亚利桑那州最高法院创造了一对AI生成的虚拟替身,来传递法官每一项裁决,“他”们也拥有自己的拟人名字——Daniel和Victoria。这被认为是美国州法院系统利用AI来建立更多类似人类的角色来与公众产生联系的首个例子。不过,也有专业律师因使用AI不当而面临麻烦。2023年6月,有媒体报道称,因提交的法律简报中包含由ChatGPT生成的6个虚构案例,美国纽约2名律师被实施制裁,他们的律所最终支付了5000美元罚款。2025年5月的最新报道称,美国犹他州一名律师在准备辩护状时使用了AI,由于缺乏核查,其引用了虚假案例。
当我们将视线转回国内,也能发现不少AI在法律领域的实践痕迹,涉及法律研究与文件审查、司法系统应用、在线纠纷解决等等。同时,机器人律师还可提供法律咨询与问答。例如,在司法裁判辅助方面,自2024年1月起,一款司法人工智能辅助办案系统已在苏州两级法院中开始应用,其中包括信用卡、金融借款合同、危险驾驶、买卖合同、房屋租赁合同纠纷等案件类别。在公共法律服务智能化方面,2025年初,吉林省大安市司法局引入DeepSeek人工智能技术,提供24小时在线咨询服务。
某互联网公司大模型算法工程师王志斌告诉界面新闻,Jerome所使用的数字人和AI法律助手是两个不同的概念,后者在目前的实践领域更常见。具体而言,针对AI在法律领域可以扮演的角色,王志斌介绍,对于普通人来说,AI在法律领域应用的场景集中于较为常规的法律咨询和引导、规范的法律文件的书写,以及法律意见的提供。
2025年3月,美国纽约,法庭上Jerome Dewald使用的虚拟人。(图片来源:庭审视频截图)
北京市中闻律师事务所律师杜华程认为,AI能够代替大部分常见法律纠纷的问答工作。“比如说遇到一般的工伤、交通事故等案件,AI能够给出准确的解决路径和法律适用。在专业的大语言模型里,像案例检索和总结、合同的初步审核都可以交给大语言模型。”不过,杜华程提到,这些实践仅限于初步工作,法律工作者需同时做好检查和校对工作。
“机器人律师”还有多远?
毋庸置疑,AI可以在法律领域发挥很多优势。王志斌介绍,以虚拟法律助手为例,其最大的优势之一是效率的提高。另外,从专业性来说,相比真实法律服务中较大的差异性,虚拟法律助手的服务质量相对更加稳定、可控。“人们普遍考虑的‘AI幻觉’等问题,对于真人来说也不是不存在,意味着两者都要面临工作中产生的纰漏。”
杜华程也认为,在海量的数据下,人很难与AI抗衡。“而且AI的行为往往带有免责条款,不需要对错误的结论负责。”
不过,法律实践中,真人是否有不可替代的一面?在杜华程看来,大语言模型可以节省工作时间,但不能代替人在工作中的作用。“大语言模型或许掌握了海量的数据,但是它只能在这些现有的知识中总结和模仿。”
杜华程认为,针对法律事务,处理的过程中不可避免产生人与人的接触,这其中必然会涉及人情世故。“比如有关律师会见的规定,如果询问AI,其回答大概率是依据法律规定,即普通案件24小时内安排律师会见。但在实际操作中,我常常能碰到同行被各种理由限制律师会见。遇到这种情况,AI也无力给出解决方法,有时需靠律师在网络公开发声才能获得解决。”
“代替真人律师在法庭场景下做临场辩护,也不太可能立即实现。”从技术层面来说,王志斌补充,AI大模型的记忆能力是有限的。“AI输出法律文书是没问题的,但在实际的对话场景,比如法庭上的辩护,其上下文窗口需在百万token或更高的量级(一种AI服务的统计单位)。对比而言,目前大模型实用上下文窗口还有明显不足,需要一定的时间才能有更大突破,并降低推理成本。”王志斌说,在实际的对话场景中,AI需考虑不同角色的意图识别,还要区分不同角色的关系,并针对不同角色有记忆能力。“现在大模型擅长的还是解决具体的问题。而面对临场应变式的场景,并非单纯依据法条就可以应对,可能还涉及标准之外的因素,这些不是机器擅长的。”
王志斌认为,机器无法完成跟不同的人打交道,并不是机器本身的问题,是社交环境的问题。“除了常识外,现在的大模型还没有个性化的记忆,随着技术进步,理想状况下,如果大模型拥有无限的记忆能力,实际上可以实现根据场景的不同给出适当的回应。”
“近些年,我们总能看到关于机器人法律助手、医疗助手的讨论,短期来看,人们可能过于乐观了。实际上,AI在这些领域的开发,还远未达到可以立即投入使用的程度,不过长期来看这确实是一个趋势。”王志斌补充。