德克萨斯州的一位联邦法官为其法庭上的律师制定了一项新规则: 除非人工智能的输出被人类核查过,否则不能使用人工智能编写的材料。美国地区法官布兰特利-斯塔尔还命令律师提交证书,证明他们的文件是由人类编写或审查的。

根据斯塔尔法庭的一项新的"法官特定要求","所有在法院出庭的律师都必须在备审簿上提交一份证明,证明文件的任何部分都不是由生成性人工智能(如ChatGPT、Harvey.AI或Google Bard)起草的,或者证明由生成性人工智能起草的任何语言都是由人类使用印刷记者或传统法律数据库检查其准确性。"

每个案件都必须提交一份证明,并将涵盖该案件的所有文件。一份证明样本说,这些要求适用于文件中的任何语言,"包括引文、引证、转述的论断和法律分析"。


(相关资料图)

特朗普提名的美国德克萨斯州北区地区法院的斯塔尔说,人工智能"平台是令人难以置信的强大,在法律上有许多用途:表格离婚,发现请求,建议文件中的错误,口头辩论中的预期问题。但法律简报不是其中之一"。人工智能"平台在其目前的状态下很容易产生幻觉和偏见。在幻觉上,他们会编造东西--甚至是引文和引证。"

根据法律专家尤金-沃洛克的文章,斯塔尔关于人工智能的新的常设命令是昨天发布的。"请注意,联邦法官对在其法庭上执业的律师通常都有自己的常设命令。这些是在当地地区规则以及正常的联邦民事和刑事诉讼规则之外的,"沃洛克写道。

此前律师引用了ChatGPT"发明"的假案件

斯塔尔的命令是在纽约的律师史蒂文-施瓦茨承认他使用ChatGPT帮助撰写法庭文件,其中引用了人工智能工具发明的六个不存在的案件之后发出的。施瓦茨和他的合伙人正在等待美国纽约南区地方法院的凯文-卡斯特尔法官可能下达的惩罚。

在卡斯特尔所谓的"史无前例的情况下",法官说原告律师提交的文件包括六个"假的司法判决,有假的引文和假的内部引用"。这些文件包括捏造的案件名称和一系列假裁决的"摘录",引用了人工智能发明的其他假先例。

施瓦茨提交的一份宣誓书说,他"对利用生成性人工智能来补充这里进行的法律研究感到非常遗憾,今后在没有绝对核实其真实性的情况下绝不会这样做。"他还说,他"在这一事件发生之前,从未利用ChatGPT作为进行法律研究的来源,因此没有意识到其内容可能是虚假的。"

斯塔尔的新常设命令讨论了人工智能工具的潜在偏见。他写道:"虽然律师们宣誓抛开他们的个人偏见、偏差和信仰,忠实地维护法律并代表他们的客户,但生成性人工智能是人类设计的程序的产物,他们不需要宣誓。"

"人工智能系统不效忠于任何客户、法治或美国的法律和宪法,"斯塔尔继续说道。"不受任何责任感、荣誉感或正义感的约束,这种程序根据计算机代码而不是信念行事,基于编程而不是原则。任何一方认为一个平台具有法律简报所需的准确性和可靠性,可以申请许可并解释原因。"

展望未来,斯塔尔的命令说,法院"将剔除任何来自律师的文件,如果该律师没有在备审簿上提交一份证明,证明该律师已经阅读了法院的特定法官要求,并理解他或她将根据规则11对他或她签署并提交给法院的任何文件内容负责,无论生成性人工智能是否起草了该文件的任何部分。"

推荐内容