近日,英格兰和威尔士高等法院发布重要声明,要求法律从业者在使用人工智能工具时必须采取更严格的防范措施。法官维多利亚·夏普(Victoria Sharp)指出,在一起具有里程碑意义的判决中,法院明确表示像ChatGPT这样的生成式AI工具不适合作为法律研究的主要依据。
夏普法官在判决中强调,虽然AI工具能够生成逻辑性强、看似可信的回答,但这些内容往往包含根本性错误。她指出:”这些回应常常以极具说服力的语气断言一些并不存在的事实细节。”尽管如此,法官并未完全禁止律师使用AI技术辅助工作,但她明确要求法律从业者必须在引用AI生成的内容前,严格参照权威资料进行核实。
这一裁决是基于两起典型案例作出的。夏普法官透露,越来越多的案例显示律师在诉讼文件中引用了大量看似由AI生成的虚假信息。对此,她呼吁相关法律机构采取更有效的监管措施,并将该判决转发给律师公会和律师协会等专业组织。
其中一名涉案律师在其提交的索赔文件中引用了45个案例,但经核实发现其中有18个案例根本不存在,其余许多案例的内容与文件主张的事实毫无关联。另一名律师则在驱逐令案件中引用了五个并不存在的先例。
尽管这两名律师均否认使用AI工具辅助生成文件,但他们的行为仍然引发了严重的职业道德问题。夏普法官明确表示:”未能履行这一职业义务的法律人将面临严厉制裁,包括但不限于公开训诫、责令承担诉讼费用或启动藐视法庭程序等。”她补充说,虽然在这两起案件中没有启动正式的藐视法庭程序,但这并不代表未来会采取相同的态度。
夏普法官还强调了法律职业机构在监督律师行为方面的重要性。她指出:”当执业者未能履行对法庭的基本职责时,法院有权采取包括移送警方在内的多种措施。”这一判决无疑为法律界使用AI技术划定了明确的红线。
© 版权声明
文章版权归作者所有,未经允许请勿转载。