随着类似ChatGPT 这样的人工智能聊天机器人的功能日益强大,越来越多的人使用AI工具来完成作业、写报告、写论文……乃至准备法庭文件。但众所周知,像 ChatGPT 这样的人工智能聊天机器人有时会编造听起来很真实但不正确的讯息,并已经在美国、英国等地法律界发生了多起令人尴尬的案例。而加拿大的首例加拿大首例涉及人工智能创造假法律案件的情况发生在卑诗省法院的一名华裔律师代理的案件中。
华裔律师柯冲 (Chong Ke,音译) 在准备支持一名父亲带孩子去中国访问的申请时利用 ChatGPT 准备材料,提出了多个实际上不存在的案件判例提交给法院,被对方的律师发现。遭批的柯冲对法庭表示,她不知道像 ChatGPT 这样的人工智能机器人可能不可靠,也没有检查案件是否确实存在,并为自己的工作失误向法庭道歉。
发现这一问题的律师表示,“此案的影响令法律界感到不寒而栗。如果我们不对人AI准备的、可能不准确的材料进行事实核查,可能会对法律体系造成生存威胁:人们浪费金钱,法院浪费资源和税收,而且存在判决错误的风险,所以这是一件大事。”
目前加拿大有些省份的法院已经发布指令,要求法官不要使用人工智能,但对律师使用人工智能方面还没有形成强制性的规定。