AI“当法官”,喜耶忧耶?
法治周末
智道
栏目主持人:於兴中
司法领域的AI应用并不鲜见,然而,荷兰的这个例子却让不少人对于新技术的冲击产生了更多忧虑
视觉中国供图
□俞飞
今年8月,一名荷兰法官利用ChatGPT收集太阳能电池板相关信息用于判决,这种做法引起了众多专家的关注。
近年来,AI技术可谓“红透半边天”,ChatGPT更算得上是其中的佼佼者。司法领域的AI应用并不鲜见,然而,荷兰的这个例子却让不少人对于新技术的冲击产生了更多忧虑。
当法官“部分基于 ChatGPT估计”
近日,荷兰一家网站报道,奈梅亨的一名法官承认,其在审判案件时使用ChatGPT收集重要信息。该案涉及两名房主,被告将房子加盖一层,邻居以此举严重侵犯采光权,影响自家太阳能电池板发电效率起诉。
本案关键在于确定侵权损害赔偿金额,而这就要法官能精准掌握太阳能电池板的平均寿命以及平均电价。于是,这位荷兰法官想到了ChatGPT。“法官部分基于 ChatGPT估计:从2009年开始,太阳能电池板的平均寿命在25到30年。对于本案,我们将其定为27.5年。”判决书坦陈。此外,法官还向ChatGPT询问了荷兰平均电价。
消息一出,许多专家纷纷发表对此事件的看法。
荷兰互联网专家亨克·艾斯抨击:“这太荒谬了,我们必须对每一个AI都持保留态度。因为专家对太阳能电池板的寿命存在分歧,有人说它们最长可以使用40年。”
“ChatGPT一无所知,它不是一个数据库。”荷兰AI专家雅诺·杜尔斯玛说,“这是一个计算机系统,可以猜测句子中的下一个单词,仅此而已。”
荷兰一家网络安全公司相关负责人戴夫·马斯兰则表示,AI可以减少等待时间、简化流程,对法律系统有很大帮助,但必须彻底检查其使用过程和答案。他认为:“生成式人工智能仍处于起步阶段,‘幻觉’并不罕见。”
早在2019年,信息技术运用广泛的爱沙尼亚就宣称“首创AI法官”,表示今后车祸、超速等小型诉讼案通通交给AI“审理”,一度引发巨大争议。
有资料显示,爱沙尼亚的“AI法官”将处理7000欧元以内的小额民事诉讼,原告方输入诉讼对象、金额、起诉理由等。“AI法官”系统从过往判例中学习、解析法条,最终作出判決。“AI法官”的判决具有法律约束力,如果当事人不服,可以向人类法官提出上诉。
说起来容易,做起来难。“AI法官”计划需要海量判决数据进行训练,并且经由人类法律工作者持续修正。这也难怪,爱沙尼亚的“AI法官”至今还是“只听楼梯响,不见人下来”。
要说AI首次披上法官袍,还是在拉美国家哥伦比亚。2023年1月30日,该国法官胡安·帕迪拉向ChatGPT提问,并将AI提供的答案包含在判决书中,堪称全球“AI审判第一案”。
胡安表示,自己并非是让AI取代法官作决定,而是节省起草判决书时间。案件涉及自闭症儿童是否应该获得相应的医疗保障。法官询问:“自闭症儿童是否可免除支付治疗费用?哥伦比亚宪法法院判例是否曾在类似案件中作出有利裁决?”ChatGPT回答:“是的,这是正确的。根据哥伦比亚法规,被诊断患有自闭症的未成年人可免除看诊治疗费用。”最终,法官的判决是:因患儿父母负担不起医疗费用,孩子的全部医疗费用和交通费用,由其医保公司支付。
胡安坚称,裁决过程中,自己“并没有停止作为法官的思考”。对此,哥伦比亚最高法院法官奥克塔维奥·特杰罗表示,人工智能的横空出世引发了道德恐慌,人们担心程序或机器人将取代法官。他说:“我还没有用过ChatGPT,但将来会考虑使用。”
不过,哥伦比亚罗萨里奥大学教授古提瑞兹对此持批判意见,自己也对ChatGPT提出相同问题,却得到不同答案。他认为:“法官使用ChatGPT判决,既不负责任,也不道德,应该首先培养法官的数字素养。”
将AI引入司法 各国态度不同
2019年,法国推出第2019-222号法律,明确规定“不得为了评价、分析、比较或预测法官和司法行政人员的职业行为而重复使用其身份数据”,违者处以最高5年徒刑。这是世界上第一部禁止对法官行为进行统计分析的法律。由此可见,对于将AI引入司法活动,法国的态度更是保守。
不过,法律AI的预测功能,却让犯罪率、累犯率居全球之冠的美国寄予厚望。在美国,多州法官采用COMPAS等三种软件辅助量刑,希望新技术精确评估哪些囚犯会在被释后再次犯罪,从而降低累犯率。
然而,COMPAS算法存在偏见:一方面,黑人被算法标记为再犯的风险远高于白人(尽管实际上这些黑人并没有再次犯罪);另一方面,白人被标记为再犯的风险很低,但实际上这些白人却继续犯罪。
2017年,著名的卢米斯诉威斯康星州一案,被告认为一审法官使用算法COMPAS作为量刑参考违反正当程序原则;主张自己有权检查法律AI算法,法院必须公开算法信息;算法的科学有效性和正确性值得怀疑;算法量刑侵犯了量刑个别化的权利。州最高法院驳回被告的诉讼请求,但要求下级法官必须解释量刑决定考量因素,提醒法官警惕使用算法的偏见。
去年年底,美国最高法院首席大法官约翰·罗伯茨发布年终报告,阐述AI在法律体系发挥的积极作用及潜在威胁,敦促对此保持谨慎和谦逊。“但我同样有信心预测,司法工作——尤其是审判层面——将受到人工智能的显著影响。”他强调,历史上,法院一直在努力适应新技术。
其实,早在2017年,就有人问罗伯茨:“是否有一天,由人工智能驱动的智能机器将协助法庭进行事实调查,甚至参与更有争议的司法决策?”罗伯茨当时的回答是:“这一天已经到来了。这给司法部门的行事方式带来了巨大压力。”
去年9月,专门研究知识产权法的英国比尔斯大法官使用 ChatGPT总结了他不熟悉的法律领域,并将结果复制粘贴到正式裁决中。他称赞,AI非常有用。“如果你被送上英国法庭,机器人可能会帮助决定你的法律命运。”对此,英国报纸颇有意味地写道。
去年年底,英国司法办公室发布指南,引导法官使用AI。指南警告AI存在潜在隐患,要求法官在检查AI回复的准确性,提醒可能泄露隐私和个人信息。此外,“司法机构使用AI的任何行为都必须符合司法机构保护司法公正的首要义务。使用AI工具之前,确保对其功能和潜在限制有基本了解。AI提供的信息可能不准确、不完整、有误导性或有偏见。目前可用的大语言模型对法律的看法很大程度上基于美国法律”。
指南还提醒法官:“不推荐使用AI进行法律研究和法律分析:AI工具是一种糟糕的研究方式,您无法独立验证新信息;目前的公共人工智能聊天机器人无法生成令人信服的法律分析或推理。”
事实上,将AI引入司法活动的负面案例并不罕见。
去年11月,巴西国家司法委员会要求法官罗德里格斯解释,他何以会公布一份由ChatGPT生成、内容充满法律谬误的裁决。罗德里格斯辩解,之所以错误地引用了AI提供的巴西最高法院的判例,只是人工智能的失误。接着,他归咎于法官工作负担过重,无暇仔细审查。
巴西国家司法委员会表示:“我们认为这是巴西第一起这类案例,给予了法官15天时间作出进一步说明。”实际上,依赖AI工具的巴西法官不胜枚举,该国许多专家认为亟待制定新法进行监督。
总而言之,将AI引入司法活动,有助于增加贫困当事人诉诸司法的机会,协助法院更快、更低成本地解决案件,但同时,形形色色的歧视、算法黑箱、信息不透明等棘手问题也不容忽视。在足够久远的未来,AI是会成为正义女神的化身,还是成为失控的弗兰肯斯坦?目前还无人可以断言。
(作者系中国政法大学比较法学研究院讲师)
责编:尹丽