机器人法官


岳林

 

【法宝引证码】CLI.A.0107399
【学科类别】人工智能
【出处】《法律和社会科学》2018年第2期
【写作时间】2018年
【中文关键字】赛博和霍姆斯法官;机器人
【全文】



       1955年,美国科幻作家弗兰克·莱利发表了一篇名为“赛博和霍姆斯法官”的短篇小说,虚构了一个机器人取代人类充当法官的故事。根据这种想象,机器人理性、高效,很少犯错(至少在形式逻辑意义上),不受情感干扰,更不会有动机去徇私舞弊、枉法裁判,因此比人类更适合操持司法。虽然幻想家们并不知道也不需要知道机器人法官的设计原理和制造工艺,他们往往愿意相信,科学技术总有一天会让他们的想象变成现实,所以机器人进入法院只是个时间问题。只不过和许多科幻预言一样,这一天似乎总是在无限地接近,但同时又在被无限地延迟。
 
  就在2016年最后几天,网上传出消息,称南京法院将使用机器人协助法官判案。而此时恰逢人工智能棋手Master大杀四方,连克人类顶尖高手,人工智能一时成为全世界舆论关注的热点。 关注司法问题的人们不禁联想,科幻作品中的虚构,是否已经来到我们身边?但是南京中院迅速辟谣,称相关报道有违事实,机器人项目系子虚乌有。看起来,这又是一则“狼来了”的假新闻。但只要检索网络,我们可以发现,在南京被否认的“科幻”,在北京以及其他地方正在成为“现实”。譬如说,同样是在2016年底,北京市高院高调推出了智能研判系统“睿法官”法被主流媒体包括中央电视台和《人民日报》广泛报道。 而在这些报道中,“睿法官”的确被称作“机器人”。
 
  在法院信息化的浪潮中,全国法院一盘棋,无论南京还是北京都不例外。最高人民法院在全国人大第五次会议提出的工作报告明确提出,人民法院在2017年的工作方向之一就是要建设“智慧法院”,推进“审判智能服务”,构建“司法人工智能系统”。 “智慧法院”云云,是法院工作信息化的泛称,涵盖法院工作的方方面面。“审判智能服务”或者“司法人工智能系统”,则涉及到法院最核心的职能,也就是司法裁判。
 
  于是我们可以讨论这样一些问题:机器人法官到底是已来还是未来?这已经来的,以及将来要来的,又是怎样的机器人法官?国家、政府或者某一部分人,为什么要不遗余力地把机器人技术输入法院,让机器人法官发挥怎样的功能,实现怎样的目的呢?
 
  一、#什么是机器人#
 
  不同消息相互抵牾,很大程度上是因为概念混淆。其实我们一直都难以明确区分计算机(computer)、人工智能(artificial intelligence)和机器人(robot)这些事物;无论是普通民众,还是在这些领域深耕已久的技术专家,都会在这些概念上模棱两可。你所谓的机器人,在他看来可能就只是一台机器,毫无“智能”可言;而他认定的人工智能,在我看来也不过是一段计算机代码。至少,战胜人类棋手的那种所谓的AI,并不具备物理实体的形象,因此与科幻文学电影作品中常见的那种AI,似乎也是风马牛不相及的。因此,南京法院矢口否认的机器人,很有可能与北京法院大力推行的机器人可能并不是一回事。
 
  美国法学家瑞恩·卡洛提出过一个可以用来界定机器人“本质”的标准,机器人都必须具备三种能力:一是感知(sense),即攫取或接受来自这个世界的信息;二是处理(process)它所感知到的信息;三是根据处理结果来反作用于这个世界。这也就是他所谓的“感知-思考-行动”范式。 根据这套标准,我们并不需要对机器人和人工智能作出非此即彼的区分。我们无法想象,一个所谓的机器人是不具备智能的。以及机器人也不一定必须具备人形,例如工业机器人。所以IBM设计的Watson,虽然没有专属性物质载体,严格来说只是一堆虚拟的代码,但也可以被纳入到机器人的范畴。
 
  另一位美国法学家杰克·巴尔金对卡洛的机器人定义提出了批评。他认为机器人技术依然是一项正在迅速发展且远远尚未定型的技术,它的未来几乎是不可预测;既然如此,人类怎么能这么匆忙地就给它做出“界定”(definition)呢? 我也认为现在对机器人的本质下定义确实还为时尚早。其实就连“人”的本质定义,从古至今,人类自己也无法达成一致意见。但我还是认为,卡洛的定义是有用的,至少在当下有用。基于他的定义,我们可以对机器人(人工智能)做出进一步的区分:
 
  首先,如果机器人只能按照初始设置来工作,不具备自我发展能力,那么这种机器人就是弱人工智能(weak AI)。例如已经进入千家万户的扫地机器人,以及我们在电子游戏中熟悉的各种NPC(non-player-Controlled Character),都是这种层次的机器人。这种机器人即便在某一领域具备让人类望尘莫及的能力,但它的思维模式和行动策略,依然尽在人类掌控之中。
 
  其次,如果机器人具备了所谓的深度学习或者自主学习能力,能够在无人监督的情况下更新并且提高自己的能力,那么人类就可能无法跟上它的“进化”脚步了。这也是为什么,Master的人类对弈者们对它的棋路完全望尘莫及,甚至认为人工智能已经彻底改变了这个游戏。而Master的人类设计师虽然书写了代码或者算法,但他们自身也无法准确预测Master的棋路。因此这一层次的机器人,可以被称为强人工智能(strong AI)。
 
  最后,如果机器人这样一路发展下去,最终达到并且超越了库兹韦尔所谓的“奇点”(the singularity),那么也就获得了与人类一样甚至超越人类的意识能力。 此时就像科幻作品不厌其烦地启示过的,机器人拥有了独立的情感和价值观,甚至可以说有了某种意义上的“灵魂”。因,它们不需要也不会依附于人类,将自主决定如何安排与人类的关系。这种机器人可以说是超人工智能(super AI)。当然也有部分人工智能专家并不像库兹韦尔这般乐观。例如皮埃罗·斯加鲁菲就把超人工智能视作一种宗教式的幻想或者巫术。
 
  因此,至少就弱智能和强智能而言,机器人依然只是一种工具;虽然在中文概念上,它有一个“人”字,但并不必然需要具备人类的形体特征或者思维特征,也不具备社会和法律意义上的“人格”(person)。既然它是工具,那么总是有某种用途的。无论我们称呼它为司法人工智能还是法官机器人,它总是要服务于某种目的,服务于活生生的人类为它设计的某种目的。
 
  二、#能做的,与不能做的#
 
  目前见诸于报道的法官机器人,例如“睿法官”,它们所能做的其实也仅限于弱人工智能水平。“睿法官”的主要功能,就是以北京法院审判信息资源库为基础,为法官提供法规和案例检索,分析同类案件判决规律,辅助法官按照统一规范填写司法文书。对人类而言,这些工作本身并不复杂,经过一般法学教育以及司法培训的法官都能做到。“睿法官”的存在价值,在于它大大缩减了法官从事这些事务的时间,从而大幅提高了工作效率。而用斯加鲁菲的话说,这种层次的人工智能,在计算机科学意义上并没有颠覆性的创新,只不过是凭借超强的计算能力来提高机器人的工作效率罢了。换言之,“睿法官”所取代的,本来就是一些“机械化”的简单工作,而并没有对这些工作本身的流程或者内容作出根本上的调整;人类司法人员从事这类工作时所需要完成的步骤,“睿法官”依然需要一一履行。所以我们很难说“睿法官”这样的机器人具备了人类法官的法律思维能力。
 
  而且,“睿法官”是一种维持性(sustaining)技术,旨在实现既有制度目标。它并不是什么颠覆性(disruptive)创新,也不会打破既有的制度格局和利益配置。 譬如说,它仍然服务于“同案同判”这一我国法院大力宣扬的司法政策,并且有利于对法官的管理和对审判的控制。这也是为什么,南京中院在辟谣声明中说:
 
  “我院一直持续加强信息化建设,充分发挥信息化建设服务人民群众、服务审判执行、服务司法管理的重要作用,但是我们也深刻认识到,司法是具有经验和价值判断性质的工作,再聪明的机器或软件都不能完全替代法官的工作,只能为法官提供办案支持与辅助。”
 
  最高人民法院副院长贺荣同样斩钉截铁地说,即便信息技术正在掀起第四次工业革命,法院也正在经历智慧化改革,“但幸好,可以肯定的是,机器人大法官绝无可能”。在最高人民法院工作的何帆也认为,“眼下最需要做的,是踏踏实实推进机器深度学习,将法官从重复劳动和繁琐事务中解放,从技术上健全法律统一适用和结果预判机制……你连法条都驯服不了,还指望能驯服数据?”
 
  如果我们通过围棋领域中的AlphaGo或者Master来想象机器人法官,那就只能一厢情愿了。不过我们还是可以从法律自身的角度来分析一下,为什么人工智能在司法领域暂时还达不到强智能水平。
 
  首先,从卡洛的范式出发,机器人法官必须具备感知法律信息和案件信息的能力。也就是说,机器人法官必须清楚地知道,它需要针对什么样的案情以及适用什么样的法律。或许会有人认为,机器人是记忆以及搜索法律规范的好手,这方面可以完胜人类法官。但我们须得留意,即便法律人的语言在外行看来是“法言法语”,“不讲人话”,依然属于自然语言,需要转码成机器语言后才能机器人“读懂”或者“理解”。而自然语言只要经过转码,例如把法律规范置换成机器语言,那么也就脱离了自然语言所处的语境,成为纯粹抽象的一堆代码和符号。因此,由于机器人无法进入自然语言的语境,那也就无法像人类一样理解和使用自然语言。例如法律规范中的“公序良俗”或者“淫秽”,就是机器人无法“体验”的,所以也就不可能被它所理解。实际上这也是目前人工智能发展遇到的最主要障碍。机器人法官只要没有人类的躯体和身份,不能像人一样生活在真实社会之中,那么它对任何案情的“理解”都是抽象的、形式的和虚拟的。现在所谓的机器人法官,它所获得的信息完全依赖于人类的信息输入(input)。这就意味着,人类完全可能通过对案件事实的“裁剪”或者“包装”来控制信息输入,进而操纵机器人法官的信息输出(output),也即最终的司法判决。
 
  其次,机器人法官需要对感知到的诸多信息进行综合加工。就人类法官而言,他们需要通过阅读大量法律规范或者判例,来建构自己对某一法律文本或者案件事实的理解。而无论法律文本还是案件事实,这些信息之间可能相互矛盾,并不符合韦伯所谓的“形式理性”。但人类法官往往会通过不可明言的一些“诀窍”对信息进行分析和判断。这一思维过程并不是纯粹精密的逻辑推演,而包含了许多价值判断以及情感因素。如果机器人法官缺乏人类法官的这些技能,那么当它们需要处理这些并不“形式理性”的信息时,可能就无法计算出一个结果,或者造成系统崩溃,也就是我们通常所谓的“死机”。而这也是弱智能机器人被人们称为“弱智机器人”的原因。例如扫地机器人,往往就会与地板上的一团电线“死磕”,身陷其中而无法自拔。
 
  如今的人工智能技术主要是指强人工智能,它们更多只是在统计学公式或者计算机算法的帮助下,来模拟人类可能做出怎样的判断与选择。而这种模拟出来的结果,很难说是机器人自己的判断与选择,更不能说机器人能够像人一样思考和判断。今天的人工智能技术,已经在很大程度上被媒体渲染和夸大了,以至于有时候人们混淆了科幻与现实的差异。其实只要打开谷歌翻译或者Siri,发现它们还是一如既往的笨拙,几乎是“人工智障”(Artificial Idiot),那么法律人就可以安心许多。至少在司机、厨师或者理发师被机器人取代之前,法律人还不用太担心自己的饭碗。
 
  但是,即便今天已经进入到法院的那些“机器人”并没有从根本上改变既有的司法制度和权力利益格局,它还是触发了一些局部变化,并且为法院的未来增添了更多的不确定性。而且就算人工智能技术具有难以突破的技术瓶颈,但它毕竟还在一直发展,被它渗透的人类社会生活也在不断变化。所以面对机器人法官,我们可以没有近忧,但不可没有远虑。至少我们不能否认,现在的机器人法官或者其他法律机器人技术正处于一个从弱智能向强智能迈进的过程中(也许会非常漫长)。
 
  三、#司法变迁#
 
  我不想成为“脑洞大开”的“未来学家”。我只是希望站在传统法学研究角度,来思考机器人技术可能会给司法制度乃至整个法律制度带来怎样的影响。其中有些影响,或许已经是看得见摸得着的了,而有一些或许已经显出端倪。
 
  i. 司法职业结构的重构
 
  只要机器人技术从理论进入到应用,就必然会带来人类的下岗问题。乐观者如库兹韦尔和杰瑞·卡普兰都相信,人工智能虽然会在具体岗位上挤占人类的空间,但从整体上看,人工智能不仅会提高人类社会的总效率额,而且会创造出新的工作岗位。因此机器人引发的失业只会是暂时现象。而悲观者如比尔·盖茨和霍金则相信,人工智能会永久地夺走一部分人的工作,而且不会为他们创造新的工作机会。
 
  机器人法官以及其他人工智能技术能够提高法官工作效率,这是不争的事实。据苏州市中院统计,仅仅是一项语音识别技术,就能使庭审时间平均缩短20%~30%,复杂庭审时间更是缩短了50%。 最高法院也提到过一个数字,即智能审判系统能减轻法官30%以上的事务性工作。 而案多人少是近年来法官遇到的主要问题。和工厂遇到劳动力短缺问题时一样,法院的应对策略也是在尽量增加现有人手劳动时间、扩充新手的同时,试图通过技术革新来提高劳动生产率。而且很有可能,只要在某一个环节出现了技术突破,就会带了整个生产链条生产效率的大幅度提升。例如语音识别技术不仅可以减轻书记员的工作量,而且也能够削减其他庭审人员(特别是法官)所耗费的时间和其他资源。而且,国家对于每一个司法工作岗位,都要提供诸多福利和保障。但机器人可以不吃不喝,不需要休息,24小时不间断地持续工作。
 
  根据《人民法院第四个五年改革纲要(2014-2018)》的要求,我国法院将对工作人员进行分类管理,即分为法官、司法辅助人员、司法行政人员三类。由于法官从事的是司法裁判这一法院的核心工作,因此法官的员额受到了比例限制(即中央政法专项编制的39%以内)。根据这一制度设计,这三类人员从事的工作内容应当是有很大不同的。
 
  就目前而言,如果仅考虑到信息技术以及人工智能技术的发展水平,那么法院对法官的需求并不会立即下降,许多人担心的大规模裁员并不太可能。但是对法官之外的司法辅助行政人员以及司法行政人员而言,他们则会面临相对紧迫的处境。这和其他行业的内部管理信息化、自动化是同样的道理。早在上个世纪,随着电脑取代了打字机,打字员这个职业几乎灭绝。现如今,随着新一轮信息化浪潮的来临,许多传统办公环境中的工作都会减少对人力资源的需求,甚至也会彻底消失。
 
  当然书记员这类工作岗位依然还会保留一段时间。毕竟目前的语音识别技术还不完善,仍然需要人工调试和监督。特别是在中国这样一个构成复杂的大国,司法工作人员需要面对不同地域的方言以及不同民族的语言,如何识别这些语言,以及在这些语言之间进行准确翻译和切换,都是浩大繁杂的工程。所以在这些技术成熟之前,现有的辅助人员和行政人员还需要继续“站岗”。
 
  当然这也不意味着,法官可以高枕无忧。即便机器人法官可能将长期处于弱智能状态,但我们的社会生活却没有停止智能化。可能在其他生活领域,例如某些消费领域,社会关系及其行为的智能化程度已经达到相当高的程度。如果我们把阿里巴巴的淘宝平台视为一个独立的社会系统,那么这个系统对商家和消费者的行为习惯是高度掌控的。因为从用户注册到商品下单以及用户反馈,所有法律关系的构建,所有交易行为的进行,都是在这个平台设置的环境中实现的;平台不仅掌握了大量用户信息,而且设置用户的行为方式以及纠纷解决方式。如果在这个平台内发生的纠纷,能够被它内部的智能化纠纷解决机制所处理,那么也就不会进入法院,等待人类法官的发落了。当然,目前淘宝平台的纠纷解决系统尚且达不到自主裁判的程度,依然需要与线下的法院、法官进行对接。但是当法官处理这类案件时,会发现淘宝平台从一开始就对许多法律工作进行了规范化处理,例如当事人身份、联系方式、地址的搜集,纠纷双方的争议焦点的归纳,以及部分证据的保留等等。因此法官在审理相关案件时也就较为清闲。甚至可以说,随着这类平台自身智能化程度的提升,也许到了某一天,法官会清闲到开始怀疑,自己对这类平台内出现的纠纷还保留有多大的影响力。
 
  同理,如果在具体某个生活领域,例如法律教学、文学创作或者交通管理,人类所有的行为都被信息系统记录在案(例如支付宝、微信或者电子眼),所有相关法律关系都被纳入到某个信息化系统之中,那么其中涉及到的法律问题以及事实问题也就会越来越规范化,纠纷也就越来越易于解决。换言之,智能化程度越高的生活领域,法官介入的必要性也就越少。因此,机器人法官能否取代人类法官,不仅取决于机器人技术能否模拟或者预测人类法官的思维和行为,还取决于人工智能技术在司法之外的各个社会领域的发展水平。因此,过去由法院法官承担一部分工作,也许会分流到其他社会领域中去,其他社会领域可能也会出现智能化的机器人来解决纠纷。到了未来的某一天,也许我们很难说是机器人技术取代了人类法官,而更应该承认,法官作为一项社会分工,已经逐渐失去了它的社会价值。
 
  ii. 对自由裁量权的控制
 
  韦伯曾经说过,法律的法典化降低法官尊严。因为法律的形式化、理性化,会让法官变得越来越不自由。像机器一样工作,在某些人看来这可能意味着严谨和高效,但对一个法官来说,如果把他比作机器人,这却很有可能是一种侮辱。同案同判是我国司法系统大力宣扬的一项司法政策,似乎这也几乎是法学界一致认可的共识。不过我们也不应忽略,韦伯自己并非一味地宣扬他所谓的“形式理性法”,相反他对此还怀有不少疑虑。法律制度的理性化程度越高,实际上也就相当于法官的自由程度越小。在具体历史阶段,这种趋势或许是进步的。但是从人类社会发展的整体角度看,难道说法律制度的未来,就必然要将法官的自由裁量权限制到极致?
 
  我国是大陆法系国家,法官被要求尽量做到同案同判,而且司法体制一直被诟病为“行政化”。但是,因为我国是个大国,区域差异、城乡差异极大,所以具体到法官从事裁判工作时,很难做到全国范围内的同案同判。虽然最高法院颁布了大量司法解释以及指导案例,在实际效果上也无法统一全国范围的司法裁判尺度。而人工智能技术进入法院,无论它是弱是强,只要它能在全国范围内按照统一标准铺开,那么都会在很大程度上限缩法官的自由裁量空间。因为一方面,人工智能系统会按照统一的规格,让整个诉讼流程中的信息(包括法律规范和案件事实)都更加标准化,不会在留给法官多少自由解释发挥的余地;另一方面,法官的每一步操作都有机器人相伴,因此实际上处于被严格监控中,甚至可能连一个多余的空格或者标点符号都打不出来。因此即便今天的机器人法官可以被定性为法官助手,但它其实还起到了监督者的作用。可能随着它的介入程度不断加深,被辅助的法官会逐渐觉察出,自己反倒更像是机器人的助手。
 
  今天依然有不少人认为,即便人工智能会削减一定数量的司法行政人员甚至司法裁判人员,但要说机器人完全替代人类那还为时尚早。毕竟今天的法律规范,还是用人类语言或者自然语言来书写的,其中许多价值判断内容,如前所述,都是机器人无法“理解”的。因此,只要人工智能技术尚未发展到可以掌握自然语言以及价值判断的程度,那么人类法官也就不可能被机器人彻底淘汰。而问题恰恰也就在于,无论自然语言还是价值判断,都是今天人工智能技术正在持续不断进攻的壁垒。今天我们对于司法自由裁量权的信心,不过是建立在人工智能技术尚不“发达”的前提之上。也许库兹韦尔的“奇点”永远都不会到来,但技术总是在一天天进步的,一些微妙和微小的变化,或许已经正在发生。
 
  且不论机器人技术或者人工智能技术,更一般意义上的信息技术,就已经对既有司法制度包括不少人的司法理念产生了影响。例如已故上海法官就提出了“法院的可视化管理”概念,主张搭乘信息化的东风,促成法院内部事务在管理学意义上的可视化。通过信息技术,所有法律工作作为一个整体系统,能够全面地展现在管理者眼前;不同工作、事项、人员之前的关系都是可控的,特别是矛盾和问题,都能够被及时发现和处理。更重要的是,对法院内部事务的管理,势必会对法官的司法裁判产生直接的影响甚至干预作用。譬如说,对法官的绩效考核涉及到法官判案的审理时间、结案率、上诉率、判决书信息输入错误率、请示案件数等等,基本上涵盖到法官从事审判活动的每一个步骤。也许法官的审判思维和判断过程永远都是个人的和私密的,但是只要付诸于文字,付诸于行动,法官的一举一动都将处于可视化管理之中。如果这套可视化管理系统是智能化的,那么我们也就不必把机器人法官想象成人类法官的替代品,而可以把它想象成一个无所不在的司法管理者。
 
  因为更为关键的问题,可能并不在于机器人法官与人类法官之间的竞争,而在于究竟由谁来设计和控制人工智能技术。如果未来的人工智能技术能够识别自然语言以及能够进行价值判断,且不论在多大程度上达到甚至超越人类,那么此时最为重要的问题,就是人类是否还能保持对人工智能技术本身的“自由裁量权”。就像在科幻作品中,例如《2011太空漫游》或者《黑客帝国》,机器人已经发展到我们所谓的超人工智能水平,人类反倒被机器人控制和奴役。而这也是科幻作家最为津津乐道的主题。但是,人与机器之间的关系问题,或许更多属于科幻的问题意识,对我们法律人来说过于超前了。而根据某些哲学、宗教立场,在人机关系问题上,机器人永远都不可能拥有人类的“智慧”或者“灵魂”。至少就目前而言,更值得我们关注有的问题,可能还不是人机关系,而依然是以人工智能技术为中介的人与人之间的关系。
 
  机器人技术对司法带来的变化,以及即将带来的变化,首当其冲针对的就是司法工作人员。而对法官这一群体来说,在最终失去饭碗之前,最大的变化就是司法裁判过程将会受到更多的监控与制约。这到底是好事还是坏事,肯定会有不同的观点。总有人愿意生活在一个较为宽松的环境里,在这个环境下有基本的秩序或者规则,但具体内容以及实现方式可以有多种选择,存在较大的不确定性;而也会有人愿意生活在一个秩序井然的“法治国”(Rechtsstaat)中,事无巨细都被既定规则考虑到了,凡事都有规可循,人们也无需从事有风险的选择。对待法院工作特别是司法裁判也是如此。有的法官希望自由裁量权越小越好,从而规避自己的职业风险;但也有的法官会愿意享有更多更大的自由裁量权,每天都可以进行新的尝试与探索。
 
  iii. 司法权力的集中化
 
  在韦伯的法律社会学和支配社会学视角下,法律的形式理性化,是要与法律制度的科层化相互匹配的。当法官裁判工作高度人工智能化的同时,法院管理科层化也会相应提升。所以人工智能不仅仅是司法裁判技术,同时也可以是司法管理技术;机器人法官既是人类法官的辅助者,同时也是人类法官的监督者。
 
  韦伯提出的“理性科层制”至少具有如下特点:(1)人们依据法律或行政规章明确规定的“权限”来办理公务;(2)组织内部形成明确的等级关系,但上级并不能剥夺下级职权;(3)公务和私事严格隔离;(4)官员选任以专业技能为标准,而不是依据社会身份。现代社会的法院,无论西方还是东方,无论大陆法系还是普通法系,也都大体符合上述特征,因此可以说都是高度科层化的组织体系。
 
  至少就目前而言,以及在可以预见的未来,人工智能技术在司法体系内部主要还是作为一种管理技术来使用的。我们暂时还没有必要对所谓的“机器人法官”进行过于科幻或者浪漫的想象。从表面上看,人工智能技术正在削减人类法官岗位以及限制自由裁量权,但对司法制度更深层次的影响,还在于它会进一步强化司法体制的科层化。而这一科层化进程,在韦伯看来恐怕还是整个现代社会理性化的延续。换言之,人工智能技术并没有带来断裂式的革命效果;相反,它更可能是一种“逆革命”(counter-revolution)技术,继续强化既有的权力关系。
 
  目前全国智慧法院的建设,是由最高法院提供“顶层设计”,地方各级法院具体实施。因此在各地法院之间,人工智能技术的内容和标准还很不一样。这样一种建设方式,可以通过地区法院之间的竞争来筛选出较好的技术标准,从而避免一刀切式的改革,增加制度改革的灵活性。值得注意的是,最近建设智慧法院或者信息法院的浪潮,一方面的确是受到了人工智能技术的影响,另一方面也是在迎合我国法院系统自身进行司法改革的内在需要。通过人工智能来优化或者重构法院内部管理体制,可能也是很多人提倡智慧法院建设的一个主要动力。
 
  由此也可以想见,随着人工智能技术的成熟,或许真有一天,全国法院系统内部会建立起一套整齐划一的人工智能系统。如果是这样,那么人工智能技术控制的对象就不仅仅是处于司法裁判岗位的法官,而是要把最高法院以下的各级别各地区法院机关都要囊括在内。全国法院的权力,也会因此越来越向最高法院集中。也许到了某一天,全国所有地方法院都会沦为最高院的派出法庭。所以以“去行政化”为主要目的的制度改革,到最后可能会走到一个悖谬的极端,那就是反而会强化司法权力的集中化。
 
  ∏ #小结#
 
  目前关于人工智能的多数讨论,针对的都是人机关系。但是通过本文的讨论,我们可以发现,至少在司法领域,至少就当下而言,人工智能技术扮演的主要角色,依然是处理人与人之间关系也就是制度关系的一种中介。无论在弱智能还是强智能水平上,所谓的机器人法官都不可能完全替代人类法官。但是,它又会真真切切地挤压人类法官的工作空间,并且对法官工作加以高强度、全方面的控制。而这种控制,归根结底,依然是来自于人的控制,依然是一部分人对另一部分的控制。如果我们把这种控制关系理解为人机关系,那么也就可能像卢德运动中的那些工人一样,把错误的对象当做假想敌。
 
  技术本身的确是中立的。而且,我们的生活已经因为人工智能技术而享受到了不少好处。从历史角度看,许多人类工作被机器取代都是社会发展的需要。因此,在人工智能进入司法领域的过程中,人类法官受到的某些损失可能也是难以避免的,我们不能仅仅因为这部分人的这部分损失,就对人工智能技术唱反调。
 
  但是,我们也没有必要对人工智能技术给予过于美好的想象。斯加鲁菲说人工智能技术会让人类变得更傻。这话说对了一半。更准确地说,社会中总有一部分人会因为科技进步而变得更傻,而总有另外一部分人可能会因此变得更加聪明。变傻的人总是大多数。因为这部分人会因为极度依赖人工智能来生活和工作;而另一部分人,则会凭借人工智能技术获得更多的社会资本,从而巩固他们的社会精英地位。因此,大部分人对人工智能技术的依赖,实际上也就成了对另外这一少部分精英的依赖,从而体现为支配与被支配的关系。但人工智能技术在强化这种关系的同时,会非常巧妙地对其进行掩盖或者美化。
 
  就司法工作而言,包括法院管理和司法裁判,人工智能技术其实正在强化人类法官的工具性角色,让人类变得像机器一样越来越可控,像零件一样可以替换。而随着人工智能的进一步发展,将来的司法裁判工作可能会变得高度“傻瓜化”,人类法官无需掌握太多知识以及接受太多培训也能胜任司法工作。就像导航软件让“路痴”也能上路,无人驾驶技术让盲人也能开车一样,过去人们所必须掌握的一些技能,完全可以让机器去学习,让机器为我们代劳。所有真正有效的司法知识,可能会被隐藏到人工智能的算法“黑箱”中去,仅仅被少部分掌握人工智能控制权的人类所掌握。
 
  因此,由谁来设计司法人工智能,以及如何来使用、控制和改造机器人法官,也就成了更为根本的问题。现代国家的正式政治话语大都承认,法律必须经过民主程序方可获得正当性。但是在人工智能时代,计算机代码是否也应当以及如何接受民主程序的审核呢?莱斯格说“代码就是法律”,其实是把计算机代码描述成一种架构(architecture),一种宪制(constitution),而非文本意义上的法律。也就是说,法律所具有的实效,将取决于它所处的社会环境和技术条件。实际上这也还是常识:即便法律文本赋予了人们平等的权利,但这种权利只是一种允诺,一种完全可能落空的允诺;权利的兑现,必须依赖于法律制度所处的社会环境以及人自身的奋斗和努力。而人工智能技术,它并不必然成为“为法权而斗争”的工具;实际上它倒是很有可能,成为人类历史上前所未有的高效社会控制手段。
 
  对今天的普通民众而言,包括对仍在法学院学习、研究法律的学生和教师而言,人工智能技术已经或者可能为我们带来极大的便利。例如,“法盲”们只需在手机上下载APP就能处理简单的法律问题;法学院学生也能通过法律人工智能服务用总结、归纳司法考试的重点、要点,并且提供精准度较高的押题服务;教师可以在人工智能的帮助下检索文献甚至写作文献……似乎,人工智能技术已经被我们大多数人所“占有”。但是,只要计算机代码的创作权和控制权依然掌握在少数人手中,民众的这种占有并不是真正的占有。
 
  《共产党宣言》曾经说过,劳动者不仅不应当成为机器,而且还应当成为机器的占有者。换言之,我们应当把人工智能技术作为一种生产资料来占有和使用。也许,这个观点对我们思考今天以及未来的机器人法官,仍然是有点用处的。

 

【作者简介】
岳林,单位为北京大学。





本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
本文转自北大法律信息网,版权属原作者所有。如有问题,敬请及时联系我们。

      运营单位:北大法宝学堂 客服电话:010-82668266-808 客服手机:15801349397(微信同号)

      版权所有 :北京北大英华科技有限公司

      免责声明:本网课程中老师的观点,仅代表其个人观点。