我国司法人工智能建设的问题与应对

时间:2018-06-14 编辑整理:程凡卿 来源:早发表网

内容摘要:随着人工智能技术的飞速发展,司法领域已经开始出现人工智能的身影。在国家人工智能发展战略的号召下,我国司法机关纷纷建立了各自的人工智能办案系统。时至今日,人工智能建设在我国司法中已初具成效,大大提高了办案质量和效率。然而,人工智能在为司法带来便利的同时也带来了新问题。例如,人工智能辅助定位与全面发展如何平衡?如何避免人工智能建设陷入“法定证据制度”误区?如何防范司法数据造假与智能算法的暗箱操作?等问题都有待解决。通过立法建立司法工作者终审原则与证据审核制度,配合科学合理的鉴真规则和统一现代化司法数据库保障人工智能建设的全面发展。同时,培养算法监督专员,规范算法制度,透明决策过程,明确人工智能工作失误归责制度,加强司法员工素质培养与考核监督,进一步规范人工智能的司法运用,确保人工智能从事司法工作的客观与公正。不断完善我国司法机关人工智能建设,为早日实现人工智能强国梦而服务。

关键词:司法人工智能算法 人工智能办案系统 司法数据库

人工智能(ArtificialIntelligence,AI),它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。在国外,人工智能系统不仅在医学、围棋领域取得了骄人的成果,更开始逐步进入司法领域从事司法工作。2015年,美国的ROSSIntelligence公司率先推出了人工智能律师ROSS,提供24小时网络在线法律咨询服务。2016年,英国伦敦大学学院、谢菲尔德大学和美国宾州大学的科学家组成研究小组开发了人工智能审判预测程序,已经实现了对审讯结果的预测,准确率达到79%。2017年7月,国务院发布《新一代人工智能发展规划》(以下简称《规划》)将发展人工智能建设提升至国家战略。我国司法机关也对此作出了积极回应。最高人民法院、最高人民检察院相继发文表示将加快人工智能在司法领域的建设。全国各级司法机关也陆续推出了自己的人工智能办案系统。例如北京市法院的“睿法官”、北京市检察院的“检立方”、上海市法院的“上海刑事案件智能辅助办案系统”、江苏省检察院的“案管机器人”等。在这些人工智能办案系统的协助下,司法工作的效率和质量大大提高。但是我们也应当意识到,人工智能为我国司法机关提供便利的同时,也带来了新的问题。例如,人工智能辅助定位与全面发展如何平衡?如何避免人工智能建设陷入“法定证据制度”误区?如何防范司法数据造假与智能算法的暗箱操作?人工智能工作失误责任如何承担?司法数据库是否符合人工智能建设需求?等等。这些新挑战都急需相应的完善措施予以应对。笔者将对此展开讨论。

一、我国司法机关人工智能建设面临的新问题

自国务院印发《规划》以来,我国司法机关人工智能的建设已经取得了阶段性的战略成果。人工智能办案系统已经实现了司法文书、电子卷宗自动生成,证据校验、审查判断自动提醒、类案智能检索等便利的功能。但是司法人工智能的建设依然要面对一些新的问题。

(一)人工智能辅助定位与全面发展如何平衡

人工智能在司法工作应当处于何种地位?扮演何种角色?我国理论界与实践界普遍认为,人工智能是司法工作者的重要辅助力量,但不能完全取代司法工作者。司法机关如果让人工智能超出辅助性手段的范畴而全面应用于审判案件,甚至在很大程度上取代法官的判断,那就很有可能把司法权引入歧途。因为在案件事实曲折、人际关系复杂、掺杂人性和感情因素的场合,如何根据法理、常识以及对细微的洞察作出判断并拿捏分寸进行妥善处理其实是一种微妙的艺术,不得不诉诸适格法官的自由心证和睿智,即使人工智能嵌入了概率程序,具有深度学习能力也很难作出公正合理、稳当熨帖、让人心悦诚服的个案判断。但是,一味避免让人工智能全面应用于司法工作,又会与《规划》要求相违背,并大大限制人工智能处理司法工作的潜力。《规划》对智慧法庭的建设要求是:建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化。最高人民法院院长周强在全国法院第四次信息化工作会议上强调:“以是否达到‘全业务、全流程、全方位’作为评价智慧法院的基本标准和主要依据。”这都说明智慧法院的建设必须将人工智能全面应用于司法工作。这就会给司法机关人工智能建设造成困扰,如何在保证人工智能辅助地位的同时又能使人工智能符合《规划》的要求全面参与司法工作?实践中,多数司法机关的做法是将辅助办案系统“有限智能化”,即牺牲人工智能的判断、决策能力来保证人工智能的辅助地位,以便全面参与各种司法工作。这种“有限智能化”会导致我国司法机关的人工智能建设停留在智能搜索、智能对比、智能识别等“弱人工智能”层面,无法成为能对司法工作进行综合性、整体性预判的“强人工智能”。《规划》的战略目标指出:“到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心”,“有限智能化”的建设方式将会严重拖累司法机关人工智能赶超国外同行的步伐,无法实现达到世界领先水平的目标。

(二)人工智能建设易陷入“法定证据制度”误区

人工智能协助司法机关工作的优势之一就是可以依照统一的证据标准运用证据。通过将法定的统一证据标准嵌入到公、检、法三机关的数据化刑事办案系统中,并且连通了公、检、法三机关的办案平台。这将极大地促进公检法三机关办案人员执行统一的证据标准,“倒逼”侦查、审查起诉、审判各个诉讼环节严格按照法律的规定办理刑事案件,把刑事诉讼的各项制度落实到每个办案环节中,确保侦查、审查起诉的案件事实证据经得起法律检验,有效解决刑事诉讼中适用证据标准不统一、办案程序不规范等问题。但如果证据运用的指引标准设定不当就会使人工智能建设陷入法定证据制度的误区。在欧洲中世纪之后,由于包含单方神意裁判、双方神意裁判(司法决斗)及宣誓涤罪等“非理性”因素的宗教证据为所有欧洲国家摒弃,以发挥法官理性智识为核心的理性证据制度开始盛行。其中,由于罗马教会证据制度在刑事证据立法上确立了十分精确的证明力等级体系,详细规定了每种证据形式的可采性、不同种类证据在诉讼中的证明力以及证据间出现证明力冲突时的优先取舍问题。近代学者又将罗马教会刑事证据制度概称为“法定证据制度”。“法定证据制度”要求每一种证据的证明价值都是由法律明文确定的,而不是根据证据的实际情况来确定,法官没有评判的自由,也不能根据其内心确信和良知意识作出认定。刑事案件只要存在那种符合法定证明力要求的证据,法官即应作出有罪判决。这是一种形而上学的证据制度,它限制了法官的理性,使他不能按自己的思维逻辑和信念来认定案件事实。它只能在诉讼中达到法律所要求的“形式真实”,而不可能真正查明案件事实。因此,“法定证据制度”又被称为“形式证据制度”。人工智能对证据的运用与法定证据制度非常相似。任何法律专家系统软件都意味着作出一种纯粹的法律实证主义预设。计算机可以处理法律条文内容中的三段论推理以及关于“要件—效果”的条件式推理,也可以处理案例特征与数据库检索到的基础案例特征之间的类似性并进行倾向性推理和判断,但却无法适当表现那些决定有效规范在适用上的优劣顺序的元规则。诸如自然法、权利保障、天理人情、有教少诛重预防之类的思辨性要素都会被排除在人工智能的判断标准之外。这就如同法定证据制度将法官的“自由心证”排除在证据判断规则之外。人工智能判断证据的指引标准设定如果只注意统一规范化,而忽视了证据判断所需要的经验法则、逻辑规则和理性良心等思辨性要素。人工智能对证据的判断必然会走入法定证据制度的误区而无法实现实质上的司法公正。

(三)数据真实性缺乏保障,算法“暗箱”缺乏监督

人工智能发展的基石是算法与数据,建立并完善围绕算法和数据的治理体系与治理机制,是人工智能时代公共政策选择的首要命题,也是应对治理挑战、赋予算法和数据以主体性的必然要求。与司法工作者不同,人工智能对证据的审核与运用完全依托于电子数据。如果电子数据本身无法保证客观、真实,那么人工智能所得出的判断结果也不再具有参考价值。如何保障电子数据的真实性一直以来困扰着司法实践。区别于传统证据,电子数据的真实性不能依靠传统方法来确定,而需要从数据信息的技术角度进行分析。目前,我国司法机关尚未针对电子数据的校验技术出台专门的规定。2016年《最高人民法院、最高人民检察院、公安部关于办理刑事案件收集提取和审查判断电子数据若干问题的规定》(以下简称《电子数据若干问题的规定》)中虽对电子数据类证据的审查与判断作出了较为详细的规定,但是对具体采用何种技术手段审查数据的真实性没有说明。随着技术的不断革新,电子数据的防伪和校验技术不断变化,司法工作者在面对日益增长的海量信息和不断变化的技术时,难免力不从心。而实践中又缺乏专门的技术团队来确保数据的真实性,人工智能建设所依赖的数据随时都面临虚假的风险。除了数据本身的真实性难以得到有效保障外,人工智能运用分析数据的核心算法也可能存在暗箱操作的风险。人工智能的建设离不开核心算法的编辑,而司法机关本身对这些技术又不甚了解。实践中,司法机关将核心算法的编辑任务大量外包,造成数据处理公司、电脑工程师对人工智能的影响超过了司法机关。不仅如此,由于司法机关本身不擅长人工智能核心算法的编辑,也就无法从技术层面上对数据处理公司、电脑工程师的编辑工作进行有效监督。这就给核心算法的暗箱操作留下了空间。一旦司法机关人工智能的核心算法被部分别有用心的技术开发者利用,“司法公正”就难免会被算法绑架,而司法机关却因存在技术短板而对此无能为力。

(四)人工智能工作失误的责任承担主体不明

人工智能从事司法工作如果产生了错误,责任由谁承担?这是司法机关人工智能建设必然会遇到的一个重要问题。依据各国的实践来看,有些国家和地区对人工智能承担法律责任的问题采取了较为超前的态度。例如,2017年10月沙特阿拉伯授予美国汉森机器人公司生产的机器人索菲亚公民身份。再如,2016年,欧洲议会向欧盟委员会提出报告,要求制定民事规范来限制机器人的生产和市场流通。其中第50(f)项建议:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格。”而多数国家采取了保守的做法,没有对人工智能是否可以独立承担法律责任作出明确答复。目前,我国也没有针对人工智能的责任承担问题出台专门的法律或解释。尽管《规定》明确要求:“开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。”但有关人工智能从事司法工作的失职责任如何承担,理论界与实务界也未形成统一意见。人工智能失职责任的承担问题直接与司法责任制密切相关。建立和完善司法责任制是司法改革的关键环节。党的十八届三中全会决定中指出,要“完善主审法官、合议庭办案责任制,让审理者裁判,由裁判者负责”。党的十八届四中全会决定进一步强调,“完善主审法官、合议庭、主任检察官、主办侦查员办案责任制,落实谁办案谁负责”,“实行办案质量终身负责制和错案责任倒查问责制”构建和完善司法责任制,是司法公正的重要保障,是权责统一原则的必然要求,也是中西方司法文明共同的经验汇集。而人工智能的失误责任承担不明会对司法责任制的贯彻产生一定的困扰。责任主体不明确不但会造成过错无人承担,还可能造成过错主体之间相互推卸责任,不利于维护司法责任制的贯彻与落实。

(五)对人工智能过度依赖可能破坏法治制度

人工智能的智能程度越高,越有利于其更好的完成司法机关交办的任务。但过于完善的辅助功能又会致使被辅助者产生依赖。假若司法机关的人工智能可以实现证据自动调取、判决自动生成,司法工作者虽对人工智能的预判结果负有审核的义务,但在案件数量激增或办案期限有限等压力下,难以保证自身在长期的工作中不会对人工智能产生依赖。而随着依赖程度的增长,司法工作者本身的办案能力也会逐渐退化,最终成为人工智能“奴役”的对象。一旦这种现象普遍出现,司法工作的核心将被严重颠覆。人工智能的算法将成为司法工作的主导,司法数据库也会成为案件审理的主要“场所”。司法工作者的“自由心证”在整个审判过程中无足轻重,法庭审理流于形式,法庭辩论、上诉审、专家酌情判断的意义都会相对化,最终导致法官的物象化、司法权威的削弱、审判系统的解构,甚至彻底的法律虚无主义。更为严重的是,对人工智能的过度依赖可能导致现代法治的制度设计分崩离析,引起社会结构出现矛盾、混乱乃至失控的事态。司法工作者是连接国家公权力和公民私权利的纽带,是代表司法机关维护司法公正和权威的直接行动者。为此,我国法治制度赋予了司法工作者独立行使司法权而不为其他力量所干涉的特权,并在合法的前提下给予必要的职业保障。为了规范司法工作者严格行使司法权,我国司法制度还建立了最严格的遴选标准,确保司法工作者具备专业的学识和优秀的品格。同时,为了保证司法工作的公开、透明、公正,我国法治制度设立了严密的司法工作程序,防止无原则的妥协和暗箱操作。任何判决都必须经历对抗性辩论和证明的洗礼,通过三审终审的形式,使案件审判经过充分的法律推理和审议,最终得出公正的判决。而对人工智能的过度依赖会打破这种合理的架构。司法工作者的核心作用将被人工智能所取代,严密的工作制度在算法绑架下失去作用。现代法治制度也会因为过度依赖人工智能而全面解构。

 

 

 



职称
论文

期刊
发表

加急
见刊

写作
咨询

课题
专答

编辑
顾问

关注
我们

返回
顶部