设为首页收藏本站

大数据论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 304|回复: 2

郑戈 :人工智能与法律的未来

[复制链接]
发表于 2019-4-10 16:39:08 | 显示全部楼层 |阅读模式
人工智能的迅猛发展不仅仅是一个科学技术领域的新现象,它正在迅速改变人类社会的经济形态、社会交往模式和政治-法律结构。起源于农业社会(无论是古罗马还是亨利二世时代的英国)的“现代”法律体系,能否成功应对人工智能所带来的新的风险和不确定性,能否在人工智能时代继续维持秩序与变革、守护与创新、价值与事实之间的动态平衡,这是今天的法律人所必须面对的紧迫问题。
现代性与人类能力的机器替代
人工智能实际上已经可以将脑力劳动和体力劳动、感知和思维、决策和执行结合到一起,从而更像是一个完整的人。至于是否具有“人形”已经不再重要了,任何关于“人工智能”的拟人化想象都是不必要的。有了物联网、大数据和云计算作为支撑(或组成部分)的人工智能,可以通过它的感官(遍布各处的传感器)获得千里之外的数据,利用自己无比强大的记忆力(联网计算机和云存储)来沉淀和消化数据,利用自己远胜于人类的计算能力(算法和基于“神经网络”技术的深度学习)来处理数据,并在此基础上作出判断和“决策”。
目前,人工智能正以惊人的速度在两大领域推进:一是“合成智能”(synthetic intellects),即我们通常所说的机器学习、神经网络、大数据、认知系统、演进算法等要素的综合应用。它不是传统意义上的编程,也就是说,它突破了“机器只能做程序员编排它去做的事情”这一局限,你只要给它一大堆人类穷其一生也无法浏览完的数据(在互联网的帮助下,这意味着你只要把它联网并通过编程使它具有搜索功能),包括人类智力根本无法理解的无结构数据,再设定某个具体的目标,最终系统会产生什么结果完全不可预见,不受创造者控制。
另一个领域是“人造劳动者”(forged labors),它们是传感器和执行器的结合,可以执行各种体力劳动任务,从海底采矿、外空维修到战场杀敌。当然,离我们生活最近的例子是自动驾驶。这两个领域的结合不仅意味着“机器人”的“头脑”和“四肢”都是很强大的,还意味着“机器人”的大脑、感官和手足是可以分离的,手脚(执行器)可以延伸到离大脑(中央处理器)十万八千里的地方。在“万物联网”的时代,只有不联网的东西才不在人工智能的可控制范围之内。
法律如何更加“智能”地应对人工智能
正如尼古拉斯·卡尔所指出的那样,人工智能是历史悠久的人类工程学的最新发展,而人类工程学是艺术和科学结合的产物,它是为人类追求真善美的目的而服务的。人类不能被人工智能不断增长的能力牵着鼻子走,乃至被带入完全不受人类控制的未来。在笔者看来,为了更好地应对人工智能带来的新风险,在保护创新的同时确保人类生活的美善品质,可能的法律发展包括以下几个向度。
首先,现有的法律模式没有摆脱传统的具象化乃至拟人化思维方式,仅仅将有形的智能化机器或“机器人”纳入规制范围。但是,正如本文已经明确指出的那样,这些有形的机器只是人工智能的一种表现形态,即“人造劳动者”,它们都受一种无形的、弥散化的智能的控制,这种被称为“合成智能”的由算法、网络和大数据组成的无形、无界的存在,才是人工智能的智能所在。
正如李彦宏等敏锐地指出的那样:“……也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工科专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。”这种“顶层设计”,我们可以称之为“人工智能社会的宪法”,它的制定或生成需要法律人和程序员、人工智能专家的合作,以便使算法进入法律,法律进入算法,从而使人工智能的基础操作系统符合人类的伦理和法律。
其次,为了做到这一点,政府应当在发展人工智能方面加大投入,吸收更多的人工智能人才参与立法、行政和司法工作,避免使自己远远落后于商业力量。这在我国比较容易做到,因为顶尖的大学和科研机构都是国家资助和管理的。如果这些人才中大多数都转而为商业机构服务,不仅无法体现社会主义的优越性,也不利于让人工智能向服务于社会公共利益的方向发展。
再次,从现有的各国立法模式来看,欧盟和德国直接修改民事规则和交通法规的做法,是在事实不清、需要解决的问题不明朗的情况下做出的仓促选择,既不利于鼓励创新,也不利于保障公民的权利。在目前这个阶段,比较稳妥的方案是美国式的公法模式,指定一个现有的政府部门负责确立相关的行业技术标准、安全标准和个人数据保护标准,而这个标准不应当是自上而下武断强加的,而应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。
最后,德国的自动驾驶汽车程序设计伦理规范是一个可取的思路。由于人工智能的核心在于算法,算法的设计决定着智能化机器的“行为”。而对于普通人和大多数立法者、执法者和司法人员来说,算法是一个“黑箱”,人们只能看到它所导致的结果,却无法看到它的运作过程。
制定相关规则来约束算法设计者的行为,在发生可疑后果的时候要求程序员用自然语言来解释算法的设计原理,并且追究其相关责任,这显然是一种治本之法。但正如德国模式也只是把这种思路落实为建议性的伦理规范一样,这种规则变成法律仍有很大难度,需要立法者、执法者、司法者和公众都有一定的人工智能知识,能够及时发现可能由算法导致的危害性后果。
在人工智能知识像“普法”一样被普及开来之前,一个过渡性的做法是设立由相关领域专家和法律职业人士共同组成的伦理委员会或“人工智能法院”,按照风险防范而不是纠纷解决的思路来处理相关规则的落实问题。

点评

海!外直播 t.cn/RxmJTrC 禁闻视频 t.cn/RJ7ga9s “绝不照搬西方模式”西方模式是什么?不敢说.①新闻自由,不敢搬,因为害怕人民监督.②官员财产公开,不敢搬,因为害怕腐败曝光.③官员选举产生,不敢搬,因为害怕人民不   发表于 2019-4-19 14:03
回复

使用道具 举报

发表于 2019-4-10 16:39:12 | 显示全部楼层
嘘,低调。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|大数据论坛 ( 京ICP备10002193号-4 京公海网安备110108001289号  

GMT+8, 2019-7-19 07:36 , Processed in 0.320098 second(s), 29 queries , Gzip On.

Powered by Discuz! X3.1

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表