人工智能与算法规制

1、人工智能规制

在人工智能技术日新月异的时代变革中,人类/机器人关系所引发的各种法律、政策和伦理问题紧迫地摆在我们的面前。如何调整“促进”与“规制”人工智能发展的法律价值目标?如何应对人工智能技术带来的社会风险?如何设计人工智能时代的调控规范体系?这些问题不仅涉及对传统法律制度的深刻反思,更是以“未来法学”问题为主旨的有益探索。关于人工智能的规制,多数学者提出规制的进路可以分为技术规制以及用法律规制两种途径。(吴汉东,2017)

技术规制即通过技术来约束技术,虽然科技水平的发展成熟是解决风险问题的重要环节,但考虑到技术的复杂性、不确定性等特点,技术所产生的问题往往是无法仅靠其自身解决的。因此,解决人工智能安全问题还需要充分发挥规则进路的重要作用。尤其应当用法律来规制人工智能。用法律规制人工智能又可以分为法律规制人工智能本身,大致有三种解决途径:伦理设计、限定应用范围以及限制AI的智能水平。以及法律规制人工智能背后的人,即通过规制研究、生产人工智能的人,达到规制人工智能的目的。(王成,2019)

人工智能的产出物或智力成果愈来愈多,由人工智能导致的侵权损害也在逐渐增加,因为有人工智能这一特殊实体的存在,其产出物所有权、智力成果知识产权的归属和侵权损害的责任承担打破了现有的法律体系,成为目前人工智能领域一个急需解决的难题。具有法律主体资格,才具有民事权利能力,对人工智能法律地位的肯定、否定或是有限肯定,是确定其产出物所有权、智力成果知识产权归属的前提条件。而只有拥有了享有法律权利尤其是财产权的能力,人工智能才有独立承担法律责任的可能性。(贺栩溪,2019)

实践中,在日本已有人工智能取得公民身份的案例。立法实践中,《欧盟机器人民事法律规则》(2017年立法建议),提出赋予最先进的自动化机器人“电子人”地位;俄罗斯首部机器人法草案“格里申法案”(2017年)主张将具有主体性的机器人归入法人行列,作为法律上的准主体;爱沙尼亚机器人法草案(2017年)主张赋予人工智能代理人的法律地位,引发了国内外学者对于人工智能主体地位的思考,目前国内直接讨论人工智能法律地位的研究并不多,有限的研究中,支持与反对意见针锋相对。境外哲学家、科学家以及法学家对是否赋予人工智能法律人格也展开过激烈的争论。(刘洪华,2019)

也有学者认为不能只依靠法律法规治理,还应当依靠伦理规制、行业规制、自律规制等方式。(马长山,2018)因为人工智能产业的特殊性,加强伦理规制,(孙那,2019;刘宪权,2018)恰当处理人和机器的关系也成为学界普遍探讨的问题。人工智能对行业发展具有极大促进作用,推动法律行业随着技术的使用向前发展,不仅从商业角度来看很重要,而且也具有道德义务使用技术(Andrew Arruda,2017)。因此,需要在遵守人类主体性、人工智能工具性的基础上(王禄生,2019),通过规则、系统和专业知识等加强人们对人工智能的信任。(Robin C. Feldman 、Ehrik Aldana、Kara Stein,2019)人工智能的发展也引起了行业的恐慌,法律从业者担忧自身有可能会被机器替代,但法律是对人类共识中的自由和平等概念的回应(W. Bradley Wende,2019),职业律师面临的客户是人类,这意味着其不止需要精密的计算,还与要人与人之间的情感互动,因此执业律师不需要担心失业(Catherine Nunez,2017)。


2、人工智能的主体地位

是否赋予人工智能体法律人格,对外是研发与运用人工智能的前提,对内则是确立人工智能体权利、义务乃至责任的基础。(彭诚信、陈吉栋,2019)中国学界主流观点反对赋予智能机器人以法律人格。从理性主体预设的角度出发,人工智能不具备欲望机制,因而不具备主体性;将人工智能拟制为法律主体,当前并无迫切的现实需要,也缺乏可行性。(龙文懋,2018)还有学者从哲学角度论证人工智能不能是法律主体:从存在论的角度看,人工智能产品处理的领域是有限的;从认识论的角度看,人工智能产品无法获得真正的理解;从价值论的角度看,人工智能产品无法获得真正的自由;因此,人工智能产品无法真正地获得主体地位。而且,即便有人认可某些人工智能产品的主体地位,这种地位也是人类所赋予的(孙伟平、戴益斌,2018)。有的学者从法律客体中的特殊物角度认为,当前的人工智能未发展出理性,不可取得类似于自然人的法律主体资格,为其拟制一个法律人格对社会问题的解决并无重大意义,赋予其法律人格理由不足。但是人工智能不同于一般的物,鉴于其智能上的“类人”属性,应其界定为法律客体中的特殊物。(刘洪华,2019)但也有学者认为,人工智能的风险来自法律制度的技术设计,重点在于防范人工智能技术对社会关系中的人类造成的风险来规范人工智能的科技研发、设计、制造和使用行为,而不是将人工智能本身纳入法律主体的范围来规范,从注重风险的解决角度,将人工智能视为研发者、制造者和使用者的法律行为似乎更为恰当。(李爱君,2018)

亦有学者对人工智能获得法律主体地位采取支持的观点。如有学者通过分析权利主体的历史演进过程,认为物种差异已经不应成为智能机器人获得权利主体地位的障碍。承认并赋予机器人的权利主体地位,既是权利发展的内在规律,也是社会发展的必然趋势。(张玉洁,2017)类似的,也有观点将民事主体资格作为一种开放的概念体系,并认为给予智能机器人以主体资格,通过对法律位格和法律人格的历史分析,展望法律主体回归法律位格。从人类法律的演化过程看,未来法律位格的配置会扩展到人工智能和信息网络空间中的新事物。(张绍欣,2019)同时,还有学者认为人工智能虽然不能被赋予生物人的法律人格。但赋予人工智能法人人格是可行的,这样既有利于保护自然人的财产权利,也有助于促进法学顺应科技和社会发展的潮流。(朱程斌,2018)

部分学者则采取较为折衷的态度。如认为对于机器人的法律人格,仍然要以坚持机器人是法律客体为原则,但可以在特定情况下,运用法律拟制技术,将其认定为法律主体,在弱人工智能下,能力不足,作为主体依赖自然人情况下,创造类似法人的人造人即“电子人”。(郭少飞,2019)也有学者认为,人工智能虽然具有法律人格,可以独立自主地实施法律行为,但并不具有承担完全责任的能力与地位,其所获得的人格属于有限法律人格。(袁曾,2017)


3、人工智能与法律体系

人工智能的发展,对既有法律体系产生了冲击,这种冲击体现在各个部门法规范中。

(一)人工智能与刑法

在刑法方面,学者的基本立场完全指向技术的促进,刑法则不加干涉。认为刑法应谨慎界定过失行为,防止造成人工智能技术的萎缩。在此立场的基础上,控制故意滥用人工智能技术,防止法益侵害行为。(储陈城,2018)人工智能产业的发展,从刑法学的视角,讨论其刑事风险、责任主体甚至刑罚体系等。

从其可能引发的刑事风险来看,有的学者认为大致可以区分为“使用人工智能造成事故的风险”和“利用智能机器人进行犯罪的风险”两种场域。(姚万勤,2019)有的学者认为人工智能引发的风险有2种,内在风险和外在风险。(刘宪权、林雨佳,2018)专用人工智能的内部风险围绕海量数据与智能算法而产生的,其外部风险则表现为对人工智能技术的滥用,以及转化为现实危害的安全威胁。(赵秉志、詹奇玮,2019)

就人工智能是否应被赋予刑事犯罪的主体地位承担刑事责任,学界存在2种观点。

否定说认为,人工智能只是人类为自身之目的而研发的高级工具,它无法被赋予“权利义务统一性”,难以改变二者之间的主客体关系。(冀洋,2019)智能机器犯罪主体评价具有人类依附性、智能主体不具备单独的认识和意志因素、智能产品的行为来源于人类思维的输出。纵使是在人工智能时代,强智能机器也无法凭借代码和编程,而成为独立的刑事责任主体。(熊波,2019)从刑事责任的本质与功能出发,作为行动主体的人工智能体既不具备选择行动的意志自由,也不具备行为规范的理解能力,更无对刑罚的感受力,因此无法作为承担刑事责任的主体。(孙杰,2019)现阶段人工智能不具有刑事责任能力,应当通过追究研发者与生产者的责任救济受害者。(姜涛、柏雪淳,2019)

肯定说认为,应当动态地看待人工智能的发展,主张在不同的发展时期建构不同的责任分配体系。(刘宪权,2019;李婕,2019)以人工智能产品是否具有辨认能力和控制能力,可以将其划分为弱人工智能产品与强人工智能产品,两者的刑事风险和责任不同。弱人工智能产品不具有辨认能力和控制能力,作为犯罪工具不承担刑事责任。强人工智能产品具有辨认能力和控制能力,具有独立人格和刑事责任能力,应承担相应的刑事责任。强人工智能产品的设计者和使用者未履行预见义务和监督义务,可能承担相应的刑事责任。(刘宪权,2018)人工智能机器人具有机械性和自主性特点,刑法应拟制其法律人格,确认其罪过,避免人工智能技术风险上升为刑法风险。(李婕,2019)智能机器人在设计和编制的程序范围内实施严重危害社会的行为,应当由研发者或使用者承担刑事责任;智能机器人超出设计和编制的程序范围实施严重危害社会的行为时,应将其作为刑事责任主体进行刑罚处罚,智能机器人不能和研发者成立共同犯罪,但有可能和使用者构成共同犯罪。(刘宪权,2019)

(二)人工智能与民法

人工智能对民法体系也有所冲击。我国正在制定的民法典也需要与时俱进,积极回应人工智能时代的各种挑战,妥当设置相关规则、制度,在有效规范人工智能技术的同时,也为新兴技术的发育预留必要的制度空间。人格权制度、数据财产保护、知识产权保护、侵权责任认定和承担等,都需要随着人工智能技术的发展而作出必要的调整。(王利明,2018)人工智能对侵权责任法的冲击,集中体现在对责任构成要件的重新审视。在弱人工智能时代,人工智能侵权在侵权归类以及归责原则两方面造成冲击。在强智能时代,主体地位和责任证明将会成为问题焦点。(李坤、海徐来,2019)

人工智能法律地位,学界存在2种学说。否定说认为,人工智能的发展具有周期性,强人工智能时代囿于技术难度和人类态度很难来临。赋予人工智能民事权利能力,确认其民事行为能力和民事责任能力,缺乏法理基础。现行民事制度对于调整人工智能法律问题能够发挥主要作用,赋予人工智能民事主体地位将严重冲击现有法律制度体系和结构。人工智能是人类的工具,在法律上仅能界定其为民事权利的客体。(房绍坤、林广会,2018)人工智能产品不具有承担责任的能力,其法律地位类似于未成年人。人工智能产品产生的责任,需要由制造者或使用者替代承担。(梁鹏,2018)人工智能自身不具有法律人格包括有限法律人格。人工智能工作物致人损害的责任主体应该是自然人、法人或非法人组织;基于人工智能的特点,其工作物致人损害责任与一般产品责任既不存在竞合,两者也不等同;该类民事责任主体,除生产者、销售者外,工作物操作者、使用者也应包括在内。(环建芬,2019)肯定说认为,据创造者、生产者能否控制人工智能为标准,可将人工智能划分为弱、中、强三个层次。在此基础上解决人工智能导致的一系列民事责任问题。弱人工智能可视为物,不赋予其法律主体地位;对于中人工智能,生产、创造者以能够控制的范围为限承担相应民事责任或者监护责任;强人工智能能够完全摆脱生产者和创造者的控制并自行创造新的人工智能,法律应赋予其独立的主体地位,将其视为拟制人或者一种特殊的法律主体。(袁洋,2019)可借鉴法人及非法人组织主体地位确立的经验,赋予其民事主体资格。(刘小璇、张虎,2018)

作为人工智能基础的数据引发了隐私问题,(郑志峰,2018)有学者以学生隐私保护为切入点,主张在教育智能设备开发、社会组织协同设置教育行业自律条例、学生隐私制度建构辅以机构设立等过程中嵌入隐私权及限制识别技术。(侯浩翔,2019)但技术的问题也可以用技术解决,人类同样也可以利用AI及相关的计算方法加强对个人隐私的保护。(Andrea Scripa Els,2017)隐私保护和行业发展的平衡是其中关键,对于2018年生效的GDPR,有学者认为其对个人数据强有力的保护不利于AI的学习和发展,对GDPR的规避行为可能会阻碍欧盟AI产业的发展。(Matthew Humerick,2018)

总而言之,针对人工智能的法学研究,首先要分清真问题还是假问题,(王迁,2019)同时承认法律的滞后性缺陷,立足于法理讨论人工智能问题。(李琛,2019)

(三)人工智能与劳动法

如何看待人工智能的发展对于劳动法的冲击,学者态度不一。部分持消极态度,认为人工智能不能成为劳动者,人工智能发展将导致大范围的失业,同时劳动者的隐私在智能化环境下也面临巨大风险。(田野,2018)与之相对,也有学者提出,技术进步并非失业的“罪魁祸首”。积极就业效果取决于合理制度的建立,劳动法可以利用技术进步影响的阶段性,使科技革新下的劳动者能够共享人工智能的成果。(翁玉玲,2019)抱有开放积极态度的学者则认为,在人工智能时代,要从过去只关注保护标准劳动关系,转向更加重视非典型劳动关系的保护,把市场化机制和弹性化用工带来的就业不安定风险,从主要由企业承担的单一模式,转向由社会共担的开放和包容模式。(田思路、刘兆光,2019)

(四)人工智能与知识产权法

知识产权领域的讨论主要集中于人工智能主体地位、创造物的客体属性及保护路径、权利归属以及人工智能创作侵权的责任分配等问题。

就主体而言,国内外学界形成五种学说,即否定作者资格论、法人意志下的创作者论、拟制的创作受委托人论、创作雇员论以及电子人拟制人论。(史永竞,2019)学界就现阶段人工智能的非主体地位达成共识,但对未来人工智能的发展存在分歧。部分认为未来AI亦不具有主体地位(许春明、袁玉玲,2019),但部分认为知识产权法应适时承认人工智能具有作者和发明人的身份(曾炜、曾姣玉,2019),还有部分则提出应当根据具体发展做相应调整(程梦瑶,2019)。另有学者采取折衷方式,认为可以赋予部分人工智能法律人格,但应根据“最密切联系”原则,为其设置“管理人”代为行使权利承担义务。(孙那,2017)还有学者主动规避主体问题,承认现阶段人工智能发展的复杂性,主张通过雇佣原则(hire doctrine)中的“雇主”和“雇员”避免谈论复杂的主体问题,而直接解决人工智能作品的版权归属问题。(Kalin Hristov,2017)

就人工智能创造物属性的探讨,主要有两个视角。其一为将之纳入知识产权框架,争论是否应当将之作为知识产权客体进行保护。一派观点以王迁教授为代表,从现有人工智能创作过程出发,认为迄今为止人工智能生成物都是应用算法、规则和模板的结果,不能体现创作者独特的个性,并不能被认定为作品。(王迁,2017)并进一步认为应当归属于公有领域,冒名发表等问题可通过法律解释在现有规范体系内加以解决。(曹博,2019;Victor M. Palace,2019)但出于促进人工智能产业发展的考虑,应将其作为著作权的特殊保护对象进行调整。(李俊,2019)另一派观点则主张人工智能创造物可以作为知识产权客体,认为人工智能生成的技术方案(刘友华、魏远山,2019)、发明(李宗辉,2019)等在满足条件是可以通过专利权进行保护,人工智能创作物具有“作品”属性(田原、叶文芳,2019),人工智能诗集是著作权法的“作品”(李伟民,2019)。但王迁教授认为这是在不披露相关内容由人工智能生成时,因其具备作品的表现形式而实际受到的保护,主张该现象是举证规则造成的,并不意味着著作权法因人工智能而改变。(王迁,2017)就具体保护路径而言,人工智能生成物可作为普通作品(李伟民,2019)、汇编作品(田原、叶文芳,2019)、职务作品或职务发明(曾炜、曾姣玉,2019)、或创设邻接权进行保护(秦涛、张旭东,2018)。并从权利名称、权利主体、权利客体、权利内容和保护期限等制度入手设置具体的保护制度。(秦涛、张旭东,2018)其二则是将人工智能生成物作为孳息物,纳入传统民法的保护范畴。认为若将人工智能作为虚拟人主体,生成物不能作为作品受保护,只能作为一种孳息对待。(叶霖,2019;黄玉烨、司马航,2018)此外,亦有学者认为人工智能生成物不能概而论之,应当区别对待。将其区分为数据和表达,对数据进行类似商业秘密的保护,对表达进行弱于版权的特殊知识产权保护。(宋红松,2018)也有观点从判断标准入手,主张不以作品来源于人类还是非人类为标准,而从人类受众的角度确定是否为作品。(梁志文,2017)

人工智能生成物的权利归属也是学界探讨的主要内容。“约定优先”基本是各方共识(马忠法、肖宇露,2019;许明月、谭玲,2018;田原、叶文芳,2019),在此基础上,主张建立以使用者(或管理者)为核心的权利分配体系(刘友华、魏远山,2019;李伟民,2019;王正中,2019),在开发者、所有者和使用者之间进行权利分配(许春明、袁玉玲,2019)。也有学者主张由人工智能所有者享有生成物的权利(孙山,2018;W. Michael Schuster,2018)。当具有投资人的情况下,则普遍认为由投资人(包括雇主或公司)享有权利。(程梦瑶,2019;马忠法、肖宇露,2019;许明月、谭玲,2018;李晓宇,2018)非法使用他人人工智能而生成内容的,其权利应当属于人工智能所有者。(马忠法、肖宇露,2019;许明月、谭玲,2018)除此之外,也存在主张借鉴域外法进行制度创新,(孙松,2019)或类推适用既存法律制度。(熊琦,2017)

人工智能侵犯既存作品版权是最常见的侵权模式。一般主张以合理使用制度进行平衡人工智能创作和既有作品版权保护。(梅术文、宋歌,2019;张金平,2019)但也存在观点认为合理使用制度不再使用,主张探索包括推定集体管理机制和税收制度等在内的其他有利于人工智能创作的版权授权机制。(华劼,2019)也有学者认为应当对人工智能合理使用进行类型化分析。区分以获取实施性信息为目的、生产性表达为目的、技术的实施与进步为目的的使用行为。同时主张建立适用版权数据的补贴机制,以此作为合理使用向法定许可的过渡。(卢炳宏,2019)对于其他类型的侵权,有观点主张按照“雇主责任”方式处理,由制造者或使用者替代承担著作权侵权责任,(郭壬癸,2019)认为随着人工智能的不断发展,权责从人类向机器人转移,但无论如何制造该软件的最初编程者仍旧应当承担责任。(王志刚,2018)

在知识产权的刑法保护上,有学者认为应当首先在前置法即著作权法中明确人工智能生成物的属性与归属,其次增设“拒不履行人工智能安全管理义务罪”,以解决人工智能时代著作权侵权行为主体多元化刑事追责的困难。(武良军,2019)


4、人工智能的司法应用

人工智能的迅猛发展影响到人类生活的各个方面,在司法实践中人工智能为其带来了利弊影响。(高学强,2019)

人工智能“赋能”司法,服务“智慧法院”“智慧检务”建设,大大降低了司法数据的搜集、存储、分析和处理成本。(原新利、续圆圆,2018)在纠纷解决领域也发挥着重要的功能作用,在诉讼领域的立案、分案、庭审、裁判、执行阶段都有深度应用。(龙飞,2018)犯罪预防与监视与刑事案件侦查中,人工智能在刑事司法中的作用应定位为一种有限性、辅助性的手段。(赵艳洪,2018)人工智能在证明能力和证明标准的判断上难以单独实质性的认定及单独承担事实认定、证明标准判断的重任,但人工智能对证据规格的判断能够保障司法人员尽可能全面地收集、审查证据,在某些方面可以发挥有效的辅助和参考作用。(纵博,2018)司法大数据下,一方面为法官裁判提供了充足的信息和“数据经验”,从而有利于减少直觉和偏见对价值判断的影响;另一方面,司法辅助系统为法官决策提供了检测和反思工具,这也有利于排除法官直觉和偏见。同时也受到表征的语境化瓶颈、数据的真实性和完整性不足及算法黑箱等问题的困扰,人工智能对于获取个案正义的上述功能发挥也受到了限制。(沈寨,2019)司法领域大量引入人工智能时,需要对其应当坚持的原则和路径进行分析,探索实现司法智能化与司法公正统一的有效途径。(原新利、续圆圆,2018)同时,司法工作中引入人工智能的前提条件必须以促进与推动司法体制改革为原则。(钱大军,2018)大数据、云计算、信息技术、人工智能都只是实现合法正义的辅助手段。(季卫东,2018)人工智能的数据挖掘技术、可视化技术和自动化分析在司法舆情监测评估活动中具有巨大的优势,助推司法舆情监测常态化、预警决策的精准化。(康兰平,2019)通过建立大数据量刑模型,设置与量化量刑情节,并训练量刑模型,生成量刑公式,可以实现精准量刑。(张富利郑海山,2018)

对于司法大数据与人工智能技术应用中,也要注重防范风险。(王禄生,2019)包括对法律职业和未来就业产生冲击,有学者表示,客户需要律师从人类视角考虑问题,人类之间的理解无法被机器替代。即便AI不断发展,律师在法律实践中也不可或缺。(Sergio David Becerra,2018)隐私与数据的泄露、算法歧视、犯罪风险评估中的歧视等,人工智能技术不确定性和局限性等本身技术缺陷制约和影响其在司法实践中的广泛应用。(高学强,2019)对于人工智能在司法中可能存在的风险,有学者提出通过立法建立司法工作者终审原则与证据审核制度,培养算法监督专员,规范算法制度,透明决策过程,明确人工智能工作失误归责制度,加强司法员工素质培养与考核监督,进一步规范人工智能的司法运用,确保人工智能从事司法工作的客观与公正。(程凡卿,2018)同时,基于未雨绸缪的考量,随着未来随着智慧法院的建设,在量刑中引入人工智能技术必然会实现量刑规范化改革的功利目的,但由此而来的量刑公平问题更值得深思。(张燕龙,2019)


5、算法规制

算法超越以计算机程序为主的形式,以大数据和机器深度学习为基础,成为人工智能的核心。(克里斯托弗·斯坦纳,2014)智能算法因不透明(算法黑箱)和自主性产生的规制问题引起学界的关注。算法黑箱的规制需要算法透明,算法透明作为一种事前规制很早就有许多学者提倡,认为人们应当在规则设立之初就考虑其公平性与准确性。(Lawrence Lessig 1999;Danielle Keats Citron 2007)对于算法的规制,尤其是算法可解释性,有学者认为政府不应当不作为,应当制定相应的规则来约束算法设计者的行为,并在发生可疑后果的时候要求程序员用自然语言来解释算法的设计原理并追究其相关责任。(郑戈,2017)另一焦点问题在于算法歧视。就此,学者提出从源头数据上进行防控,提出控制机器学习数据的体量和质量(张凌寒,2018)、赋予数据主体被遗忘权(姜野,2018);或主张在设计算法之初即将人类价值嵌入其中(杜宴林、杨学科,2019);或者在自动化决策中加入人为因素进行把关。(杜宴林、杨学科,2019)除此之外,对算法权力异化的担忧也有所显现(张凌寒,2019),为防止人类由于过于依赖算法而处于被动境况(徐琳,2019),主张应当建立限权和赋权的制度体系,包括明确算法的应用范围和限制条件,建立正当程序制度和算法问责机制;赋权制度包括赋予公民个人数据权利,建立事后救济等。(张凌寒,2019)


责任编辑:郑通