中国的人工智能法,还有多远?
作者 | 布鲁斯
编辑 | 布鲁斯
PART/ 01
紧随欧盟之后,
中国版人工智能法(学者建议稿)公布
当地时间3月13日,欧洲议会正式批准全球首部人工智能全面监管法案——欧盟《人工智能法》(?点击查阅详情)。而就在几天后的3月16日,中国学者齐聚北京举办首届“AI善治论坛”,并在会议上发布《中华人民共和国人工智能法(学者建议稿)》(以下简称学者建议稿),为我国人工智能立法提供参考。
据了解,学者建议稿起草专家组由中国政法大学数据法治研究院、西北政法大学法治学院、中国信息通信研究院、北京航空航天大学法学院、华东政法大学数字法治研究院、西南政法大学科技法学研究院、中南政法大学知识产权研究中心七家单位的专家组成。来自北京大学、清华大学、中国人民大学、中国人民公安大学、中国社会科学院、对外经济贸易大学、北京电子科技学院等二十余所全国高校的专家学者出席了此次会议。
学者建议稿共九章九十六条,主要内容包括一般原则、发展与促进、权益保护、安全义务、监督管理、特殊应用场景、国际合作、法律责任等,涵盖未来人工智能治理的主要问题。
中国政法大学数据法治研究院教授张凌寒指出,此次学者建议稿以促进产业发展为主要特色。在全球激烈竞争格局下,不发展是最大的不安全。为此学者建议稿设立了“促进与发展”专章,也在监督管理、责任设置等方面对此予以充分考虑,减轻人工智能产品和服务提供者的义务。
在总则中,学者建议稿指出,应将科技伦理审查原则置于所有基本原则首位。任何技术的创新发展都不应当以牺牲个人权益为代价,同时,科技伦理审查的内容会随着技术创新而一同变化。其基本原则可细分为公平公正原则、透明可解释原则、安全可问责原则、正当使用原则。此外,学者建议稿创新性地提出人工介入基本原则,避免完全自动化决策对个人权益可能产生的负面影响。
此外,学者建议稿在知识产权方面也做了专门规定(下文将详述)。
附《中华人民共和国人工智能法(学者建议稿)》全文:
PART/ 02
此前已有“示范法”,
人工智能立法正“快马加鞭”
中国在2023年4月就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,并于7月正式发布《生成式人工智能服务管理暂行办法》(?点击查阅详情),率先就生成式人工智能监管这一议题给出中国方案。
事实上,在《生成式人工智能服务管理暂行办法》发布之后、此次人工智能法(学者建议稿)公布之前,已经出现了一份类似的《人工智能法(示范法)》。
2023年,在由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会上,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》课题组(以下简称“课题组”)主持人、中国社会科学院法学研究所网络与信息法研究室副主任周辉正式发布《人工智能法(示范法)》(以下简称《示范法》)。
据介绍,《示范法》分为六章,包括人工智能基本原则,促进发展举措、风险管理制度、主体责任分配、治理机制设计、法律责任。
附《人工智能法示范法1.0(专家建议稿)》全文:
起草团队表示,人工智能法将是一部面向前沿技术、面向数字经济、面向未来的重要立法,作为1.0版本的示范法提供了阶段性的结论和制度建议,但其理念、原则和具体制度设计不仅将随着法律和信息技术等领域的理论研究而更新,也会随着实践发展而不断迭代。
据了解,人工智能法也已被列入国务院2023年立法工作计划,作为预备提请全国人大常委会审议的法律案之一。未来,中国如何通过立法在拥抱技术发展的同时有效规制风险,贡献出具有中国特色的人工智能治理路径,将受到国内外各界的密切关注。
《人工智能法草案》被列入《国务院2023年度立法工作计划》明确的预备提请全国人大常委会审议的法律案(来源:中国政府网)
当然,人工智能法草案在被列入国务院年度立法工作计划后,还需要提请全国人大常委会审议,全国人大常委会通常还需对法律草案进行多次审议、征求意见等,最后才能表决通过,这意味着人工智能法要成为一部法律并正式施行,还要经历漫长的过程。
PART/ 03
新文本首次探索
对AI生成内容知识产权做了规定
知产力对比了《示范法》和近日刚刚发布的学者建议稿,发现两者在结构安排和部分内容上还是有一些相似之处的。
例如,在结构上,两者都安排了总则、对人工智能的发展/支持与促进、人工智能研发/开发者、提供者义务、监督管理、法律责任、附则等章节;在内容上,例如第一章总则中,都规定了透明可解释原则、可问责原则、创新发展原则等条款。
在知识产权方面,两者都有相关的条款做出规定。
《示范法》在第10条(促进发展创新原则)第2款中规定:
“国家鼓励人工智能研发和应用,依法保护人工智能领域知识产权,创新探索适应人工智能发展的知识产权制度。”
此外,《示范法》第14条(合法正当)中的第2项也提到了从事人工智能研发、提供和使用活动应当尊重知识产权:
“从事人工智能研发、提供和使用活动应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定:
“……
“(二)尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;
“……”
但近日发布的学者建议稿则在知识产权保护方面规定得更加详细一些。学者建议稿在第11条规定:
“国家依法保护人工智能领域的知识产权,探索创新人工智能科研成果转化机制,健全人工智能领域技术创新、知识产权保护和标准化的互动支撑机制。”
学者建议稿在第23条明确道:
“国家建立完善训练数据、算法、人工智能生成内容等知识产权保护规则。
“人工智能开发与应用中形成的软件作品、发明专利、实用新型专利、商业秘密、集成电路布图设计等各类知识产权依法受到保护。
“利用人工智能从事创作、发明创造、工业设计等智力劳动所形成的知识产权依法受到保护。”
尤其值得一提的是,学者建议稿在第36条还专门规定了“人工智能生成内容知识产权”:
“利用人工智能生成的内容,根据使用者对内容最终呈现的贡献程度,当符合著作权法对作品认定的条件或者专利法对发明创造的认定条件时,可以作为作品获得著作权法保护或者依法申请专利保护,但是获得著作权的主体或者申请专利的主体必须为自然人或者法人等法律主体。
“将利用人工智能生成的内容作为作品或者申请专利保护的,使用者应当主动披露相关内容是否主要由人工智能生成。
“人工智能提供者与使用者应当对利用人工智能生成的内容权属进行约定,没有约定或者约定不明的,相关权利应当由使用者享有。”
这一条对人工智能生成内容是否享有知识产权保护做了规定。对于这一问题,该条首先否定了人工智能本身作为权利人的可能性,并引入“使用者对内容最终呈现的贡献程度”这一因素,并以此作为判断人工智能生成内容能否获得知识产权保护的重要依据,即人工智能生成内容除了符合著作权法对作品认定的条件或者专利法对发明创造的认定条件之外,还需满足使用者对所生成内容具有一定的贡献程度,才能使生成内容获得知识产权保护。
那么,多大贡献程度才能使之获得知识产权保护?学者建议稿似乎并未明确。但该条第二款则明确了对人工智能生成内容主张知识产权保护时,由使用者承担披露相关内容是否主要由人工智能生成的义务。
该条第三款则对人工智能生成内容的权属做了规定,简言之,人工智能提供者与使用者有约定的以约定为准,没有约定的,如果生成内容符合前两款规定可以作为作品或者申请专利保护的,默认由使用者享有生成内容的著作权或者申请专利保护。
至于近期热议的生成式人工智能平台是否应当承担侵权责任等问题,学者建议稿也有相关规定。
学者建议稿在第24条“数据合理使用”中规定:
“人工智能开发者使用他人享有著作权的数据进行模型训练时,如果该使用行为与数据原本的使用目的或功能不同,并且不影响该数据的正常使用,也没有不合理地损害数据权利人的合法权益,则该使用行为属于数据合理使用。
“对于符合上述合理使用情形的数据使用行为,人工智能开发者可以不经数据权利人许可,不向其支付报酬,但是应当以显著的方式标注数据来源。”
第85条“提供者归责原则”中规定:
“人工智能产品和服务造成他人损害的,提供者未尽到本法规定义务的,应当承担侵权责任。
“关键人工智能产品和服务造成他人损害,提供者不能证明自己没有过错的,应当承担侵权责任。法律规定赔偿限额的,依照其规定,但是关键人工智能开发者、提供者有故意或者重大过失的除外。”
同时,学者建议稿也在第87条引入了“服务提供者避风港规则”:
“使用者利用人工智能服务实施侵权行为的,权利人有权通知人工智能服务提供者采取屏蔽提示词、关闭或撤销侵权账号等必要措施。通知应当包括构成侵权的初步证据及权利人的真实身份信息。
“人工智能服务提供者接到通知后,应当及时将该通知转送相关使用者,并进行侵权风险提示;未及时采取必要措施的,对损害的扩大部分与该使用者承担连带责任。
“人工智能服务提供者知道或者应当知道使用者利用其提供的人工智能服务侵害他人民事权益,未采取必要措施的,与使用者承担连带责任。”
照此规定,生成式人工智能平台(提供者)如果没有尽到该法规定义务,包括在接到权利人有效通知后未及时采取必要措施等情形下,则应当承担侵权责任;“关键人工智能”(学者建议稿第50条规定了其范围)提供者还负有证明自己没有过错的举证责任。但是,根据第24条有关“数据合理使用”的规定,如果在模型训练中“与数据原本的使用目的或功能不同,并且不影响该数据的正常使用,也没有不合理地损害数据权利人的合法权益”,是可以适用数据合理使用规定的。这在某种意义上或许可以看做是将现行著作权法“合理使用”条款适用范围扩大到了人工智能场景下。
不过,对于API云端调用模型来提供服务等复杂情形下的归责问题,我们从这份学者建议稿中恐怕一时还难以找到确切答案。
PART/ 04
立法跟得上
AI的迭代步伐吗
为什么包括欧盟等在内的全球多个地区都在忙着加快制定人工智能监管的法律法规呢?
自从生成式人工智能聊天机器人ChatGPT横空出世后,2023年生成式人工智能应用突飞猛进,AI模型从单一模式转向多模态,“文生图”“文生视频”应用轮番更新,万千打工人似乎一夜之间“饭碗不保”。
据央视财经3月19日报道,目前,我国人工智能核心产业规模已超5000亿元,企业数量超过4300家。有相关研究机构预测,到2035年,我国人工智能产业规模为1.73万亿元,全球占比达30.6%。
毫无疑问,人工智能已经成为下一个风口。面对机遇,没有人不想抓住它。但是,人工智能是人类发展的新领域,带来重大机遇,也伴随着难以预知的风险挑战,需要国际社会共同应对。这其中包括安全、伦理、法律、经济等各方面的问题亟待解决。这就在客观上要求各地加快人工智能监管规则的健全和完善。
除此之外,抢占人工智能监管规则制定的“C位”,也将会给自身带来另一个优势,那就是占据人工智能治理规则制定的话语权,并且规则越快落地越有利于促进和引领本地人工智能产业的科学化、合理化、规范化发展。
中国信通院政经所法律研究部主任工程师石月在去年12月接受央视采访时表示,欧盟推出《人工智能法案》,很有可能成为全球首部高层级的关于人工智能的法律框架。希望在人工智能领域继续维护它本土的数字主权、数字安全,提升在人工智能规则制定的国际话语权。
正因如此,我国也在积极推动人工智能方面的监管法律法规的完善。
中国人民大学法学院教授王利明曾在2023世界人工智能大会法治论坛上的演讲中提到,生成式人工智能引发的侵权,目前为止还没有完全超出《民法典》和《个人信息保护法》的相关规定,但是这并不意味着我们法律应对的依据就已经足够了。我们还需要建立相关的合规标准,也还需要在未来条件成熟时,通过特别立法进行有效应对,从而预防和处理生成式人工智能引发的各种风险,有效保障民事主体合法权益,促进人工智能产业的健康,这一点值得期待。
中南财经政法大学教授乔新生也曾在去年5月的一篇文章《人工智能立法宜早不宜迟》中表示,专门为人工智能技术开发应用制定法律规范刻不容缓。人工智能技术是一种不断升级的技术,为人工智能技术制定规则,是未雨绸缪,防患于未然;制定人工智能法律规范,不是为了限制人工智能的发展,人工智能技术开发的早期,探索制定合理化的标准和统一的法律规则,对于我国人工智能技术的快速发展,具有非常重要的现实意义;在人工智能技术开发方面,要重视市场准入,更要重视行为规范;人工智能技术是在现实生活中已经出现的技术,加快相关立法,针对可能出现的问题制定专门性的规范,可以减少我国人工智能开发应用的法律纠纷;此外,给人工智能开发者提供法律规则,使法律规范彻底融入人工智能技术的数据库,对于减少纠纷、输出符合法律规定的作品,具有先导性作用。
当然,也有人对如此快速地制定人工智能监管法律法规抱持一定的观望态度。据乔新生在上述文章中表示,在此前《生成式人工智能服务管理办法(征求意见稿)》征求意见过程中,就有一些学者强调,我国人工智能技术尚处于探索阶段,应用场景和商业模式尚不明朗,制定法律规范时机显然不成熟,(专门立法)有可能会扼杀或者至少阻碍我国相关企业在大模型领域的研发投入。
对于这些观点,乔新生认为有一定道理,并指出,如何展开立法思路,如何在现有法律体系的框架内针对市场准入和具体应用中存在的问题制定具有可操作性的条款,这是立法者需要认真考虑的问题。但乔新生强调不必担心人工智能立法可能会限制我国人工智能技术的推广应用。
中国对人工智能的发展和治理一直以来都十分重视。早在2017年7月,中国印发《新一代人工智能发展规划》,指出要建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。2023年4月《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,并于7月正式发布《生成式人工智能服务管理暂行办法》,成为全球首个针对生成式人工智能的行政监管法规。2023年11月在英国举行的全球人工智能安全峰会上,中国代表团提出了《全球人工智能治理倡议》,鼓励各方协同共治,构建开放、公正、有效的治理机制,共同促进全球人工智能健康有序安全发展。相信这将为全球的人工智能发展和治理提供中国方案,贡献东方智慧。或许,这也预示着中国的人工智能法已经离我们越来越近了。
相关链接
(本文仅代表作者观点,不代表知产力立场)
部分素材来源 | 数据法治、知产力、法治日报、北京日报、人大重阳、央视新闻、央视财经等
封面来源 | Unsplash