法大知产沙龙第31期 | 生成式人工智能治理的逻辑更新与路径优化

2023-11-20 18:00:00
——法大知识产权沙龙第三十一期会议纪要

——法大知识产权沙龙第三十一期会议纪要

整理 | 孙雪静 沈韵 郝明英

编辑 | 布鲁斯

2023年10月15日,以“生成式人工智能治理的逻辑更新与路径优化”为主题的“法大知识产权沙龙”系列活动第三十一期在北京市炜衡律师事务所举办。法大知识产权沙龙是在中国政法大学民商经济法学院知识产权法研究所指导下举办的学术交流活动,旨在搭建学术交流平台,探讨知识产权时事热点。本次活动由中国政法大学教授冯晓青致辞,华东政法大学副教授韩旭至主讲,抖音集团法律研究总监李颖、炜衡律师事务所高级合伙人裴跃、卢培,中国人民公安大学法学院副教授施小雪、北京科技大学讲师刁佳星、北京京成知识产权研究院名誉院长谷永久参与与谈,炜衡律师事务所全国知产委员会执行主任王桂香对本次会议进行总结,沙龙由中国政法大学郝明英老师主持。中国政法大学等高校老师及在校硕博同学、律师等社会各界人士60余人参加活动并进行讨论,线上观看人数1800余人。

会议开始,冯晓青教授致辞,指出生成式人工智能产业发展将会对现有法律制度提出极大挑战,也会对企业合规管理提出新的要求。就生成式人工智能生成内容的定性,目前学界及产业界并未形成统一观点,一部分学者认为人工智能生成内容可以成为著作权法保护客体,人工智能生成发明具有可专利性;也有学者认为人工智能生成物不具有可版权性或可专利性,可进入公共领域。此外,生成式人工智能发展也对法律服务行业提出了挑战。面对新技术发展应用,我们需要从政策、法律制度、行业治理等多方面予以回应。

一、主旨分享

主旨演讲阶段,韩旭至老师指出人工智能已经从对话式的单模态模型发展到多模态模型,并被应用到艺术作品创作、法律文书撰写等诸多领域,引发包括行为合法性、内容合规性、版权侵权风险等法律问题。对此,企业纷纷采取价值对齐、基于协议的使用限制、个人信息保护机制、最佳安全实践指引、投诉反馈机制等应对措施。然而,对于生成式人工智能存在的法律风险,既需要从产业层面引导企业对生成式人工智能的正确使用,亦需要从法律层面探讨生成式人工智能治理的问题。生成式人工智能已经不再是“旧瓶装新酒”的科幻想象而是“革命般”的现实挑战,因而需要对传统的人工智能治理逻辑与路径加以调整。对此,韩老师结合生成式人工智能的发展历程,从生成式人工智能的人机关系及其挑战、人机关系视角下的治理逻辑更新、生成式人工智能治理的路径优化几个方面展开对“生成式人工智能治理的逻辑更新与路径优化”问题的分析与阐述。

(一)生成式人工智能的人机关系及其挑战

首先,韩老师指出,生成式人工智能技术机制塑造了人机共生的新型关系。在这种新型关系中,人机交互方式“从以机器为中心转向以人为中心”,“打破了人、机器与信息资源之间的边界,重塑了信息资源生成和使用范式”,不能简单等同于深度合成技术、智能交互技术、高风险人工智能。在欧盟《人工智能法案》立法讨论中,已有学者建议将通用人工智能视为一个独立的风险类别,以根据动态的方式检测其风险。因此,正确认识人机共生新型关系下风险是实现生成式人工智能治理的前提。有必要从人机关系的视角出发,对生成式人工智能的风险进行再识别,以更好地开展生成式人工智能的治理。

一方面,人机共生关系将造成人的自主性危机。其一,生成式人工智能对脑力劳动的替代可能会产生新的异化,使人失去批判能力、想象力与创造力,甚至沦为技术的附庸。其二,数字弱势群体的脆弱性可能被进一步放大。无法使用或不懂得如何使用生成式人工智能的人将被“排斥”在数字社会之外,导致越来越多的人将成为智能时代的“无用阶层”。其三,在人机共生的关系中,算法往往更直接地对人施加影响,高频次的便捷交互也必将使得监视与控制更为容易。

另一方面,“请求—回应”式人机交互放大了人工智能的治理风险。这些治理风险包括:一是违法使用或不当使用的风险,如ChatGPT曾在人类指令下生成“毁灭人类计划书”。二是生成错误和有害信息的风险,如实施诈骗或者编造虚假信息。三是算法歧视与算法黑箱的风险,如生成式人工智能的回应存在性别刻板印象问题。

韩老师认为,面对上述生成式人工智能带来的各类风险,应当重点识别生成式人工智能在人机关系中面临的真正挑战,不应出于对新技术的畏惧过高估计其风险,也不应当将其治理风险与一般法律风险相混同。例如,生成式人工智能知识产权与数据保护问题即属于一般法律风险,能够通过既有的制度框架予以回应。作者主体、作品独创性的认定、合理使用等可以在知识产权框架中解决;数据的使用问题也可以通过数据保护相关法律法规解决,而不属于生成式人工智能本身的问题。

(二)人机关系视角下的治理逻辑更新

新型的人机关系中既存在人的自主性危机,也有被放大的人工智能治理风险。为此,有必要结合人机关系视角完成生成式人工智能治理逻辑更新。韩老师认为,生成式人工智能风险治理逻辑包括:一是生成式人工智能的定位应从“老师”转向“伙伴”;二是应将治理维度从算法治理拓展到用户治理之中。

1.从“老师”到“伙伴”的治理定位转换

在自主性危机的应对中,将生成式人工智能定位为传授知识的“老师”还是作为合作生产的“伙伴”,将导向完全不同的治理逻辑。韩老师首先分析了将生成式人工智能定位为“老师”并要求其承担结果责任的不合理性。第一,生成式人工智能的技术逻辑决定其无法确保输出结果的真实性。服务提供者无力甄别海量的训练数据,仅仅通过海量数据进行学习的大语言模型往往也缺乏生活经验。第二,不应对生成式人工智能提出比人更高的要求。在日常的人类对话交流中,我们尚且无法要求他人的陈述必须真实客观,对于生成式人工智能也不应当提出过高的要求。第三,生成式人工智能主要发挥信息传播而非知识传授作用。信息社会中,信息传播速度快、范围广、方式多,生成式人工智能只是在一定意义上起到知识传播与创造的作用。它并不是一个照本宣科且必然正确的“老师”,而是一个对答如流且见多识广的“伙伴”。因此,从人工智能的技术机制与交互模式可知,不应对人工智能提出过高的要求并作简单的结果评价,在“伙伴”的定位下进行制度设计将更为合理。

在“伙伴”的定位下,生成式人工智能的价值观引导应体现为倡导性规定而非强制性规范。从法理层面而言,法律调整的对象是行为而不是思想,人工智能具有何种价值观的问题实质指向的是人工智能的 “思想” 而非外在行为,不应在法律强制性规范的调整范围之列。此外,将生成式人工智能定位为“伙伴”,只是否定对人工智能的过高要求以及简单的结果评价,并不意味着否定其他强制性的规制措施。生成式人工智能的治理仍离不开针对算法设计、质量管理、监测评估等过程所设定的义务。

2.从算法到用户的治理维度拓展

基于用户与生成式人工智能的人机共生关系,有必要将治理维度从算法治理拓展到用户治理之中。生成式人工智能不同于传统的互联网信息服务,其输出内容是由算法与用户共同完成的。唯有引入用户治理的维度,方可全面应对生成式人工智能的治理风险。

韩老师将用户治理维度概括为四个层面:一是平台自主进行的用户治理,如企业常常在用户协议或平台自治规则中载明对用户的使用限制或提供相关使用指引。二是对平台施加用户治理义务,如《生成式人工智能服务管理暂行办法》第10条规定,服务提供者应“指导使用者科学理性认识和依法使用生成式人工智能技术”。三是对平台与用户之间的法律关系进行监管,如生成式人工智能的信息处理活动中涉及个人信息跨境的,应根据《个人信息出境标准合同办法》签订标准合同。四是规范和引导用户的请求,如建立提示词规范,以进一步引导用户的请求。

(三)生成式人工智能治理的路径优化

韩老师指出,当前生成式人工智能的治理在一定程度上存在架空包容审慎原则、未进行有效的风险区分、伦理治理缺位的问题。对此,应结合生成式人工智能的人机关系与治理逻辑,从规则治理、 场景治理、 伦理治理三个方面优化生成式人工智能的治理路径。

1.包容审慎原则下的义务与责任重构

《生成式人工智能服务管理暂行办法》在第3条基本原则提出了包容审慎原则,亟需进一步贯彻到生成式人工智能治理的具体制度设计之中。坚持包容审慎原则,生成式人工智能的治理规则设定需要把握权利义务的变更方向,对生成式人工智能的义务与责任加以重构。

从互联网的内容生产模式来看,经历了专业生成内容(PGC)、用户生成内容(UGC)和人工智能生成内容(AIGC)的发展。在PGC中,平台控制内容,自身就是内容提供者,不享有责任豁免。在UGC中,平台往往难以控制用户所发布的内容,因而形成了网络服务提供者 (ISP) 与网络内容提供者 (ICP) 的划分,并构建了“避风港”下的责任豁免规则。在AIGC中,内容在人机互动中由机器“伙伴”生成,人工智能服务提供者本身已经成为内容提供者,需要承担内容管理义务与内容责任。从权利义务的一致性角度出发,当前制度中生成式人工智能平台对其生成内容难以直接获得知识产权,实不宜对生成式人工智能服务提供者施加以过重的义务。

韩老师认为,在“伙伴”的定位下,应当为生成式人工智能设置过程义务,赋予生成式人工智能全面履行相关义务后行政责任的豁免。算法备案、质量管理、监测评估即是典型的过程义务。一方面,未履行过程义务所引起行政责任必须被合法设定。如需要考虑对生成式人工智能服务提供者施以暂停营业、停止服务等处罚是否符合《行政处罚法》的规定。另一方面,已履行过程义务的服务提供者不再对输出结果承担行政责任。

以过程义务的履行作为连接点,可进一步衔接生成式人工智能治理中的行政责任与生成式人工智能致害的刑事责任、民事责任。在与刑事责任的链接上,举轻以明重,服务提供者全面履行义务后不需要承担行政责任,当然也不需要承担刑事责任。在与民事责任衔接上,过程义务的履行与否是判定生成式人工智能服务提供者主观过错的重要依据。具体而言,应在人机互动的复杂关系中辨明因果关系,以确定相关民事责任。第一,当损害由用户滥用和恶用引起,且服务提供者已全面履行过程义务时,由用户单独承担责任;若服务提供者未全面履行过程义务而对损害结果的发生具有过错,由用户和服务提供者根据共同侵权规则承担连带责任。第二,当损害是由人工智能本身引起的,且用户无错过时,服务提供者在未全面履行过程义务的情形中承担责任;当服务提供者已全面履行过程义务时,对收到权利人通知后未采取必要措施导致损害扩大部分具有过错,也需要承担责任,由此在《民法典》第1195条以外构建生成式人工智能特殊的“通知—删除”规则。

2.特定高风险场景的识别与治理路径

在不同的应用场景中,生成式人工智能的风险大不相同,选择采取穿透式监管或“全链条治理”将导致设置过于严苛的监管措施。为此,有必要采取风险导向的场景治理路径。就生成式人工智能而言,只需要针对特定高风险的场景进行管制。韩老师将生成式人工智能的高风险场景概括为以下两种:一是对个人权益或社会公共利益有重大影响时使用生成式人工智能系统的场景;二是重要互联网平台服务、用户数量巨大、业务类型复杂的服务提供者提供或使用生成式人工智能系统的场景。

韩老师进一步提出,针对上述高风险场景的主要治理路径有三条。一是持续进行风险影响评估以准确识别风险。在大模型的使用中,高风险/低风险的划分并不是一成不变的。同一风险等级中不同场景的具体风险类型也不尽相同。随着研发与利用的动态发展,风险等级与风险类型也可能发生迁移。二是充分保证人类监督以应对人的自主性危机,服务提供者需要确保在设计、开发和使用中人都能对大模型进行有效地监督。三是以算法透明破解算法黑箱。算法透明在生成式人工智能里不可能实现,但是可以通过算法解释、事先披露治理机制、管理规则,引入第三方审计与算法论证程序等,结合运用达到“算法透明”的效果。

3.以自主性为中心的伦理治理方法

伦理治理是应对自主性危机的必由之路。在“伙伴”的定位下,生成式人工智能价值引导的倡导性规范最终也需要通过伦理治理实现。以人为本、尊重人的自主性是人工智能伦理治理的首要原则,这一原则应融入法律制度中。

韩老师指出,通过促进行业自律与数字素养提升,可进一步助益于生成式人工智能的伦理治理。生成式人工智能的治理创新必须根据数字社会的发展规律,在把握互利共生的人机关系基础上,转换治理逻辑、优化治理路径,塑造公平规范的数字治理生态。此外,我国应适时推进人工智能的基础性立法,将生成式人工智能治理的新思维融入其中,进一步丰富和完善数字社会的法律治理体系。

二、与谈交流

与谈环节,各位专家学者从不同方面给予了关于生成式人工智能治理问题的宝贵建议。

李颖总监结合抖音对生成式人工智能产品内测的实践做法,指出生成式人工智能治理中面临的现实问题。一是大模型的性能会随着用户的提问不断提升。二是一般的、普通的人工智能产品风险控制力比ChatGPT高,ChatGPT的自主性、智力涌向使得其回答的不可预测性增加。三是用户难以预测生成式人工智能输出错误内容的时间和类型。李总监提出,认定生成式人工智能服务提供者的责任时应注意以下几点:第一,在进行法律概念类比时,应把生成式人工智能类比为法律上的未成年人或者成年人,根据不同阶段的生成式人工智能的能力水平确定服务提供者的责任承担原则。第二,用户行为在很大程度上会影响机器输出内容,因此用户的过错在侵权责任承担上应予以考虑。第三,在避风港规则之下,网络服务提供者的注意义务实际能力未必会随之增加,这可能给企业带来较大的压力和合规成本。尤其在我国生成式人工智能产业发展比较落后的情况下,应注重促进产业发展,不给企业施加超出发达国家的标准的法律义务。关于我国生成式人工智能的立法,李总监认为,相较于国外,我国目前关于生成式人工智能的法律规定较为抽象,为了更好地引导产业发展,应对其予以细化。对此,可在我国国情的基础上,考量域外规范移植、借鉴的可行性。

裴跃律师主要从“独创性”角度对生成式人工智能生成物的客体属性展开分析。生成式人工智能的产出逻辑遵循使用人的思想利用已有的表达方式,以形成新的表达方式。对此,应依据著作权对作品的规定,判断其生成内容是否应该得到保护。裴律师介绍了美国在人工智能生成作品的独创性判断方面的先例。在相关案例中,美国版权局表示不会保护在缺乏人类作者创造性投入的情况下由机器或者纯粹机械过程而生成的内容、也不会保护无法预测的生成内容。国内方面,我国不同法院对生成式人工智能生成物是否可作为作品受到著作权法保护持不同观点。裴律师认为,法律规制生成式人工智能时应在保证生成式人工智能技术的准确性、高效性、建设性乃至独创性的同时,激励公众创作的积极性。

施小雪老师表示人机关系从“老师”到“伙伴”的治理定位的转换是可行的。在人工智能发展过程中,要始终如一地强调人的主体地位。一方面,生成式人工智能生成物是否可以作为作品受到著作权保护的问题可以在现有著作权法框架中解决。另一方面,人作为主体不能只享有权利而不履行义务,因此应加强对用户的监管。生成式人工智能的治理应当重点从以下两方面进行:一是加强对生成式人工智能创作过程的监管;二是强化平台对用户的教育。

刁佳星老师从制度经济学角度对生成式人工智能的治理进行了分析。刁老师认为,人工智能的治理层次中平台的行为义务、侵权责任的认定原则和预防侵权的单位成本、侵权行为产生的损害大小、侵权行为的发生概率三个因素相关。通常来说,预防侵权的单位成本越低、侵权行为导致的损害越大、侵权行为的发生概率越大,平台应当履行的注意义务以及侵权责任认定原则就越严格。例如,对于医疗人工智能和自动驾驶人工智能来说,由于该类人工智能致损概率较高,且通常会对人身和财产造成毁灭性打击,因此需要对此类人工智能服务提供者施加较严格的责任。就生成式人工智能而言,服务提供者不应承担严格责任,其应履行的注意义务与侵权责任水平应当略低于内容服务提供者,因为它对最终生成内容的控制力低于一般意义上的内容生成者。换句话讲,人工智能服务提供者预防版权侵权的单位成本整体上高于内容服务提供者。因此,不应将其类比为通常意义上的内容服务提供者而要求其承担严格的结果责任,而应该要求其承担行为责任。只要生成式人工智能服务提供者尽到现有技术水平下最佳行业实践,就可以避免承担版权侵权责任。尽到这一义务后,如果用户在使用时依然生成了侵权内容,例如,由于技术不可避免的固有缺陷或者用户屏蔽或破坏过滤技术等,生成式人工智能服务提供者还需要及时停止生成或输出,否则需要和用户承担共同责任。

卢培律师介绍到,人工智能技术已经被广泛应用于网络诈骗。据不完全统计,每10起网络诈骗中就有一起用AI技术进行的诈骗,而且诈骗成功率在90%以上。从法律角度来看,需要进一步讨论以下问题:一是现有法律能否应对人工智能技术引发的侵权等问题;二是在这条科技革命之路中,如何兼顾产业发展和风险防范。

谷永久院长表示,一方面,不能高估生成式人工智能,过度担心它对人类的取代;另一方面,不能低估生成式人工智能,这一技术的确对很多领域带来较大冲击。为此,法律制度和公共政策需要准确把握对新技术发展应用的认知,及时对由此引发的诸多社会与法律问题加以规制。

郝明英老师表示有必要从人机关系角度审视生成式人工智能。正如韩老师提出人工智能现在面临的三层挑战,包括两类特殊挑战和一类一般挑战。生成式人工智能涉及到知识产权和数据侵权问题,应当置于一般挑战、一般风险中予以讨论。郝老师认为,面对生成式人工智能对现行知识产权法的挑战,需要思考从解释论角度还是立法论角度加以应对。在考虑生成式人工智能服务提供者的责任承担问题时,应注意将其与网络服务提供者的义务进行区分。

最后,王桂香主任对本次活动进行总结。本次活动从法理、著作权法等法律角度和生成式人工智能产业角度回应了生成式人工智能风险治理的逻辑和路径,属于跨学科的交流和碰撞。伴随生成式人工智能在日常生活中的广泛应用,法律与公共政策有必要积极回应新技术发展所带来的诸多法律风险与现实问题,尽快构建生成式人工智能的治理框架。生成式人工智能的治理应当在把握人机共生新型关系的基础之上,及时转变治理逻辑,优化治理路径,塑造激励创新且公平规范的数字生态环境。

(本文仅代表作者观点,不代表知产力立场)

封面来源 | 知产力

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
评论区

    下一篇

    参数专利的申请也要符合“以公开换保护”的基本原则,需要确实让公众能够实现专利的技术效果。

    2023-11-20 18:00:00