随着ChatGPT、Midjourney等AIGC应用的火爆出圈,人工智能的监管与治理问题再次引发了各界的广泛讨论。人工智能的不断创新对传统的法律制度造成了一定的冲击和挑战,引发了人工智能的法律地位、法律责任、算法规制、数据安全、知识产权等一系列问题。人工智能监管与治理又是复杂的系统工程,其中一个重要特征是参与主体的多元化,需要包括政府、企业、科研机构、标准化组织及法律部门的多方合作。本文以人工智能领域的AIGC(Artificial Intelligence Generated Content,人工智能生成内容)这一细分应用来探讨生成式人工智能的法律监管框架。
一、AIGC的概念及应用
AIGC是指使用人工智能技术来生成、创作或编辑各种类型的内容,如文本、图片、音频、视频等。目前人工智能生成内容的过程主要是由机器学习(Machine Learning)算法驱动的,其中深度学习(Deep Learning)是机器学习的一个重要的分支,它可以学习和模拟人类的创造及思维过程,从而生成与人类创造相似的内容。AIGC利用深度学习技术,对海量数据进行分析、训练,以创造、合成新的内容。不同于传统的合成技术,它使用神经网络自动地学习特征,并生成与真实数据相似的新数据。
作为继UGC(User Generated Content,用户创作内容)、PGC(Professional Generated Content,专业创作内容)后的新型内容生产方式,AIGC已经逐渐成为了各行各业的关注点,因其具有广泛的应用场景和诸多优势。例如,ChatGPT 的自然语言处理能力可用于自动生成文章、摘要、翻译、对话等文本内容,极大地提高了内容生产的效率和质量;AIGC 还可以赋能虚拟现实和游戏开发,用于创建逼真的虚拟角色、场景和道具;可以利用AIGC设置工厂生产的数字孪生,增加技术生产的安全性;此外,AIGC 还可以生成医学图像,辅助疾病诊断和医疗规划,提高医疗研判的准确性等等。
二、AIGC的监管框架
(一)中国对AIGC的监管趋势
2017年国务院印发《新一代人工智能发展规划》提出“三步走”的战略目标,其中计划在2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。
在互联网信息服务领域,算法推荐技术的监管也逐步加强。2022年3月1日开始实施的《互联网信息服务算法推荐管理规定》(以下简称“算法推荐管理规定”)中,生成合成类算法被列为五大类算法推荐技术之一(生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类)受到监管。
而在2023年1月1日开始实施的《互联网信息服务深度合成管理规定》(以下简称“深度合成管理规定“)中,将深度合成作为算法服务种类中高风险的算法率先立法监管,进一步加强了对该领域的监管力度。
为了进一步推动人工智能领域的规范和发展,国家互联网信息办公室于2023年4月11日发布了《生成式人工智能服务管理办法(征求意见稿)》,并公开征求意见。该文件表明我国对AIGC的治理已在算法治理、深度合成治理的基础上做出延伸,形成“算法治理—深度合成治理—生成式人工智能治理”的迭代路径,并对提供生成式人工智能产品或服务的主体提出更加具体且针对性的法律合规要求。
1. 《互联网信息服务算法推荐管理规定》
《算法推荐管理规定》规制的是应用算法推荐技术提供互联网信息服务的主体,对算法推荐服务提供商提出了多项合规要求。其中,首次提出对具有公众舆论属性或社会动员能力的主体履行备案程序的要求,在相关主体进行算法备案前就需落实企业的算法安全机构设置及安全管理制度。
算法推荐管理规定主要聚焦算法应用深化而产生的算法歧视、大数据杀熟、网络诱导沉迷、未成年人保护等问题。在算法监管制度中已经创新性地提出了针对特征库、用户标签、算法机制机理等技术规范措施,除一般的算法信息服务规范外,管理规定针对生成式算法提供了特别的合规指引。规定要求未作显著标识的算法生成合成信息的,应当做出显著标识后,方可继续传输。此前,《网络安全音视频信息服务管理规定》有过类似规定:网络音视频信息服务提供者和使用者利用基于深度学习、虚拟现实等新技术新应用制作、发布、传播非真实音视频信息的,应当以显著方式予以标记。管理规定还规范非法开展互联网新闻信息服务的行为,对违反管理规定的算法推荐服务提供者,可处以罚款、给予治安管理处罚或追究刑事责任。
2. 《互联网信息服务深度合成管理规定》
2023年1月1日生效的《深度合成管理规定》由国家互联网信息办公室、工业和信息化部以及公安部共同发布,规定明确界定“深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术”。
算法推荐管理规定的规制对象为向用户提供算法推荐技术服务的互联网信息服务提供者,规制内容聚焦于算法安全价值导向下的信息服务规范和用户权益保护。深度合成管理规定则为一系列深度合成参与主体设定行为规范,规范对象包括深度合成服务提供者、深度合成服务技术支持者、深度合成服务使用者,在调整深度合成服务的同时也将深度合成技术列为并重的调整对象,将“数据和技术管理规范”专章单列,以满足深度合成技术应用的多方面保护要求。
深度合成治理法律,其主要聚焦于信息安全监管。继续要求AIGC技术与服务提供者在相关的人工智能自动生成内容中履行添加可识别水印或有效警示信息的义务,在源头上实现人工智能自动生成内容的可识别性。
我国《深度合成管理规定》已经将治理方向向技术支持者和用户延伸,但平台问责仍然是深度合成治理的主要抓手。一方面,深度合成服务提供者应尽到自身的安全管理义务,包括制定和公开管理规则、平台公约,完善服务协议,加强深度合成内容管理,建立健全辟谣机制等;另一方面,深度合成服务提供者作为服务使用者和技术支持者对接的桥梁,需以显著方式提示技术支持者和使用者承担信息安全义务。
3. 《生成式人工智能服务管理办法》(征求意见稿)
与上述两部规定不同,《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《人工智能征求意见稿》”)适用于研发、利用生成式人工智能产品,面向中华人民共和国提供服务的行为,表明无论AIGC研发、运营实体位于何处,只要支持境内用户使用,均会作为监管对象。另外,《人工智能征求意见稿》监管的主体除了技术研发商或基于技术的应用开发商,还包括提供API接口等接入服务的提供商。
《人工智能征求意见稿》的合规要点较多,包括内容合规、禁止算法歧视、禁止不正当竞争、申报安全评估、训练数据合法等多项合规要求。
(二)AIGC国际立法动态
为确保数字经济建设健康发展,不仅要在技术层面取得卓越突破,还需尽早在规则层面占据领先地位。2021年4月,欧盟委员会发布了立法提案《人工智能法案》1(Artificial Intelligence Act),其主要内容包括对人工智能应用风险进行划分,以对人工智能进行风险管理。欧盟《人工智能法案》的加快推进,意味着全盘管理人工智能未来将可能成为全球立法模式。同年11月,联合国教科文组织发布《人工智能伦理问题建议书》2,为人工智能伦理制定规范框架,明确各项价值观、伦理原则并提出政策建议。世界各国和国际组织积极推动人工智能立法,开展相关技术管理,为人工智能产业发展及治理提供方向。
三、AIGC的知识产权
(一)人工智能生成内容能否构成作品
因为知识产权具有较强的地域属性,关于AIGC知识产权的问题,本文我们仅从中国法的角度来阐述。《著作权法实施条例》规定:“著作权法所称作品,是指文学、艺术和科学领域内具有独创性并能以某种有形形式复制的智力成果。”根据该定义,人工智能创作成果是否构成作品需满足独创性、有形性、可复制性的要求。其中,关于人工智能生成作品的争议集中在人工智能创作成果是否具有独创性的问题上。
“独创性”的“独”要求作品为独立创作而成,非抄袭的结果,“创”要求作品具有最低程度的创造性,体现内容的选择与安排。人工智能根据算法与模型自主创造内容,在通过特定途径展示前,人们无法得知人工智能的输出内容。此外,人工智能通过模仿人类创作过程所得的创作结果,亦满足最低程度的创造结果,人工智能生成内容满足著作权法对作品的“独创性”要求。
目前有观点认为AIGC系统是工具,它们无法进行真正的创造性思维与艺术创作,所生成的作品源于系统开发者提供的数据与算法,遵循用户的文本提示(Prompt),缺乏真正的独创性,因此系统不应独立拥有知识产权。也有部分观点认为AIGC内容因不属于人类的智力创作成果,从而不论是否具备独创性,都因非适格主体而不构成著作权法上的作品。对此,笔者持保留态度,作品是客观存在的内容,不能因为人工智能生成内容的主体具有特殊性,就否认其具备独创性和受到保护的可能。确认人工智能生成内容具有作品地位,鼓励作品的创作与传播、促进社会文化事业发展与繁荣,符合著作权的立法目的。
(二)谁能获得生成作品的著作权
我国著作权法规定:“中国公民、法人或者非法人组织的作品,不论是否发表,依照本法享有著作权。”即只有特定主体才能成为作品的权利主体。人工智能作为创造工具与手段,为支配对象,无法成为权利主体。人工智能生成作品的著作权人目前尚无统一定论,通常讨论著作权人存在三种可能,即软件开发者及软件使用者(终端用户)或共同所有。
对于ChatGPT、Midjourney这类AIGC应用,针对人工智能自动生成内容,从应用设置的用户协议来看,大多数平台会通过合同约定将人工智能自动生成内容的权利配置给用户,以吸引终端用户。
有一种观点认为终端用户提供了创作灵感和文本提示,促使人工智能系统生成特定文字或图像,因此用户对内容享有一定的知识产权,人工智能系统开发者也应享有部分知识产权,因为人工智能系统完成了大部分创造性工作。笔者认为,生成方式不同,权利不同。如果AIGC提供定制化系统让终端用户自定义样式与内容,终端用户的知识产权应更大。而通用的文本提示促成的文字或图像内容的生成,系统开发者的权利可能更大一些,这需要结合不同作品的生成方式具体判断。确定人工智能作品权利人的过程,是通过赋予权利进行激励的过程,也是确定责任承担主体的过程。但人工智能生成内容的权利归属仍待法律或司法实践予以明确,仍需思考如何明晰人工智能生成作品的知识产权,并为各利益方提供合理的保护路径。
四、AIGC的数据保护
(一)AIGC的数据来源
AIGC类应用对数据的使用场景主要为模型训练阶段及模型使用阶段,两种使用场景对应的数据来源不同。对于模型训练数据的来源,一般包括自有数据采集、网络页面爬取、数据交易等。对于自有数据采集,应通过说明处理信息的类型、方式、目的及安全风险等,获得数据权利主体的授权。爬取数据则需衡量爬取行为是否符合正当性边界,如目标对象是否通过反爬虫机制禁止数据爬取,爬取方是否存在侵害计算机信息系统安全、商业秘密等过度爬取的行为。模型使用阶段的数据来源,一般是AIGC应用使用者提供的原始数据,其中可能包括商业秘密、个人信息等内容。服务提供方可通过限制用户输入的方式进行内容审查及过滤,并提示数据提供方保证其提供的信息获得相关权利主体的授权,同时,模型开发者在对输入数据进行使用或模型训练时应进行标注,并建立健全用于识别违法和不良信息的特征库。
(二)AIGC对生成数据的管理
《深度合成管理规定》第十条规定,深度合成服务提供者应当加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。经模型训练得出的合成数据在保证内容合法的同时,还应注意不侵犯第三方权利(数据安全、商业秘密、深度伪造风险),并按深度合成管理规定的要求,对使用其服务生成或者编辑的信息内容,采取技术措施添加不影响用户使用的标识。除数据输入及合成阶段外,数据储存、使用、传输阶段均应采取数据安全保护措施,确保数据处于有效保护和合法利用的状态,以及具备保障持续安全状态的能力。
五、结语
结合本文内容,我们初步探讨了AIGC目前面临的几项重要法律问题:
1. AIGC服务提供者及技术支持者利用算法及深度合成技术提供服务或技术支持的行为,是否满足中国法律对AIGC的特殊监管要求(包括完善平台公约、生成内容合规审查、禁止算法歧视措施、建立特征库与用户标签等);
2. 立法机构需要考虑AIGC知识产权的问题进行修法或立法,AIGC应用服务提供方需通过用户协议等方式,解决生成内容的知识产权问题,平衡其与终端用户的利益,并合理分配知识产权侵权法律风险;
3. 数据作为AIGC应用的先行生产力,是否通过风险评估、安全技术审查的方式进行合理保护。在数据合规为刚需的法律大环境下,AIGC类应用对数据的全流程管理是否满足法律合规要求。
技术发展,法律合规不容忽视。AIGC应用给人类带来便利的同时,使公众越来越关注技术可能带来的社会风险。为了解决这些问题,陆续出台的政策、法律法规需要相互统筹协调。从目前人工智能的极速发展的趋势来看,需要一部关于人工智能的专门法律来引导和监管人工智能,尽快解决人工智能领域的争议问题。人工智能在数据方面应当遵守三大上位法(《网络安全法》、《数据安全法》、《个人信息保护法》),但在遵守这些法律的同时,人工智能的法律发展也需要考虑不过度限制科技创新,在信息内容安全的前提下推进人工智能产业的发展。
文件出处:
1. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206
2. https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
特别声明:
大成律师事务所严格遵守对客户的信息保护义务,本篇所涉客户项目内容均取自公开信息或取得客户同意。全文内容、观点仅供参考,不代表大成律师事务所任何立场,亦不应当被视为出具任何形式的法律意见或建议。如需转载或引用该文章的任何内容,请私信沟通授权事宜,并于转载时在文章开头处注明来源。未经授权,不得转载或使用该等文章中的任何内容。