上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

金杜律师事务所:2024人工智能的法律探究报告(413页).pdf

编号:160158 PDF  DOCX 413页 7.57MB 下载积分:VIP专享
下载报告请您先登录!

金杜律师事务所:2024人工智能的法律探究报告(413页).pdf

1、人 工 智 能 的 法 律 探 究/002人工智能的法律探究序 言2022 年底,以 ChatGPT 为代表的生成式人工智能(“Generative AI”)掀起了新一轮的科技革命,不断催生新的商务业态。当下人工智能的开发已经上升到国家战略的高度,它的应用正逐渐渗透到社会生活的各种领域中,包括交通运输、金融、医疗、制造业、文娱产业等。人工智能将给人类社会带来全方位的变革。然而,由此衍生的伦理与法律问题也接踵而至。与此同时,各国监管部门纷纷出台相关政策法规,以对人工智能进行规制,内容涵盖监管框架、透明度、可解释性、数据隐私、伦理原则、安全标准、知识产权等多个方面。无论是联合国于 2024 年 3

2、 月通过的首个关于人工智能的全球决议,亦或是全世界 28 个国家及欧盟共同签署的布莱切利宣言、中国提出的全球人工智能治理倡议,以及欧盟的最新立法欧盟人工智能法案,其均在强调人工智能的治理应当重视安全风险,没有底线的运用人工智能会为人类社会带来毁灭性危机。此前,中国生成式人工智能领域的首部专门立法生成式人工智能服务管理暂行办法已于 2023 年 8 月 15 日起正式生效实施,对生成式人工智能服务提供者和使用者提出了一系列合规要求。除了立法监管外,多国法院已开始处理涉及人工智能的法律纠纷。例如,中国北京互联网法院和广州互联网法院此前已分别就首例涉及人工智能生成物(“AIGC”)的可版权性,以及生

3、成式人工智能服务提供者的知识产权侵权案件作出判决。美国多家人工智能企业正面临数起集体诉讼纠纷,相关案件均已被美国法院受理。欧盟近期也诞生了涉 AIGC 可版权性问题的第一案。金杜作为一家根植亚洲、服务世界的国际领先律师事务所,拥有广泛的资源和一支具备跨学科背景的专业律师团队,也是中国最早从事人工智能法律实务的律师事务所之一。金杜人工智能团队实力雄厚,在人工智能投融资法律服务、人工智能知识产权保护、人工智能数据合规、人工智能争议解决等领域具有丰富的经验。我们曾多次为人工智能领域的上下游企业及相关公司提供咨询服务、相关协议起草修改、监管执法应对、诉讼和交易服/003序言务,并且能够根据客户的具体需

4、求,设计和实施定制化的“一站式”人工智能问题解决方案,为客户的商业战略服务,帮助客户实现有利的商业结果。同时,金杜还与全球各地的合作伙伴建立了紧密的合作关系,能够为客户提供全球范围内人工智能方面的法律支持。在日新月异的技术发展图景中,金杜人工智能团队始终保持对前沿领域的观察研究,为人工智能从业者提供了最新的实用建议,多次受邀撰写涉及生成式人工智能、大模型及机器学习等领域的专业文章,获得了业界的高度肯定与赞扬。本次发布的人工智能的法律探究,由金杜人工智能团队合力撰写,汇集了团队过去公开发表的文章,凝结了团队在人工智能领域的专业知识和丰富经验,旨在为读者提供人工智能领域法律问题的有益参考与实务参照

5、。本期刊分为政策解读、法律问题探究、案例分析、AI 合规管理及境外的 AI 发展五大部分,涵盖了中美欧英多国人工智能立法解读、生成式人工智能训练数据合法性、AIGC 的可版权性、AIGC 知识产权侵权等热点问题,并且涉及教育、汽车、医疗、娱乐及金融等不同行业领域。除用中英双语解读国内外人工智能监管法规、剖析涉及人工智能的司法案例外,本期刊还分主题、分场景聚焦生成式人工智能服务提供者和使用者可能面临的科技伦理审查、知识产权、数据隐私及国家安全等风险和问题,并提出了针对性的防范措施。我们将以本期刊为起点,上下求索,精益求精,携手社会各界共同把握人工智能时代的新机遇。2024 年 4 月宋海燕金杜国

6、际合伙人目录序言/002AI 政策解读The Latest Draft Measures on the Management of Generative AI/007Chinas First Regulation on the Management of Generative AI/013“卧看星河尽意明”全球首部生成式人工智能法规解读/016生成式人工智能服务安全基本要求要点解析/032生成式人工智能服务安全基本要求实务解析/050AI 法律实务AI-Generated Content and Copyright(China)/062AI 原生应用相关法律问题研究之一:AI+教育法律问题/0

7、79AI 原生应用相关法律问题研究之二:AI+医疗/091AI 原生应用相关法律问题研究之三:AI+游戏法律问题/103AI 原生应用相关法律问题研究之四:AI+虚拟数字人的法律问题/111相由 AI 生:浅谈深度伪造(Deepfake)与个人形象权/118论图片生成式 AIGC 平台在侵权纠纷中的角色与责任边界/125简析 AI 绘画著作权风险及规制建议/130AIGC:合规引领探索之路/137“侵权包赔”:AIGC 知识产权赔偿条款之对比分析/148Sora 或者 ChatGPT:AI 生成的内容究竟归谁/153ChatGPT 许可应用,知识产权和数据怎么看?/164浅析 ChatGPT

8、训练数据之合理使用/174谈 AIGC 的可版权性美国、欧盟、英国与中国之比较/183再论 AIGC 的可版权性中美司法实践剖析与比较/192AI 案例评析The First Digital Avatar Case in China/201生成式人工智能时代下:析美国联邦最高法院 Goldsmith 案中的合理使用新标准/205Chinas First Case on Copyrightability of AI-Generated Picture/212Chinas First Case on AIGC Output InfringementUltraman/217AI 合规管理千帆竞发,百

9、舸争流AI 大模型在汽车行业应用合规风险管理/223大模型合规之现实初探/234大模型(Large Models)时代下资本市场赋能 AI 企业发展人工智能产业链企业境内 A 股上市重点法律问题之实证分析/250人工智能(AI):科技伦理治理走起/265科技伦理(审查)委员会:如何设立?/277AI 安全与合规:维护国家安全的新疆域/285境内平台使用 ChatGPT?至少注意这些/306AI 赋能零售创新中的合规风险管理/311境外的 AI 发展天下事预则立,不预则废香港私隐公署开展人工智能合规检查,明确 AI 发展指引和提升产业信心/319从美国商务部云计算管控新规看美国 AI 监管新趋势

10、全球人工智能治理大变局之欧盟人工智能治理监管框架评述及启示/335路未央,花已遍芳欧盟人工智能法案主要监管及激励措施评述/374历时三年,欧盟人工智能法案通过欧洲议会表决/404AI 政策解 读AI 政策解读/007The Latest Draft Measures on the Management of Generative AI宋海燕 陈佩龄In response to the rapid development of Generative AI services in the past few months,especially the launch of ChatGPT since

11、last December,on April 11,2023,Chinese Cyberspace Administration issued a draft policy Measures on the Management of Generative Artificial Intelligence Services(Draft AI Policy),soliciting feedback from the general public with respect to the regulation and management of Generative AI services.The Dr

12、aft AI policy addressed a few important topics surrounding AI and AIGC,including(1)the definition of Generative AI and to what extend this Draft AI Policy should apply;(2)whether text and data mining(TDM)might constitute copyright infringement in training AI;(3)misinformation risks associated with A

13、IGC;(4)data privacy issue;and last but not least(5)security evaluation of AI service provider and its filing procedure etc.I.Generative AI and the Scope of this Draft AI PolicyTo start with,Generative AI is defined in the Draft AI Policy as a technology that generates text,images,sound,video,codes a

14、nd other contents based on algorithms,models,and rules.Article 2 of the Draft AI Policy stipulates that,regardless whether a Generative AI service or product is developed or used in China,as long as it is targeting at consumers located within China,that AI service or product provider will be subject

15、 to the Draft AI Policy.II.TDM Issue Training AIUnlike the UK,EU,Japan or Singapore that allows text and data mining exception in training AI,the Draft AI Policy explicitly states in Article 7 that,the AI product/service provider shall be responsible for the legality of the source of pre-training an

16、d optimization training data,thus requiring the AI product/service provider to obtain clearance from IP rights holders prior to using such copyrighted works to train AI.Given the limited few statutory categories of fair use exceptions in Chinese Copyright Law and the mixed results of copyright fair

17、use cases in the recent Chinese case law,the use of copyrighted works to train AI(i.e.,TDM)still faces big challenges of copyright infringement suits.III.MisinformationChinese legislators are apparently well aware of the risks associated with AIGC,in terms of 人工智能的法律探究/008potential discrimination is

18、sue,misinformation and violation of right of publicity etc.Specifically,the Draft AI Policy(Articles 4,7 and 12)requires AI product/service providers to apply technical means to avoid the generation of illegal content,false information,and discriminatory content as much as possible.IV.Data PrivacyIn

19、 response to the data privacy concerns associated with generative AI,the Draft AI Policy addresses the issue.Specifically,it emphasizes the obligation of AI product/service providers to protect users personal information and privacy.Article 11 of the Draft AI Policy sets a limit on information reten

20、tion for generative AI products/services,stipulating that providers shall not illegally retain input information that can infer the users identity,shall not draw portraits based on the users input information and usage,and shall not provide the users input information to others.Article 13 of the Dra

21、ft AI Policy also requires AI product/service providers to establish a mechanism for receiving and handling user complaints,stating that measures shall be taken to stop such generation and prevent enduring hazard when an infringement is discovered.V.Security Evaluation and Filing ProcedureArticle 6

22、of the Draft AI Policy requires that any release of AIGC products must undergo a security evaluation and be filed with the competent authorities.Article 6 stipulates that Before providing services to the public with generative artificial intelligence products,it shall report to the National Cyberspa

23、ce Administration for security assessment in accordance with the Regulations on the Security Assessment of Internet Information Services with the Attributes of Public Opinion or the Ability of Social Mobilization,and go through the procedures of algorithm filing,alteration and cancellation in accord

24、ance with the Regulations on the Management of Algorithmic Recommendations in Internet Information Services.ConclusionIt should also be noted that the Draft AI Policy is silent on the copyrightability of AIGC,i.e.,whether AI generated content should be entitled to copyright protection,which is tradi

25、tionally reserved for human authors.It is unclear whether Chinese Copyright Office will issue a separate policy statement on the copyrightability of AIGC,if it is not to be covered under this Draft AI Policy.In view of the recent two cases1 on AIGC,we feel that Chinese attribute on the copyrightabil

26、ity of AIGC might be similar to the copyright policy statement2 issued by the U.S.Copyright Office on March 16,2023.This Draft AI Policy is one of the recent legislative efforts that Chinese government made to regulate the development of AI technology and services.In the Regulations on the Managemen

27、t of Algorithmic Recommendations in Internet Information Services and the 1 See:北京互联网法院(2018)京 0491 民初 239 号;北京知识产权法院(2019)京 73 民终 2030 号;广东省深圳市南山区人民法院(2019)粤 0305 民初 14010 号。2 Copyright Registration Guidance:Works Containing Material Generated by Artificial Intelligence.https:/www.federalregister.g

28、ov/documents/2023/03/16/2023-05321/copyright-registration-guidance-works-containing-material-generated-by-artificial-intelligence.last visit:4/17/23.AI 政策解读/009Regulations on the Administration of Deep Synthesis Internet Information Services issued in 2022,Chinese government also addressed the issue

29、s of deep fake and data privacy associated with AI development.The Measures for the Administration of Generative Artificial Intelligence Service(Draft for comments)Article 1 For the purpose of promoting the sound development and standardized application of generative artificial intelligence,the Meas

30、ures are formulated in accordance with the Cybersecurity Law of the Peoples Republic of China,the Data Security Law of the Peoples Republic of China,the Personal Information Protection Law of the Peoples Republic of China and other laws and administrative regulations.Article 2 The Measures shall app

31、ly to those who develop and utilize generative artificial intelligence products to provide services to the public within the territory of the Peoples Republic of China.Generative artificial intelligence as mentioned in the Measures refers to the technology of generating text,image,sound,video,code a

32、nd other contents based on algorithms,models and rules.Article 3 The State supports independent innovation,popularization and application of artificial intelligence algorithms,frameworks and other basic technologies as well as international cooperation,and encourages priority to be given to the use

33、of secure and trustworthy software,tools,calculations and data resources.Article 4 The provision of generative artificial intelligence products or services shall comply with the requirements of laws and regulations,observe social ethics,public order and good morals,and meet the following requirement

34、s:(1)The content generated by generative artificial intelligence should demonstrate the socialist core values.It must not contain content such as subverting state power,overthrowing the socialist system,inciting secession of the country,undermining national unity,promoting terrorism and extremism,pr

35、omoting ethnic hatred and discrimination,violence,obscene and pornography,false information,and content that may disturb economic and social order.(2)In the process of algorithm design,training data selection,model generation and optimization,and service provision,measures should be taken to prevent

36、 discrimination based on race,ethnicity,belief,nationality,region,sex,age,occupation,etc.(3)Respect intellectual property rights and business ethics,and shall not use algorithms,data,platforms and other advantages to carry out unfair competition.(4)The content generated by generative artificial inte

37、lligence shall be authentic and accurate,measures should be taken to prevent the generation of false information.人工智能的法律探究/010(5)Respect the legitimate interests of others,prevent injury to the physical and mental health of others,prevent damage to the right of likeness,right of reputation and perso

38、nal privacy,and the infringement of intellectual property rights.It is prohibited to illegally obtain,disclose or use personal information,privacy and business secrets.Article 5 Organizations and individuals(hereinafter referred to as providers)that use generative artificial intelligence products to

39、 provide services such as chat,text,image and sound generation,including supporting others to generate text,image and sound by providing programmable interfaces,shall assume the responsibilities of producers of the content generated by such products;Where personal information is involved,it shall be

40、ar the statutory responsibility of the person handling personal information and fulfill the obligation of personal information protection.Article 6 Before providing services to the public with generative artificial intelligence products,it shall report to the National Cyberspace Administration for s

41、ecurity assessment in accordance with the Regulations on the Security Assessment of Internet Information Services with the Attributes of Public Opinion or the Ability of Social Mobilization,and go through the filing,alteration and cancellation procedures for algorithm in accordance with the Regulati

42、ons on the Management of Algorithmic Recommendations in Internet Information Services.Article 7 Providers shall be responsible for the legality of pre-training and optimized training data sources of generative AI products.The pre-training and optimized training data used for generative AI products s

43、hall meet the following requirements:(1)It should comply with the requirements of the Cybersecurity Law of the Peoples Republic of China and other laws and regulations;(2)The contents should not infringe intellectual property rights;(3)If the data contains personal information,consent of the subject

44、 of personal information shall be obtained or other circumstances prescribed by laws and administrative regulations shall be complied with;(4)The authenticity,accuracy,objectivity and diversity of data should be ensured;(5)Other regulatory requirements of the Cyberspace Administration of China on ge

45、nerative artificial intelligence services.Article 8 When manual labeling is used in the development of generative artificial intelligence products,providers shall make clear,specific and operable labeling rules in accordance with the requirements of the Measures,conduct necessary training for labeli

46、ng personnel,and verify the correctness of labeling contents by sampling.Article 9 The provision of generative artificial intelligence services shall require users to provide AI 政策解读/011real identity information in accordance with the provisions of the Cybersecurity Law of the Peoples Republic of Ch

47、ina.Article 10 Providers shall clarify and disclose the applicable groups,circumstances,and uses of its services,and take appropriate measures to prevent users from excessively relying on or indulging in the generated content.Article 11 In the process of providing services,providers shall undertake

48、the obligation to protect the input information and usage records of users.Providers shall not illegally retain input information that can infer the identity of the user,shall not draw portraits based on the users input information and usage,and shall not provide the users input information to other

49、s,except as otherwise provided for by any law or regulation.Article 12 Providers shall not generate discriminatory content based on the users race,nationality,sex,etc.Article 13 Providers shall establish a mechanism for receiving and handling users complaints and promptly handle requests for correct

50、ion,deletion or shielding of their personal information;When generated text,image,sound or video is found to infringe upon the right of likeness,right of reputation,personal privacy and trade secrets of others,or fail to meet the requirements of the Measures,measures shall be taken to stop such gene

51、ration and prevent enduring hazard.Article 14 Providers shall,within the life cycle,provide safe,robust and continuous services to ensure the normal use of users.Article 15 For the generated content found in operation or reported by users that does not meet the requirements of the Measures,in additi

52、on to taking measures such as content filtering,it shall be prevented from being regenerated by means of model optimization training within 3 months.Article 16 Providers shall mark the generated images,videos and other contents in accordance with the Provisions on the Administration of Deep Synthesi

53、s of Internet-based Information Services.Article 17 Providers shall,in accordance with the requirements of the National Cyberspace Administration and relevant authorities,provide necessary information that can affect the trust and choice of users,including the description of the source,scale,type an

54、d quality of pre-training and optimized training data,manual labeling rules,scale and type of manual labeling data,basic algorithm and technical system,etc.Article 18 Providers shall guide users to have a scientific understanding and rational use of the content generated by generative artificial int

55、elligence,not to damage the image,reputation or other legitimate rights and interests of others by using the generated content,and not to engage in commercial speculation or improper marketing.When users find that the generated content does not meet the requirements of the Measures,they 人工智能的法律探究/01

56、2shall have the right to report to the National Cyberspace Administration or relevant authorities.Article 19 Providers shall suspend or terminate the service when it finds the users violation of laws and regulations,business ethics or social morality in the process of using the generative artificial

57、 intelligence products,including engaging in network speculation,malicious posting and commenting,creating spam,programming malicious software,and implementing improper commercial marketing,etc.Article 20 Providers who violate the provisions of the Measures shall be punished by the National Cyberspa

58、ce Administration and relevant authorities in accordance with the Cybersecurity Law of the Peoples Republic of China,the Data Security Law of the Peoples Republic of China,the Personal Information Protection Law of the Peoples Republic of China and other laws and administrative regulations.Where law

59、s or administrative regulations do not provide for it,the National Cyberspace Administration and relevant authorities shall,in line with their functions and duties,issue warnings,circulate notice of criticism and order correction within limited time;Where corrections are refused or the circumstances

60、 are serious,the offender shall be ordered to suspend or terminate the use of generative artificial intelligence to provide services and be fined not less than 10,000 yuan but not more than 100,000 yuan.If the case constitutes an act violating the administration of public security,penalties for the

61、administration of public security shall be imposed in accordance with law;If the case constitutes a crime,criminal responsibility shall be pursued in accordance with law.Article 21 The Measures shall be implemented as of daymonth 2023.Thanks to CHAN PuiLing and Wang Mo for their contributions to thi

62、s article.Attached is the full English translation of the Draft AI Policy prepared by CHAN PuiLing at KWM.AI 政策解读/013Chinas First Regulation on the Management of Generative AI宋海燕 赵怡冰At present,the new round of technology revolution triggered by generative artificial intelligence(AI)is taking the wor

63、ld by storm.On 14 June 2023,the European Parliament passed the text of the Artificial Intelligence Act(EU AI Act)by an overwhelming majority,which places certain obligations upon generative AI systems(e.g.ChatGPT).1 China is also highly concerned with the regulation of generative AI services.On 13 J

64、uly 2023,the Cyberspace Administration of China(CAC),in conjunction with the national Development and Reform Commission and five other state agencies,jointly issued China s first administrative regulation on the Management of Generative AI services-Interim Measures for the Administration of Generati

65、ve Artificial Intelligence Service(Chinese AI Measures).The Chinese AI Measures had come into effect on 15 August 2023.The finalized Chinese AI Measures have been substantially revised,after a 3-month public consultation period,compared with the earlier draft the Measures for the Administration of G

66、enerative Artificial Intelligence Service(Draft AI Policy)issued in late April 2023(you may refer to our previous analysis of the Draft AI Policy2).Compared with the earlier draft,the finalized Chinese AI Measures give more consideration to the current technological limitations of generative AI.On t

67、he other hand,it adopts the AI governance approach as classified and graded supervision,thus shaping Chinas AI regulation as top-level general legislation&industry regulation.The finalized Chinese AI Measures address a few important topics surrounding generative AI services,including:(1)the scope of

68、 this regulationto whom these AI Measures apply;(2)AI governancewhich is based on classified and graded supervision;(3)responsibilities to AI service providers;and(4)protection of personal information.I.Scope of the Chinese AI MeasuresTo start with,Generative AI Technologies,in the Chinese AI Measur

69、es,refer to models and related technologies that have the ability to generate content such as text(s),picture(s),audio,and video(s).Article 2 of the Chinese AI Measures limits the scope of this regulation to those who provide 1 See the EU Artificial Act(Artificial Intelligence Act)and amending certa

70、in Union legislative acts(COM(2021)0206 C9-0146/20212021/0106(COD):https:/www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html,last visit:19/07/23.2 https:/ AI services to the public within the territory of the Peoples Republic of China(PRC),and excludes those(1)who develop and apply generat

71、ive AI technologies and services for their own internal use or research purposesnot offered to the public within the PRC,and(2)who provide generative AI services outside the territory of the PRC.Based on the current legislative language,it seems to suggest that if Chinese providers of generative AI

72、services incorporate overseas AI technologies(e.g.ChatGPT)into their own products and then provide such services to the public within the PRC,they are also likely to subject to the Chinese AI Measures.II.AI Governance:The Idea of Classified and Graded SupervisionThe Chinese AI Measures seem to follo

73、w the same governing principle as with the governance of internet platforms and data compliance in China,where Article 3 and 16 of the Chinese AI Measures propose the governance of AI based on classified and graded supervision.However,unlike the EU AI Act,which explicitly sets out a four-level risk-

74、based regulatory approach,the Chinese AI Measures have not provided specific criteria for the classification and grading of AI generative services yet.III.Providers ResponsibilitiesIn terms of managing content,providers of generative AI services need to comply with the following principles:During th

75、e data training process,providers shall only use the data and foundation models that are legally acquired and shall not infringe the IP rights of others(Article 7).Also,providers shall improve the authenticity,accuracy,objectivity and diversity of training data;In terms of AI generated content,provi

76、ders need to manage the AI generated content(Article 14)and take down illegal content or suspend and terminate users services,when necessary;andProviders are also asked to add tags on the AI generated content so as to distinguish such content from human-authored works.Providers also need to establis

77、h a complaint and reporting mechanism(Article 15)to deal with the complaints from the public.Last but not the least,when providers of generative AI services have the ability to post/share public opinion or mobilize the society,they are required to undertake security assessment and algorithm filing(A

78、rticle 17).IV.Protection of Personal InformationWith regard to the protection of personal information,the Chinese AI Measures prohibit the collection of unnecessary personal information and the illegal provision of users input information to others(Article 11).As far as the obligation of algorithm t

79、ransparency is concerned,the Chinese AI Measures only AI 政策解读/015require providers to take effective measures to enhance the transparency of generative AI services(Article 4),thus leaving room for providers to fulfill this obligation in more flexible ways.However,compared with the EU AI Act,the Chin

80、ese AI Measures again fail to provide specific criteria as to how to judge the transparency of algorithms.ConclusionThe Chinese AI Measures are the first attempt of Chinese government to regulate the generative AI services.Yet a few important issues remain to be clarified,such as the copyrightabilit

81、y of AIGC,the specific criteria for classified and graded AI supervision,the definition of the providers ability to support the public opinion or mobilize the public,and the extent of algorithms disclosure under the algorithm transparency requirements,just to name a few.We expect to see future regul

82、atory guidance as the generative AI landscape continues to evolve.Thanks to Sun Heyao,Shang Wendi,and Wu Zongying for their contributions to this article.人工智能的法律探究/016“卧看星河尽意明”全球首部生成式人工智能法规解读宁宣凤 吴涵 张浣然 刘畅 吴仁浩引言自 Open AI 研发的聊天机器人程序 ChatGPT(Chat Generative Transformer)于 2022年 11 月 30 日发布以来,生成式人工智能(Gen

83、erative AI)技术迅速商业化,引发社会各界对于其潜在商业及社会价值的讨论。同时各国监管部门对该类前沿技术经历从禁止到有限开放的过程1,虽然急于监管,但怠为提供具体的指引。由于对生成式人工智能底层技术缺乏深入理解,且对于其应用前景预测有限,各国尚未形成体系化的监管思路及规则。然而时不我待,在前沿技术巨大社会价值与部分不可测风险之间,亟需平衡发展与安全的监管规则作为市场主体的指路明灯,协助技术服务提供方和使用方妥善控制风险,促进发展。在该大背景下,国家互联网信息办公室(以下简称“网信办”)及时地响应市场需求,于 2023 年 4 月 11 日发布生成式人工智能服务管理办法(征求意见稿)(“

84、征求意见稿”)。最终,在广泛征求社会各界意见后,2023年7月13日,网信办、国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部、国家广播电视总局七部委联合发布生成式人工智能服务管理暂行办法(“暂行办法”),并于 2023 年 8 月 15 日正式生效,成为全球首部针对生成式人工智能的法规。值得注意的是,暂行办法确定了发展作为主基调,直接删除了征求意见稿中“不得进行用户画像”“用户实名制”等争议性规定,并修改了“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息”“保证数据的真实性、准确性”“对于运行中发现、用户举报的不符合本办法要求的生成内容,应在 3 个月内通

85、过模型优化训练等方式防止再次生成”等争议性表述2。在数字型社会迈向智能化社会的当前,新型技术将不断涌现。不可否认的是,技术壁垒造成的认知差距短时间内将不断拉大,因此如何应对新技术新应用对于社会管理的影响是全球通用的难题。国家法律法规不仅体现本国的监管智慧,反映国家社会管理的水平,1 当地时间 2023 年 3 月 31 日,意大利个人数据保护局宣布即日起暂时禁止使用 ChatGPT。2023 年 4 月 13 日,西班牙国家数据保护局因ChatGPT 可能违反通用数据保护条例而对 OpenAI 启动初步调查程序;法国国家信息自由委员会也决定对收到的有关 ChatGPT 的五起投诉展开调查。此外

86、,欧盟数据保护委员会(EDPB)也于 2023 年 4 月 13 日宣布成立针对 ChatGPT 的专门小组。值得注意的是,随着OpenAI 在隐私数据方面作出让步,4 月 29 日,意大利个人数据保护局撤销了对 ChatGPT 的暂时禁令。2 “全球首部生成式 AI 法规即将生效,多个争议条款被删改”,参见 https:/ 政策解读/017也将被置于放大镜之下被各国审视,成为国家竞争力的重要组成部分,出现类似的布鲁塞尔效应(Brussels effect)。因此在为暂行办法迅速出台欢呼雀跃的同时,我们需要深刻理解其历史沿革、蕴含的监管逻辑,才能合理预测后续人工智能监管大局中的思路。因势利导,

87、不急不躁,让中国的人工智能技术和监管规则都能屹立在国际潮头。一、中国算法与人工智能治理的历史沿革(一)法律规范:“法治之网”逐步完善在人工智能治理的立法层面,我国以纲领性文件为方向,近年来在法律及标准层面以算法治理为重点构建人工智能监管的“桥头堡”。在纲领文件层面,我国先后颁布关于加强互联网信息服务算法综合治理的指导意见(“算法治理意见”),明确了我国算法治理目标是建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局;关于加强科技伦理治理的意见提出伦理先行的治理要求;以及新一代人工智能发展规划新一代人工智能伦理规范关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见等

88、促进人工智能应用发展的文件。在法律层面,数据安全法明确算法治理的原则,要求技术促进经济社会发展,增进人民福祉,符合社会公德和伦理;个人信息保护法从个人信息保护角度规制自动化决策;互联网信息服务算法推荐管理规定(“算法推荐规定”)重点治理以“大数据杀熟”为代表的算法歧视性决策;互联网信息服务深度合成管理规定(“深度合成规定”)秉持“辨伪求真”的愿景,以深度合成技术作为规制客体;暂行办法则整体聚焦生成式人工智能的规范应用与发展。在此基础上,还有诸多聚焦于电子商务、金融科技等特定行业领域的算法治理相关规定散见于电子商务法等法律法规中。除立法之外,我国重视标准体系建设,利用产业标准进一步提高治理效能,

89、例如国家标准化管理委员会等五部门印发国家新一代人工智能标准体系建设指南以加强人工智能领域标准化顶层设计,推动人工智能产业技术研发和标准制定;人工智能伦理安全风险防范指引 针对人工智能可能产生的伦理安全风险问题,给出安全开展人工智能研究开发、设计制造、部署应用等相关活动的规范指引;此外,信安标委发布的 2023 年度第一批网络安全国家标准需求中,还包括拟作为征求意见稿配套标准的生成式人工智能预训练和优化训练数据安全规范信息安全技术生成式人工智能人工标注安全规范等标准。(二)治理思路:风险治理我国采用风险治理的理念早在网络安全法数据安全法规定的分类分级保护制人工智能的法律探究/018度中已有体现,

90、网络安全法明确“国家实行网络安全等级保护制度”;数据安全法要求根据数据引发的外部风险,即对国家、社会的价值以及出现安全事件后造成的危害后果将数据划分为核心数据、重要数据和一般数据,并适配不同程度的保护制度。算法治理意见进一步明确“坚持风险防控,推进算法分级分类安全管理”为治理的基本原则之一;算法推荐规定明确规定要根据算法推荐服务的舆论属性或社会动员能力、内容类别、用户规模、算法推荐技术处理敏感程度、对用户行为的干预程度等对其进行分类分级管理;深度合成规定和算法推荐规定均要求具有舆论属性或社会动员能力的服务提供者履行备案义务,并进行专门安全评估;暂行办法依然延续风险治理的思路,并在第十六条明确提

91、出整体性的分类分级监管理念。(三)治理方式:行业规制方式成效显著,顶层通用立法即将到来算法推荐规定深度合成规定以及暂行办法均体现针对性立法、敏捷治理的思路针对特定类型算法服务或应用制定规范。采取行业规制的方式使监管部门能迅速回应算法与人工智能在特定领域、行业引发的问题,实现敏捷治理、精准治理。然而,尽管上述法规相互衔接,能够体现监管思路的延续性,但通用型人工智能具有迅速普及的特点,其在垂类领域的应用也将快速多样化,“点对点”的监管可能会“目不暇接”“疲于应对”。为体现科技立法的前瞻性,在人工智能不断发展的时代,我们需要横向综合性的人工智能立法在新技术、新形式出现时提供一般性监管要求。2023

92、年 6 月6 日发布的国务院 2023 年度立法工作计划已明确将人工智能法纳入计划,自此我国算法与人工智能的治理体系兼具了精准设计、敏捷迅速与统一通用、涵盖广泛的优势,将更好地推动技术发展与风险管控双重目标实现。二、责任主体义务梳理:压实服务提供者义务暂行办法对生成式人工智能在具体场景的应用提出了基本、通用的合规要求,例如生成式人工智能提供者应当承担网络信息内容生产者责任。另一方面,暂行办法也对相关组织在新闻出版、影视制作等特殊领域利用生成式人工智能服务从事特定活动预留了一定空间,多领域主管部门依据职责,对本领域内的生成式人工智能服务应用开展行业垂直监管。责任主体义务的设计通常是每部法律法规的

93、重点,尽管深度合成规定中精确划分深度合成服务技术支持者、服务提供者与使用者的责任与义务,但暂行办法明确以服务提供者为治理抓手,围绕服务提供者进行义务设计。暂行办法第二十二条的规定将“包括通过提供可编程接口等方式支持他人自行生AI 政策解读/019成文本、图像、声音等”修改为“生成式人工智能服务提供者,是指利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人”,即旨在压实生成式人工智能服务提供者义务,有助于避免相关主体怠于履行合规义务或相互推诿,使规范落到实处。在暂行办法下,生成式人工智能服务提供者主要需履行算法训练相关义务、内容管理相关

94、义务、使用者相关义务以及监管机制相关义务,具体如下:义务类型义务内容义务综述算法训练相关义务 算法训练数据处理合法性(第七条)训练数据质量要求(第七条)数据标注及培训要求(第八条)算法纠偏与报告义务(第十四条第一款)在算法训练上,暂行办法设立事前、事中、事后全链条监管机制,包括:要求依法开展预训练、优化训练等训练;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性;制定合乎要求的数据标注规则,并配备完整的监测评估和培训机制,确保标注规则有效落实;发现违法内容后,采取模型优化训练等算法纠偏措施,并向主管部门报告。内容管理相关义务 内容生产者责任(第九条第一款)个人信息处理

95、者责任(第九条第一款)内容标识(第十二条)整体而言,涉及内容生成的,暂行办法要求提供者承担内容生产者责任,并根据深度合成规定进行内容标识;涉及个人信息处理的,提供者应切实履行个人信息保护义务。使用者相关义务 服务协议签订(第九条第二款)合理使用与防沉迷机制(第十条)使用者输入数据与个人信息保护(第十一条)服务稳定性义务(第十三条)违法内容与使用者违法行为管理(第十四条)使用者投诉举报处理机制(第十五条)考虑到提供者与使用者之间的权利义务关系,以及生成式工智能对使用者可能产生的影响,暂行办法要求提供者制定服务协议。此外,要求提供者采取多种措施,保障使用者个人信息保护等各项权益,并引导使用者(尤其

96、是未成年人用户)树立对生成式人工智能的正确观念,确保使用者合理、合法使用生成式人工智能服务,防止使用者利用生成式人工智能服务从事违法行为,生成违法内容。监管机制相关义务 安全评估与算法备案义务(第十七条)使用者投诉举报机制(第十八条)监管配合及算法披露(第十九条)在监管机制上,暂行办法延续算法推荐规定深度合成规定的监管手段,要求进行安全评估和算法备案,同时和其他互联网信息服务监管相同,要求建立有效投诉举报机制以应对公众监督。另外,包括算法披露义务在内的监管配合的制度有助于增强监管有效性。人工智能的法律探究/020值得注意的是,尽管当前生成式人工智能的服务提供者多为技术开发方,仍可以满足上述合规

97、及技术要求。但随着市场的发展,将会有大量非技术持有者借助技术支持方对外提供生成式人工智能服务,如果缺乏技术开发和管理手段,服务提供方应当就上述义务与技术支持方达成明确且详尽的协议,以确保自身合规义务的履行。三、暂行办法的主要变化梳理(一)明确适用范围与域外效力与征求意见稿相比,暂行办法以反向列举的方式排除了对“应用生成式人工智能技术,未向境内公众提供生成式人工智能服务”情形的适用。鉴于征求意见稿由网信办发布,结合网信办的职权范围(互联网信息内容管理等),其适用范围应当与算法推荐规定深度合成规定类似,即集中在互联网信息服务的场景中。尽管暂行办法由七部委联合发布,理论上打破了其适用范围的禁锢,但考

98、虑到暂行办法围绕服务提供者进行算法备案、安全评估以及网络信息内容治理等义务设计安排,可以合理认为第二条规定中的“境内公众”指境内不特定的公众,而仅在内部研发生成式人工智能,或公司基于内部辅助办公等目的引入并允许员工使用的行为,则并未落入暂行办法的适用范围。征求意见稿暂行办法第二条 研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。第二条 利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务(以下称生成式人工智能服务),适用本办法。国家

99、对利用生成式人工智能服务从事新闻出版、影视制作、文艺创作等活动另有规定的,从其规定。行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定。第二十条 对来源于中华人民共和国境外向境内提供生成式人工智能服务不符合法律、行政法规和本办法规定的,国家网信部门应当通知有关机构采取技术措施和其他必要措施予以处置。AI 政策解读/021但需注意的是,一方面这并不意味着对向不特定企业提供的生成式人工智能服务的排除适用;另一方面,这也不意味着研发、内部使用生成式人工智能无需受到任何约束。如前所述,考虑到可能的顶层通用立

100、法人工智能法已被纳入立法计划,不排除前述行为将可能受到人工智能法为人工智能确立的通用基线要求约束。欧盟的人工智能法案同样采取类似思路,规定仅用于研发目的和非专业目的的人工智能系统,仍需要遵守透明度义务。研发、内部使用生成式人工智能仍需要加强透明性,对其应用同时也建议满足比如信息内容管理等要求。就域外效力而言,暂行办法新增第二十条规定,在“向中华人民共和国境内公众提供”的基础上特别强调暂行办法对于境外生成式人工智能服务的域外效力。由此可见,相关企业无论是嵌入式集成,或是通过应用程序接口在产品和服务中封装等方式使用境外生成式人工智能服务,均应当充分考量该等境外服务在中国法下的合法合规性,以及因此导

101、致的供应中断风险,乃至可能承担的连带责任等。此外,尽管目前尚未有直接因接入境外生成式人工智能 API 的产品和服务受到处罚的案例,我们亦注意到,近日已有通过 API 方式接入 GPT 的应用程序,因“于境外ChatGPT 有链入,未做网安备案,公司运维的两个网站未做网安备案,网络安全制度不完善,未履行网络安全义务等行为”受到公安部门行政处罚的案例。依据行政处罚决定书,处罚依据为网络安全法第五十九条第一款之规定,即对应的违法行为系未履行网络安全等级保护义务(第二十一条)以及未制定网络安全事件应急预案(第二十五条)之义务。就此我们理解,接入境外生成式人工智的产品和服务可能受到监管关注的可能性较高,

102、应注意积极履行相关合规义务。(二)聚焦内容治理:衔接网络信息内容生态治理规定暂行办法第四条和第九条进一步明确了生成式人工智能服务提供者的网络信息内容生产者的主体身份,并有效衔接网络信息内容生态治理规定(“信息内容治理规定”)为网络信息内容生产者施加的义务。1.压实服务提供者的网络信息内容生产者责任信息内容治理规定是网信办对中国境内的网络信息内容生态进行治理的主要规范,除了暂行办法第九条提及的“网络信息内容生产者”3,该规定还对“网络信息内容服务平台”4施加了一定的合规要求。3 网络信息内容生产者:网络信息内容生态治理规定第四十一条规定,网络信息内容生产者是指制作、复制、发布网络信息内容的组织或

103、者个人。4 网络信息内容服务平台:网络信息内容生态治理规定第四十一条规定,网络信息内容服务平台,是指提供网络信息内容传播的网络信息服务提供者。人工智能的法律探究/022如“明确适用范围与域外效力”一节所述,暂行办法的适用范围集中在互联网信息服务的场景中,提供者受到互联网信息内容治理相关规定规制的脉络较为清晰。除可能作为网络信息内容服务平台承担信息内容治理规定项下义务外,和传统的网络信息内容服务平台相比,生成式人工智能服务的特殊性在于,除了本身可能提供平台服务外,生成式人工智能服务实际上参与了信息内容的生成,加之其广泛运用将在信息内容领域对使用者造成潜移默化的影响,因此,暂行办法特别要求服务提供

104、者承担网络信息内容生产者的责任。征求意见稿暂行办法第五条 利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。第九条 提供生成式人工智能服务应当按照中华人民共和国网络安全法规定,要求用户提供真实身份信息。第九条 提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。提供者应当与注册其服务的生成式人工智能服务使用者(以下

105、称使用者)签订服务协议,明确双方权利义务。2.有效衔接有关违法信息和不良信息的规定在明确服务提供者需承担网络信息内容生产者责任的基础上,暂行办法第四条进一步与信息内容治理规定第六条、第七条衔接,一方面,以结果为导向,禁止提供者生成违法信息;另一方,要求提供者应采取措施防止产生歧视信息。此外,由于使用者也构成信息内容治理规定规定的网络信息内容生产者,因此暂行办法第四条进一步补充了“使用生成式人工智能服务”的情形,使得其在信息内容治理领域的主体责任方面保持逻辑自洽。此外,当前大家日益依赖互联网渠道获取信息资源,为了避免因 ChatGPT 等生成式人工智能已经出现的“胡编乱造”能力而误导公众,产生错

106、误认识,暂行办法在要求不得生成违法信息的基础上,进一步要求提高生成内容的准确性和可靠性。AI 政策解读/023征求意见稿暂行办法第四条 提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:(一)利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业

107、等歧视。(三)尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。(五)尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。第四条 提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定:(一)坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫

108、秽色情,以及虚假有害信息等法律、行政法规禁止的内容;(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视;(三)尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;(四)尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;(五)基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。值得注意的是,无论是境外还是境内(多为内测)生成式人工智能产品,均已经出现虚假信息的情况。除通过常见的

109、事后纠偏措施以外,服务提供者如何采取有效措施,事先提供生成内容的准确性(比如专业领域的强化学习和事先纠偏等),将不仅仅是服务提供者的合规要求,也将是其服务竞争力的表现。(三)风险进路:分级分类管理暂行办法充分体现了我国对算法与人工智能治理的以风险为核心的分级分类监管机制。1.落实各行业领域生成式人工智能服务应用的分类分级监管机制如前所述,我国在互联网信息内容领域已初具基于风险的分类分级制度雏形。具体而言,考虑到在互联网信息时代,信息快速传播对社会及公共利益产生的极大影响,算法推荐规定深度合成规定作为我国对互联网信息领域应用算法推荐技术、深度合成技术进行规制的主要文件,依据相关服务提供者是否具备

110、舆论属性或社会动员能力,为相关人工智能的法律探究/024主体施加了不同层次的合规义务。此种基于是否具有舆论属性或社会动员能力的风险形成的分级要求也延续至了暂行办法。征求意见稿暂行办法第六条 利用生成式人工智能产品向公众提供服务前,应当按照具有舆论属性或社会动员能力的互联网信息服务安全评估规定向国家网信部门申报安全评估,并按照互联网信息服务算法推荐规定履行算法备案和变更、注销备案手续。第十七条 提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照互联网信息服务算法推荐规定履行算法备案和变更、注销备案手续。我们理解,暂行办法第十七条规定的安全评估与算法备

111、案义务不仅延续了我国既有的算法治理手段,更体现了对生成式人工智能服务的风险分级要求。此前,在征求意见稿出台后,我们认为征求意见稿第六条对提供者履行算法备案与安全评估的义务的边界可能存在疑问。暂行办法对此作出了回应,延续了此前对算法推荐与深度合成服务提供者的分级,明确仅在“提供具有舆论属性或者社会动员能力”时,相关主体才需履行安全评估与算法备案义务。值得注意的是,上述分级管理仅仅是冰山一角,暂行办法第十六条明确将分级分类监管的方法论延伸至生成式人工智能应用的全方位领域。也即,各行业主管部门均可以依据本行业内生成式人工智能技术本身的特点与在特定行业应用的特色进行分级分类监管,避免“一刀切”,使得各

112、个风险级别的生成式人工智能服务一方面有能力在实践中充分发挥其作用,另一方面,其应用风险也可通过恰当、具有针对性的监管手段得到有效控制。2.为人工智能技术未来整体性分级分类提供先行示范生成式人工智能技术仅是纷繁复杂的人工智能技术的一种,在人工智能治理过程中,除了规制特定人工智能技术类型、特定领域应用的精细化治理规则,规制整体人工智能技术及应用的通用立法也极具意义。如前所述,我国此前在数据安全、个人信息保护以及互联网信息内容领域也体现了一定的风险分级分类思路,除了特定的行业内分级分类机制,整体的风险分级分类的思路在暂行办法中也得到了赓续。具体而言,暂行办法第三条提出国家对“生成式人工智能服务实行包

113、容审慎和分级分类监管”。我们理解,这一规定不仅明确了分级分类在生成式人工智能服务这一特定技术服务领域的应用,更为重要的是,其为此后我国拟制定的通用性人工智能立法设置整体性的风险分级分类制度提供先行实践作用,为我国人工智能法预留了充分的发挥空间。AI 政策解读/025需要注意的是,我国虽然和欧盟类似,在人工智能治理领域均采取基于风险的分级分类制度。但是,基于各地区先天的文化及价值观差异,风险的视野可能存在差异。具体而言,欧盟人工智能法案在 2023 年发布的折衷草案中,明确了其在进行分级分类时,将人工智能系统对人们健康、安全、基本权利或环境的危害等因素涵盖在内。而我国未来如考虑对人工智能系统或技

114、术进行整体规制,则可以基于人工智能规制内生的网络安全、数据安全、个人信息保护要求以及公共利益等因素为出发点,因地制宜,制定适宜我国实际需求的基于风险的分级分类制度。(四)算法披露:与算法安全风险监测机制相适应暂行办法对于算法披露义务的修订至少体现出两重深意,一是协调增强算法披露制度的体系建构,二是审慎考量算法透明与知识产权、商业秘密保护之间的平衡。征求意见稿暂行办法深度合成规定算法推荐规定第十七条 提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体

115、系等。第十九条 有关主管部门依据职责对生成式人工智能服务开展监督检查,提供者应当依法予以配合,按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术、数据等支持和协助。参与生成式人工智能服务安全评估和监督检查的相关机构和人员对在履行职责中知悉的国家秘密、商业秘密、个人隐私和个人信息应当依法予以保密,不得泄露或者非法向他人提供。第二十一条 网信部门和电信主管部门、公安部门依据职责对深度合成服务开展监督检查。深度合成服务提供者和技术支持者应当依法予以配合,并提供必要的技术、数据等支持和协助。第二十八条 网信部门会同电信、公安、市场监管等有关部门对算法推荐服务依法开展安

116、全评估和监督检查工作,对发现的问题及时提出整改意见并限期整改。算法推荐服务提供者应当依法留存网络日志,配合网信部门和电信、公安、市场监管等有关部门开展安全评估和监督检查工作,并提供必要的技术、数据等支持和协助。第二十九条 参与算法推荐服务安全评估和监督检查的相关机构和人员对在履行职责中知悉的个人隐私、个人信息和商业秘密应当依法予以保密,不得泄露或者非法向他人提供。1.协调增强算法披露制度的体系建构与征求意见稿第十七条“应当根据国家网信部门和有关主管部门的要求”这一不人工智能的法律探究/026甚明确的适用前提相比,暂行办法明确了算法披露义务系服务提供者在有关主管部门依据职责开展监督检查时的配合义

117、务。该等监督检查与我国现有算法治理框架一脉相承,属于算法安全风险常态化监测机制,是算法监管体系的重要组成部分。根据 2021 年网信办等九部委印发的算法治理意见,监管部门对算法的数据使用、应用场景、影响效果等开展日常监测工作,感知算法应用带来的网络传播趋势、市场规则变化、网民行为等信息,预警算法应用可能产生的不规范、不公平、不公正等隐患,发现算法应用安全问题。此外,这亦与深度合成规定算法推荐规定保持高度一致。在此基础上,考虑到在暂行办法下,算法备案与安全评估义务均仅适用于“具有舆论属性或社会动员能力”的服务提供者,而前述算法披露义务适用于所有的服务提供者,可以理解其并非是向监管部门履行“额外”

118、的算法披露义务,而是增强算法披露制度的完整性,并形成覆盖不同风险级别的生成式人工智能的监管体系。2.审慎考量算法透明与知识产权、商业秘密保护之间的平衡就披露范围而言,暂行办法不但摒弃了“以影响用户信任、选择的必要信息”“基础算法和技术体系”等相对模糊不清的表述,代之以“算法机制机理”,还明确规定获知披露信息的相关机构和人员的保密义务。一方面,这一修订一定程度上直接回应了实践中相关企业对于源代码等可能被纳入披露范围而导致的对知识产权、商业秘密保护等方面的隐忧,有助于保护企业的发展动力。另一方面,如前所述,考虑到该等算法披露义务与算法安全风险监测机制相适应,可以理解对于训练数据来源、规模、算法机制

119、机理等披露要求的限度,将限于监管部门履行其防范算法滥用风险等方面的监管职责,而不至于毫无边界,甚至于算法绝对透明。这似乎旨在呼应这样一种主张:对算法的透明度要求不应高于人类我们只需要人类决策者在问责和透明程序中提供足够的信息和理由,而不是以上帝之眼洞察他们的认知过程5。此外,对“算法机制机理”的理解在实践中已有章可循。目前,已按照深度合成规定算法推荐规定履行算法备案义务的企业,可以在互联网信息服务算法备案系统中查询其拟公示算法机制机理内容,其中包含备案算法的基本原理、运行机制、应用场景、目的意图等信息。(五)审慎包容:责任主体义务限缩暂行办法对于算法纠偏及训练数据的数据质量要求相关规定修改,适

120、度为生成式5 Zerilli,J.,Knott,A.,Maclaurin,J.,Gavaghan,C.:Transparency in algorithmic and human decision-making:is there a double standard?Philos.Technol.32(4),661683(2019).AI 政策解读/027人工智能服务提供者“松绑”,充分体现出坚持发展和安全并重,平衡企业利益、公共利益、个人信息保护等多方诉求的包容审慎监管态度。1.算法纠偏与报告义务如我们在不要温和地走进那良夜对 的思考6一文中所述,尽管一定程度上的算法透明度是算法规制可欲实现的

121、目标,也常被认为是算法程序性规制强有力的监管工具,但在实践中,由于算法黑箱的存在会影响技术人员进行算法纠偏行为的有效性,若采取“防止不当内容再次生成”等基于结果的规制方案,可能致使责任主体履行义务存在较大障碍。因此,暂行办法第十四条将算法纠偏义务限于“及时采取停止生成、停止传输、消除等处置措施”具备更强的可操作性,亦能避免相关企业为此支出高昂但或“徒劳无功”的合规成本。此外,暂行办法还要求企业保存采取处置措施的有关记录,并向有关主管部门报告。尽管具体的报告内容将有待明确,这意味着“采取有效措施”并非被置于监管真空,而是同样需经由监管部门评估、以有效固定生成式人工智能违法行为的问责点。征求意见稿

122、暂行办法第十五条 对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在 3 个月内通过模型优化训练等方式防止再次生成。第十四条 提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。2.训练数据的数据质量要求生成式人工智能模型在预训练和调优过程中,有赖于大规模语料库等海量数据的“喂养”,然而越多的数据并不等于越好的数据。如果训练数据存在错误

123、、噪声或偏差,模型可能会学习到不准确或不可靠的信息,从而影响模型的泛化能力。此外,如若数据集中存在虚假与歧视性内容等,模型的输出结果中也可能镜像呈现相应内容。因此,对训练数据的质量控制,实质是对确保生成式人工智能的可靠性与可信度,防止生成违法、不良信息等的源头控制。因此,无论是暂行办法还是欧盟人工智能法案,均对训练数据提出了一定的质量要求。6 参见文章不要温和地走进那良夜对 的思考,https:/ 提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:(一)符合中华人民共和国网络安全法等法律法规的要求;(二)不含

124、有侵犯知识产权的内容;(三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;(四)能够保证数据的真实性、准确性、客观性、多样性;(五)国家网信部门关于生成式人工智能服务的其他监管要求。第七条 生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:(一)使用具有合法来源的数据和基础模型;(二)涉及知识产权的,不得侵害他人依法享有的知识产权;(三)涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;(四)采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性;(五)中华人民共和国

125、网络安全法中华人民共和国数据安全法中华人民共和国个人信息保护法等法律、行政法规的其他有关规定和有关主管部门的相关监管要求。暂行办法在征求意见稿提出的训练数据“真实性、准确性、客观性、多样性”的基础上,限缩了生成式人工智能服务提供者对训练数据质量应尽的义务履行边界,从“能够保证”训练数据质量减轻至“提高”训练数据质量、“增强”训练数据的真实性、准确性、客观性以及多样性。上述变化为由结果为导向减轻至以行为为导向。我们理解,这种变化在一定程度上打消了提供者对使用训练数据、扩大训练数据范围的顾虑,有助于其积极开展相关的数据训练活动,优化人工智能,从而使公众受益。毕竟,即使是大企业,也难以保证自身使用的

126、海量训练数据均是真实、准确且客观的。因此,暂行办法调整了相关义务,即使客观上存在训练数据不真实、不准确、不客观的可能性,但不影响生成式人工智能服务提供者通过数据标注等手段,尽可能减少相关风险。与真实性、准确性和客观性相较而言,训练数据的多样性更需从多维度进行分析与判断。生成式人工智能技术在训练优化时,单一范围的训练数据可能致使生成结果存在不足与遗漏。以 ChatGPT 为例,当 ChatGPT 的训练数据以英文语料资料为主时,虽然其可基于对话者的指示对英文写作进行充分的改写,但是在组织中文时,能力则稍显逊色。基于此,建议相关企业以生成式人工智能服务预期应用的具体领域为出发点,充分考虑不同行业的

127、差异化与特殊性,选择恰当的训练数据范围。AI 政策解读/029四、对暂行办法的思考与展望(一)“举重若轻”,敏捷与审慎监管相依,科学进步成为新主题ChatGPT 等生成式人工智能在全球掀起热潮后,我国监管部门需要迅速研讨风险,在短时间内形成征求意见稿,时间紧任务重。同时为了平衡发展与安全,在广泛征求社会意见后,暂行办法大量删减争议条款,在鼓励新技术在合理框架内发展的主基调下,在技术涌现不到六个月时间内最终定稿,体现出我国在社会面临新技术引发的新旧风险时进行“敏捷治理”的积极态度。在“敏捷治理”的基础上,基于生成式人工智能服务提供者的现实技术与能力困境,同时避免采取欧盟等在科技领域的强势态度从而

128、可能致使人工智能创新受阻的负面影响,我们理解暂行办法在征求意见稿的基础上,充分体现了我国对人工智能等科技领域发展所采取的“包容审慎态度”,在促发展与稳安全之间寻找动态的平衡点。值得一提的是,除网络安全法数据安全法个人信息保护法的“三驾马车”外,暂行办法还将科学技术进步法明确纳入其上位法的范畴。科学技术法作为我国法律层级的规定,明确提出“发挥科学技术第一生产力、创新第一动力”的目标;暂行办法 作为其下位法,将相关机构研发生成式人工智能服务(不面向境内公众提供)的情形排除在管辖范围外,并支持鼓励行业组织等技术创新,“牢牢把握建设世界科技强国的战略目标”,“抓抢全球科技发展先机”。(二)规范先行,可

129、期待与人工智能法相衔接如前所述,结合国务院 2023 年度立法工作计划,我国的人工智能法已经正式进入了立法进程中。暂行办法是我国人工智能整体监管的及时应对和有益尝试,随着技术发展和行业实践的推移,“行业规制+通用立法”的模式将成为人工智能治理的主流手段。可以预计在未来,人工智能立法不论是从横向层面还是从纵向层面,都会日臻全面和完善。如前所述,我国自数据安全法起,即构建了一种基于风险的分类分级监管思路。暂行办法第三条和第十六条均明确提及我国在生成式人工智能治理方面将采取“分类分级监管”,这也为正在制定的人工智能法就人工智能整体规制层面进行分类分级监管提供了充足的空间。(三)吸收国际共识,传递中国

130、价值,分享中国方案一方面,暂行办法制定、征求意见的过程中,全球范围内生成式人工智能治理的人工智能的法律探究/030相关讨论热度居高不下。欧盟自 2021 年发布人工智能法案提案后,进行多次协商与沟通,以确定恰当的监管规则。2024 年 3 月 13 日,欧洲议会以 523 票赞成、46 票反对和 49 票弃权的表决结果通过了 人工智能法案,并预计在同年 4 月交由欧盟理事会批准,以使得人工智能法案最终成为具有强制效力的正式法律。欧盟及其他地区的立法活动为我国提供了参考,在制定暂行办法时,我国也对国际先进、有借鉴意义的经验进行吸收学习,博采众长,合理借鉴多数司法管辖区例如训练数据治理等监管要求,

131、体现出暂行办法的国际先进性。另一方面,作为世界范围内首部正式通过的生成式人工智能服务法规,暂行办法立足我国实践,通过第四条中要求尊重“社会公德和伦理”,确定中国生成式人工智能的伦理和道德原则。此外暂行办法还鼓励生成式人工智能技术的自主创新,并积极通过推进公共训练数据资源平台、推动公共数据共享开放、促进算力资源协同共享等措施,为企业就生成式人工智能算法、框架、芯片等的研发保驾护航。最后,暂行办法第六条明确鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定,也旨在将中国价值和中国方案进一步对外推广。(四)“条修叶贯”

132、,企业宜加快完善内部合规制度体系对于企业而言,不仅要着手履行暂行办法及现行算法与人工智能治理框架合规义务,更是要思考如何通过技术、制度和组织工具,建立一个内部逻辑自洽、行之有效的人工智能合规体系,以应对未来可能到来的各种监管举措。整体而言,企业宜从人工智能全生命周期的角度思考如何搭建内部合规体系,包括但不限于:1.人工智能风险管理组织;2.人工智能道德伦理标准;3.人工智能开发管理制度;4.人工智能数据安全与合规管理规范;5.人工智能技术和服务监测制度;6.人工智能安全应急处理要求;7.科技伦理审查制度等。同时,还需要考虑到企业需履行算法纠偏与报告等义务,企业应当建立内部记录机制,AI 政策解

133、读/031以实现对人工智能开发和使用的信息记录,以满足算法透明性义务和及时响应监管的要求,有助于企业进行合规自证。后记在征求意见稿出台后,我们在不要温和地走进那良夜对 的思考7一文中曾呼唤,面对生成式人工智能部分不可测风险,“即使眼前幽暗丛生,我们也不要温和地走入那良夜(Do not go gentle into that good night)”,应当以“以最大的热情鼓励和促进技术的发展,同时以最审慎的心态、最大的关注力观察人工智能的发展动向,秉承技术中立的价值,审慎包容但坚守底线”。在暂行办法“落地”后,我们欣喜地发现“发展和安全并重、促进创新和依法治理”真正成为监管原则,“包容审慎”也体

134、现在具体的监管要求和方式中。尽管我国成功发布全球首部生成式人工智能法规,可谓是“今宵绝胜无人共”,但在“欢欣鼓舞”的同时,我们仍不能放松警惕。不仅新技术新应用正在以史无前例的速度、强度和广度影响社会,各国未来陆续出台的人工智能监管规则也将引发多样化的思潮,产业发展和社会治理势必迎来第二波的冲击。在人工智能领域,监管部门如何开拓监管思路、抓准监管时机、更新监管工具,产业如何顺应合规发展方向、主动管理人工智能、快速创新应用将会持续影响各国的国际竞争力。结合暂行办法的成功经验,我们相信,产业与监管的有效沟通,相互理解与共同治理,将能协助大家携手“卧看星河尽意明”,最终走出幽暗,迎来更加璀璨的国家及人

135、类的未来。感谢实习生王艺捷对本文作出的贡献。7 同上。人工智能的法律探究/032生成式人工智能服务安全基本要求要点解析张逸瑞 冯宝宝 朱佳蔚 张津豪随着“Sora”等多模态高性能生成式人工智能的相继出现,全球范围内针对生成式人工智能服务安全的监管呼声也日渐高涨。2023 年 7 月,国家互联网信息办公室、国家发展和改革委员会等七部门联合颁布生成式人工智能服务管理暂行办法(“AIGC暂行办法”),在延续互联网信息服务算法推荐管理规定互联网信息服务深度合成管理规定所规定的算法备案的基础上,另行确立了针对生成式人工智能大模型的安全评估备案(“大模型备案”)。但是,AIGC 暂行办法对于大模型备案所关

136、注的生成式人工智能服务安全的具体要求、评估参数、评估标准等并未进行细化解释。2023 年 10 月 11 日,全国网络安全标准化技术委员会颁布了生成式人工智能服务安全基本要求(征求意见稿)(“征求意见稿”),并于 2024 年 3 月 1 日正式颁布了生成式人工智能服务安全基本要求(TC260-003)(“正式文件”)。生成式人工智能服务安全基本要求(“AIGC 安全要求”)作为国家专业标准化技术委员会发布的技术文件,在生成式人工智能服务安全的原则性要求方面提供了细化指引,为包括大模型备案在内的人工智能安全监管制度提供了评价工具,为各类生成式人工智能服务提供者开展安全评估、提高安全水平提供了参

137、考。本文将就AIGC 安全要求的正式文件相较于征求意见稿的重点修订内容进行梳理分析,并对生成式人工智能服务提供者为符合AIGC 安全要求的规定可以考虑设立的合规制度提出基础建议。AI 政策解读/033一、生成式人工智能服务安全基本要求正式文件与征求意见稿主要内容的对比与总结(一)第 3 条(术语和定义)1.第 3.1 条(生成式人工智能服务generativeartificialintelligenceservice,“生成式人工智能服务”)征求意见稿正式文件第 3.1 条(生 成 式 人 工 智 能 服 务 generative artificial intelligence service

138、,“生成式人工智能服务”):基于数据、算法、模型、规则,能够根据使用者提示生成文本、图片、音频、视频等内容的人工智能服务。第 3.1 条(生成式人工智能服务 generative artificial intelligence service,“生成式人工智能服务”):利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务。本定义照应了AIGC 暂行办法第二条对“生成式人工智能服务”的定义1。正式文件在对“生成式人工智能服务”的定义中删除了征求意见稿中“基于数据、算法、模型、规则”的表达,增加“利用生成式人工智能技术向中华人民共和国境内公众提供”,使得AIGC

139、 安全要求中“生成式人工智能服务”这一概念的定义与AIGC 暂行办法中的定义保持统一。根据本定义,结合AIGC 暂行办法第二条规定可知,目前我国针对生成式人工智能行业的监管侧重于针对面向中华人民共和国境内的公众提供生成式人工智能服务的组织或个人。对生成式人工智能技术进行单纯的内部研发和应用,不涉及向境内公众提供服务的行业组织、企业、教育和科研机构、公共文化机构等专业机构,并非本轮监管重点关注的对象。但是,该等企业仍需根据具体情况遵循中华人民共和国数据安全法(“数据安全法”)、中华人民共和国网络安全法(“网络安全法”)等法律法规,并且可以在一定程度上参考AIGC 暂行办法以及AIGC 安全要求对

140、于生成式人工智能服务安全的要求,以应对未来的合规动态。2.第 3.2 条(提供者serviceprovider,“服务提供者”)征求意见稿正式文件第 3.2 条(提供者 service provider,“服务提供者”):以交互界面、可编程接口等形式面向我国境内公众提供生成式人工智能服务的组织或个人。第 3.2 条(提供者 service provider,“服务提供者”):以交互界面、可编程接口等形式提供生成式人工智能服务的组织或个人。1 AIGC 暂行办法第二条规定,“生成式人工智能服务”是指“利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务”。人工

141、智能的法律探究/034本定义照应了AIGC 暂行办法第二十二条对“生成式人工智能服务提供者”的定义2。结合本文第 1.1 条的分析可知,正式文件对“提供者”的定义与AIGC 暂行办法中对“生成式人工智能服务提供者”的定义亦基本相同。实践中,API、SDK 等接口服务以及网页、移动应用、小程序等交互界面为目前 B 端及 C 端用户调用生成式人工智能的主流方式,故AIGC 安全要求在服务提供方式的列举中增加了“以交互界面”的方式提供生成式人工智能服务的情况,随着人工智能行业的高速发展,不排除未来可能出现新的调用方式。3.第 3.5 条(基础模型foundationmodel)征求意见稿正式文件无该

142、条款。第 3.5 条(基础模型 foundation model):在大量数据上训练的,用于普适性目标、可优化适配多种下游任务的深度神经网络模型。在征求意见稿及正式文件中,均在第 6 条(模型安全要求)中使用了“基础模型”这一概念,本定义是对“基础模型”这一概念的进一步解释,明确了需要经过主管部门备案后方可用于提供生成式人工智能服务的基础模型,区别于普通的计算机模型,是指具备深度神经网络结构的、经过优化和训练能够适配多种下游任务的通用大模型。本定义在一定程度上照应了AIGC 暂行办法第七条对生成式人工智能服务提供者开展训练数据处理活动时使用合规基础模型的要求3。实践中,国内生成式人工智能服务行

143、业对基础模型的调用通常分为三种类型:类别特点示例纯自研的基础模型能够全面掌握基础模型背后的核心算法和运行规则,并独立负责处理数据训练、生成内容标记、模型优化等所有技术性事项智谱 AI 发布的 GLM-4 国产全自研大模型4、腾讯发布的自研混元大模型52 AIGC 暂行办法第二十二条规定,“生成式人工智能服务提供者,是指利用生成式人工时能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人”。3 AIGC 暂行办法第七条规定,“生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:(一)使用具有合法来源的数据

144、和基础模型;”4 https:/ https:/ 政策解读/035类别特点示例半自研的基础模型在第三方基础模型的基础上进行二次训练、精确调优,形成适配于自身产品的基础模型,其仅能独立掌握自身研发的增量部分华 东 理 工 大 学X-D Lab(心 动实验室)基于开源的通义千问开源模型开发了心理健康大模型MindChat(漫谈)、医疗健康大模型 Sunsimiao(孙思邈)、教育/考试大模型 GradChat(锦鲤)等6完全调用第三方基础模型(不做任何调优)对于基础模型本身无法进行任何干涉,亦无法参与任何实质的技术事项百度千帆大模型平台操作台中的“模型仓库”存在多个第三方模型可以直接供企业和开发者

145、调用、部署7在这三种情况下,相应的服务提供者在AIGC 暂行办法以及AIGC 安全要求下所需要履行的义务轻重亦有所不同,需要根据具体情况进一步分析。(二)第 4 条(总则)征求意见稿正式文件第 4 条(总则):本文件支撑生成式人工智能服务管理暂行办法,提出了提供者需遵循的安全基本要求。提供者在向相关主管部门提出生成式人工智能服务上线的备案申请前,应按照本文件中各项要求逐条进行安全性评估,并将评估结果以及证明材料在备案时提交。除本文件提出的基本要求外,提供者还应自行按照我国法律法规以及国家标准相关要求做好网络安全、数据安全、个人信息保护等方面的其他安全工作。第 4 条(总则):本文件支撑生成式人

146、工智能服务管理暂行办法,提出了服务提供者需遵循的安全基本要求。服务提供者在按照有关要求履行备案手续时,按照本文件第 9章要求进行安全评估,并提交评估报告。除本文件提出的基本要求外,服务提供者应自行按照我国法律法规以及国家标准相关要求做好网络安全、数据安全、个人信息保护等方面的其他安全工作。服务提供者应紧密注意生成式人工智能可能带来的长期风险,谨慎对待可能具备欺骗人类、自我复制、自我改造能力的人工智能,并重点关注生成式人工智能可能被用于编写恶意软件、制造生物武器或化学武器等安全风险。正式文件中增加了对生成式人工智能长期风险、伦理风险的警示内容,体现对目前全球范围内针对生成式人工智能对人类社会可能

147、造成的潜在风险(包括网络安全和生物技术等领域的风险,放大虚假信息风险、伦理风险等)的高度关切。6 https:/ https:/ 5 条(语料安全要求)1.第 5.1 条(语料来源安全要求)(1)第 5.1 条 a)(语料来源管理方面)征求意见稿正式文件第 5.1 条(语料来源安全要求)a)(语料来源管理方面):1)应建立语料来源黑名单,不使用黑名单来源的数据进行训练;2)应对各来源语料进行安全评估,单一来源语料内容中含违法不良信息超过 5%的应将该来源加入黑名单。第 5.1 条(语料来源安全要求)a)(语料来源管理方面):1)面向特定语料来源进行采集前,应对该来源语料进行安全评估,语料内容中

148、含违法不良信息超过 5%的,不应采集该来源语料;2)面向特定语料来源进行采集后,应对所采集的该来源语料进行核验,含违法不良信息情况超过 5%的,不应使用该来源语料进行训练。正式文件中删除了“语料来源黑名单”制度,而修改为对来源语料本身进行安全评估的制度。我们理解,在实践中,同一语料来源项下可能存在大批量的语料,因其中某一批语料产生了安全问题而舍弃某一语料来源会造成较大的语料损失。在当下基础模型行业已经开始出现语料紧缺、训练数据不足的风险的情况下,“语料来源黑名单”制度并不利于优化生成式人工智能服务。正式文件进一步将来源语料安全制度细分为“采集前”和“采集后+训练前”两个阶段,要求服务提供者对语

149、料进行双重安全评估,确保语料来源安全。(2)第 5.1 条 c)(语料来源可追溯方面)征求意见稿正式文件第 5.1 条(语料来源安全要求)c)(语料来源可追溯方面):2)使用自采语料时,应具有采集记录,不应采集他人已明确声明不可采集的语料;注 2:自采语料包括自行生产的语料以及从互联网采集的语料。注 3:声明不可采集的方式包括但不限于 robots 协议等。3)使用商业语料时:应有具备法律效力的交易合同、合作协议等;交易方或合作方不能提供语料合法性证明材料时,不应使用该语料。第 5.1 条(语料来源安全要求)c)(语料来源可追溯方面):2)使用自采语料时,应具有采集记录,不应采集他人已明确不可

150、采集的语料;注 2:自采语料包括自行生产的语料以及从互联网采集的语料。注 3:明确不可采集的语料,例如已通过 robots 协议或其他限制采集的技术手段明确表明不可采集的网页数据,或个人已拒绝授权采集的个人信息等。3)使用商业语料时:应有具备法律效力的交易合同、合作协议等;交易方或合作方不能提供语料来源、质量、安全等方面的承诺以及相关证明材料时,不应使用该语料;应对交易方或合作方所提供语料、承诺、材料进行审核。AI 政策解读/037本条系对语料来源合规性追溯的规定。语料的来源分为自采语料与商业语料。所谓自采语料,是指自行生产以及从互联网采集的语料。AIGC 安全要求规定服务提供者应当采取措施从

151、源头追溯并确保自采语料合规性,包括(1)保存采集记录;(2)不采集他人已明确不可采集的语料,包括(a)通过robots协议等技术手段标明不可采集的网页数据,以及(b)正式文件增加的“个人已拒绝授权采集的个人信息”。我们理解,正式文件中将个人拒绝授权采集的个人信息明确列举于不得采集的语料中,系对AIGC 暂行办法第七条的进一步细化8。关于商业语料,我们理解主要指并非由服务提供者自行采集,而是通过与第三方语料提供方进行交易获得的语料。AIGC 安全要求规定服务提供者应当采取措施,确保商业语料的合规性,包括(1)与语料提供方签署有效的交易文件;(2)要求语料提供方提供语料来源、质量、安全等承诺以及相

152、关证明材料并进行审核。本条在一定程度上明确了商业语料交易所需遵循的合规性要求,但仍遗留了一些问题,有待进一步在实践中摸索出答案,例如,语料接收方对语料提供方所提供的承诺以及证明材料需尽到何种程度的审核义务,才能够被认定为适当地履行了合规要求等。2.第 5.2 条(语料内容安全要求)(1)第 5.2 条 b)(知识产权方面)征求意见稿正式文件第 5.2 条(语料内容安全要求)b)(知识产权方面):2)语料用于训练前,知识产权相关负责人等应对语料中的知识产权侵权情况进行识别,提供者不应使用有侵权问题的语料进行训练:训练语料包含文学、艺术、科学作品的,应重点识别训练语料以及生成内容中的著作权侵权问题

153、;对训练语料中的商业语料以及使用者输入信息,应重点识别侵犯商业秘密的问题;第 5.2 条(语料内容安全要求)b)(知识产权方面):2)语料用于训练前,应对语料中的主要知识产权侵权风险进行识别,发现存在知识产权侵权等问题的,服务提供者不应使用相关语料进行训练;例如,语料中包含文学、艺术、科学作品的,应重点识别语料以及生成内容中的著作权侵权问题;正式文件删除了对“侵犯商业秘密”的重点识别要求,我们理解,一方面,对于泄露他人商业秘密这一语料安全风险,正式文件中已经于附录 A 中进行了明确;另一方面,商业秘密的识别是一项难度和成本较高的任务,可能会对人工智能产业的初期发展带来较大的压力。8 AIGC

154、暂行办法第七条规定,“生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:(三)涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;(五)中华人民共和国网络安全法中华人民共和国数据安全法中华人民共和国个人信息保护法等法律、行政法规的其他有关规定和有关主管部门的相关监管要求。”人工智能的法律探究/038(2)第 5.2 条 c)(个人信息方面)征求意见稿正式文件第 5.2 条(语料内容安全要求)c)(个人信息方面):1)应使用包含个人信息的语料时,获得对应个人信息主体的授权同意,或满足其他合法使用该个人信息的条件;2)应使用包含敏感个人信息的语

155、料时,获得对应个人信息主体的单独授权同意,或满足其他合法使用该敏感个人信息的条件;3)应使用包含人脸等生物特征信息的语料时,获得对应个人信息主体的书面授权同意,或满足其他合法使用该生物特征信息的条件。第 5.2 条(语料内容安全要求 c)(个人信息方面):1)在使用包含个人信息的语料前,应取得对应个人同意或者符合法律、行政法规规定的其他情形;2)在使用包含敏感个人信息的语料前,应取得对应个人单独同意或者符合法律、行政法规规定的其他情形。本条照应了AIGC 暂行办法中第七条对生成式人工智能服务提供者开展训练数据处理活动时使用个人信息的合规要求9。正式文件较征求意见稿而言,主要有以下几点调整:首先

156、,正式文件将“使用时”的表述修改为“使用前”。我们理解,一方面,该等修改符合中华人民共和国个人信息保护法(“个保法”)关于个人信息处理者在处理个人信息前的告知义务的规定10。而根据个保法第四条规定,个人信息的使用即属于个人信息的处理的一种情形11。因此,从遵循个保法规定的角度看,服务提供者应当在使用包含个人信息的语料之前,而非之时,即取得对应的个人同意或者符合法律、行政法规规定的其他情形。另一方面,服务提供者对语料的使用往往是多次、同时、大批量的使用,因此,要求其在使用的同时开始履行合规要求并不具备实操性,而是应当在使用乃至获取语料之前即获得个人同意,或者确保其符合法律法规的要求。其次,正式文

157、件删去了“应使用包含人脸等生物特征信息的语料时,获得对应个人信息主体的书面授权同意,或满足其他合法使用该生物特征信息的条件。”根据个保法第二十八条规定,敏感个人信息包含生物识别信息12。因此,即使正式文件中删去本条,由于上述第 2)条的“敏感个人信息”在个保法的定义中已经包括了生物识别信息,因此并不会减轻服务提供者处理个人信息时需要履行的义务。第三,正式文件将“或满足其他合法使用该个人信息的条件”的表述一律调整为“应9 AIGC 暂行办法第七条规定,“生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:(三)涉及个人信息的,应当取得个人同意或者

158、符合法律、行政法规规定的其他情形;。”10 中华人民共和国个人信息保护法第十七条规定,“个人信息处理者在处理个人信息前,应当以显著方式、清晰易懂的语言真实、准确、完整地向个人告知下列事项:(一)个人信息处理者的名称或者姓名和联系方式;(二)个人信息的处理目的、处理方式,处理的个人信息种类、保存期限;(三)个人行使本法规定权利的方式和程序;(四)法律、行政法规规定应当告知的其他事项。前款规定事项发生变更的,应当将变更部分告知个人。”11 中华人民共和国个人信息保护法第四条规定,“个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。个人信息的处理包

159、括个人信息的收集、存储、使用、加工、传输、提供、公开、删除等。”12 中华人民共和国个人信息保护法第二十八条规定,“敏感个人信息是一旦泄露或者非法使用,容易导致自然人的人格尊严受到侵害或者人身、财产安全受到危害的个人信息,包括生物识别等信息。”AI 政策解读/039取得对应个人同意或者符合法律、行政法规规定的其他情形”。我们理解,这一调整主要是为了与AIGC 暂行办法第七条的表述保持一致。3.第 5.3 条(语料标注安全要求)(1)第 5.3 条 a)(标注人员方面)征求意见稿正式文件第 5.3 条(语料标注安全要求)a)(标注人员方面):1)应自行对标注人员进行考核,给予合格者标注资质,并有

160、定期重新培训考核以及必要时暂停或取消标注资质的机制;第 5.3 条(语料标注安全要求)a)(标注人员方面):1)应自行组织对于标注人员的安全培训,培训内容应包括标注任务规则、标注工具使用方法、标注内容质量核验方法、标注数据安全管理要求等;2)应自行对标注人员进行考核,给予合格者标注上岗资格,并有定期重新培训考核以及必要时暂停或取消标注上岗资格的机制,考核内容应包括标注规则理解能力、标注工具使用能力、安全风险判定能力、数据安全管理能力等;本条内容照应了AIGC 暂行办法第八条中对生成式人工智能服务提供者在技术研发过程中进行数据标注的要求,并对该等要求进行了细化和进一步拓展13。正式文件相较于征求

161、意见稿,增加了对于标注人员的安全培训以及具体培训内容的要求,并进一步明确了标注人员的考核机制。(四)第 6 条(模型安全要求)(对服务提供者的要求)1.第 6 条 b)(模型生成内容安全方面)征求意见稿正式文件第 6 条 b)模型生成内容安全方面:1)在训练过程中,应将生成内容安全性作为评价生成结果优劣的主要考虑指标之一;2)在每次对话中,应对使用者输入信息进行安全性检测,引导模型生成积极正向内容;3)对提供服务过程中以及定期检测时发现的安全问题,应通过针对性的指令微调、强化学习等方式优化模型。注:模型生成内容是指模型直接输出的、未经其他处理的原生内容。第 6 条 b)模型生成内容安全方面:1

162、)在训练过程中,应将生成内容安全性作为评价生成结果优劣的主要考虑指标之一;2)在每次对话中,应对使用者输入信息进行安全性检测,引导模型生成积极正向内容;3)应建立常态化监测测评手段,对监测测评发现的提供服务过程中的安全问题,及时处置并通过针对性的指令微调、强化学习等方式优化模型。注:模型生成内容是指模型直接输出的、未经其他处理的原生内容。正式文件将征求意见稿中对模型生成内容的“定期检测”要求具象化为要求服务提供者建立常态化监测测评手段,强调监测测评是持续进行的过程,进一步确保提供服务全过13 AIGC 暂行办法第八条的规定,“在生成式人工智能技术研发过程中进行数据标注的,提供者应当制定符合本办

163、法要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。”人工智能的法律探究/040程的安全性。另外,正式文件中增加了及时处置安全问题的表述,对服务提供者提出问题处理的时效性要求,防止安全问题扩大带来进一步影响。2.第 6 条 c)(生成内容准确性方面)d)(生成内容可靠性方面)征求意见稿正式文件第 6 条 d)生成内容准确性方面:生成内容应准确响应使用者输入意图,所包含的数据及表述应符合科学常识或主流认知、不含错误内容。e)生成内容可靠性方面:服务按照使用者指令给出的回复,应格式框架合理

164、、有效内容含量高,应能够有效帮助使用者解答问题。第 6 条 c)生成内容准确性方面:应采取技术措施提高生成内容响应使用者输入意图的能力,提高生成内容中数据及表述与科学常识及主流认知的符合程度,减少其中的错误内容。d)生成内容可靠性方面:应采取技术措施提高生成内容格式框架的合理性以及有效内容的含量,提高生成内容对使用者的帮助作用。正式文件改变了征求意见稿中对生成内容的安全性的绝对要求,转变为要求服务提供者采取操作保障内容安全,即要求服务提供者采取技术措施实现生成内容准确性和可靠性的提高。本条的增删在一定程度上体现了监管部门对于生成式人工智能具有不可控性这一客观事实的理解,进而将监管的侧重点从单一

165、的“结果安全”转变为兼顾“结果安全”与“程序安全”,降低了各类生成式人工智能服务提供者的合规压力。(五)第 7 条(安全措施要求)(对服务提供者的要求)1.第 7 条 a)(模型适用人群、场合、用途方面)征求意见稿正式文件第 7 条 a)模型适用人群、场合、用途方面:1)应充分论证在服务范围内各领域应用生成式人工智能的必要性、适用性以及安全性;2)服务用于关键信息基础设施、自动控制、医疗信息服务、心理咨询等重要场合的,应具备与风险程度以及场景相适应的保护措施;3)服务适用未成年人的,应:允许监护人设定未成年人防沉迷措施,并通过密码保护;限制未成年人单日对话次数与时长,若超过使用次数或时长需输入

166、管理密码;需经过监护人确认后未成年人方可进行消费;为未成年人过滤少儿不宜内容,展示有益身心健康的内容。4)服务不适用未成年人的,应采取技术或管理措施防止未成年人使用。第 7 条 a)模型适用人群、场合、用途方面:1)应充分论证在服务范围内各领域应用生成式人工智能的必要性、适用性以及安全性;2)服务用于关键信息基础设施,以及如自动控制、医疗信息服务、心理咨询、金融信息服务等重要场合的,应具备与风险程度以及场景相适应的保护措施;3)服务适用未成年人的:应允许监护人设定未成年人防沉迷措施;不应向未成年人提供与其民事行为能力不符的付费服务;应积极展示有益未成年人身心健康的内容。4)服务不适用未成年人的

167、,应采取技术或管理措施防止未成年人使用。AI 政策解读/041一方面,正式文件增加了金融信息服务作为重要场合之一,进行明确列举,要求服务提供者将服务用于金融信息服务时,也需要具备与风险程度以及场景相适应的保护措施。金融安全是国家安全的重要组成部分,本条的修改照应了金融信息服务管理规定中对金融信息服务提供者应当履行主体责任、建立信息安全保障等服务规范的要求14,体现了我国监管部门对于生成式人工智能服务应用于金融行业所可能构成的潜在风险的特别关注。另一方面,本条也照应了AIGC 暂行办法对未成年人保护的要求,并对实现该等要求所应采取的措施进行了细化15。正式文件在适用未成年人服务方面,删除了密码管

168、理形式及单日对话次数与时长的限制,避免过度限制未成年人自由,体现中华人民共和国未成年人保护法保护未成年人隐私权的原则16。此外,正式文件在规范未成年人付费服务方面,由要求未成年人的监护人确认付费服务内容改为要求服务提供者负责不向未成年人提供与其民事行为能力不符的付费服务,并要求服务提供者谨慎开放面向未成年人的付费服务。2.第 7 条 b)(服务透明度方面)征求意见稿正式文件第 6 条 c)服务透明度方面:1)以交互界面提供服务的,应在网站上海品茶等显著位置向社会公开以下信息:服务适用的人群、场合、用途等信息;第三方基础模型使用情况。2)以交互界面提供服务的,应在网站上海品茶、服务协议等便于查看的位置向

169、使用者公开以下信息:服务的局限性;所使用的模型架构、训练框架等有助于使用者了解服务机制机理的概要信息。3)以可编程接口形式提供服务的,应在说明文档中公开 1)和 2)中的信息。第 7 条 b)服务透明度方面:1)以交互界面提供服务的,应在网站上海品茶等显著位置向社会公开服务适用的人群、场合、用途等信息,宜同时公开基础模型使用情况;2)以交互界面提供服务的,应在网站上海品茶、服务协议等便于查看的位置向使用者公开以下信息:服务的局限性;所使用的模型、算法等方面的概要信息;所采集的个人信息及其在服务中的用途。3)以可编程接口形式提供服务的,应在说明文档中公开 1)和 2)中的信息。14 金融信息服务管理规定

170、第五条规定,“金融信息服务提供者应当履行主体责任,配备与服务规模相适应的管理人员,建立信息内容审核、信息数据保存、信息安全保障、个人信息保护、知识产权保护等服务规范。”15 AIGC 暂行办法第十条规定,“提供者应当指导使用者科学理性认识和依法使用生成式人工智能技术,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。”16 中华人民共和国未成年人保护法第四条规定,“保护未成年人,应当坚持最有利于未成年人的原则。处理涉及未成年人事项,应当符合下列要求:(三)保护未成年人隐私权和个人信息;。”人工智能的法律探究/042本条照应了AIGC 暂行办法第十条针对生成式人工智能服务透明度的要

171、求17。正式文件在公开信息方面取消强制公开基础模型使用情况,此改动平衡了提升生成式人工智能服务对用户的透明度与保护商业秘密这两项需求。另外,正式文件中还增加了要求服务提供者在显著位置公开采集个人信息及其在服务中的用途的规定,与个保法中个人信息处理规则保持一致18,体现对个人信息保护的重视。3.第 7 条 c)(收集使用者输入信息用于训练方面)征求意见稿正式文件第 7 条 c)收集使用者输入信息用于训练方面:1)应事前与使用者约定能否将使用者输入信息用于训练;2)应设置关闭使用者输入信息用于训练的选项;3)使用者从服务主界面开始到达该选项所需操作不应超过 4 次点击;4)应将收集使用者输入的状态

172、,以及(2)中的关闭方式显著告知使用者。第 7 条 c)收集使用者输入信息用于训练方面:1)应为使用者提供关闭其输入信息用于训练的方式,例如为使用者提供选项或语音控制指令;关闭方式应便捷,例如采用选项方式时使用者从服务主界面开始到达该选项所需操作不超过 4 次点击;2)应将收集使用者输入的状态,以及(1)中的关闭方式显著告知使用者。本条照应了AIGC 暂行办法第九条的规定19。正式文件中删除了服务提供者“应事前与使用者约定能否将使用者输入信息用于训练”这一要求,而仅保留了“服务提供者显著告知+允许使用者便捷关闭”的同意机制。针对收集输入信息用于训练事项,建议服务提供者在与使用者的用户协议中明确

173、规定、向使用者发送站内信或通过其他方式提示使用者其输入信息将用于训练,并根据正式文件的要求对向使用者明确提供简便快捷的关闭输入信息用于训练的方式。17 AIGC 暂行办法第十条规定,“提供者应当明确并公开其服务的适用人群、场合、用途”。18 中华人民共和国个人信息保护法第十七条规定,“个人信息处理者在处理个人信息前,应当以显著方式、清晰易懂的语言真实、准确、完整地向个人告知下列事项:(二)个人信息的处理目的、处理方式,处理的个人信息种类、保存期限;。个人信息处理者通过制定个人信息处理规则的方式告知第一款规定事项的,处理规则应当公开,并且便于查阅和保存。”19 AIGC暂行办法 第九条规定,“提

174、供者应当与注册其服务的生成式人工智能服务使用者(以下称使用者)签订服务协议,明确双方权利义务。”AI 政策解读/0434.第 7 条 d)(图片、视频等内容标识方面)征求意见稿正式文件第 7 条 d)图 片、视 频 等 内 容标 识 方 面,应 按 TC260-PG-20233A网络安全标准实践指南生成式人工智能服务内容标识方法进行以下标识:1)显示区域标识;2)图片、视频的提示文字标识;3)图片、视频、音频的隐藏水印标识;4)文件元数据标识;5)特殊服务场景的标识。第 7 条 d)图片、视频等内容标识方面,应满足国家相关规定以及国家标准要求。本条照应了AIGC 暂行办法中第十二条关于生成内容

175、标识的规定20。正式文件中删去了内容标识的特定依据,我们理解,服务提供者对于生成内容标识的规定应当遵循包括互联网信息服务深度合成管理规定、TC260-PG-20233A网络安全标准实践指南生成式人工智能服务内容标识方法在内的现有以及未来可能出现的相关国家标准、行业标准的规定。5.第 7 条 e)(训练、推理所采用的计算系统方面)征求意见稿正式文件无该条款。第 7 条 e)训练、推理所采用的计算系统方面:1)应评估系统所采用芯片、软件、工具、算力等方面的供应链安全,侧重评估供应持续性、稳定性等方面;2)所采用芯片宜支持基于硬件的安全启动、可信启动流程及安全性验证,保障生成式人工智能系统运行在安全

176、可信环境中。本条照应了AIGC 暂行办法第六条的规定21。正式文件中增加了对训练和推理所采用的计算系统方面的安全要求,提出计算系统供应链安全评估要求,并对芯片安全程度提出支持标准,从软件硬件两方面出发保障计算系统的安全运行,也与中华人民共和国计算机信息系统安全保护条例中计算机信息系统的使用单位应当建立健全安全管理制度的要求相适应22。20 AIGC 暂行办法第十二条规定,“提供者应当按照互联网信息服务深度合成管理规定对图片、视频等生成内容进行标识。”21 AIGC 暂行办法第六条规定,“促进算力资源协同共享,提升算力资源利用效能。推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。鼓励

177、采用安全可信的芯片、软件、工具、算力和数据资源。”22 中华人民共和国计算机信息系统安全保护条例第十三条规定,“计算机信息系统的使用单位应当建立健全安全管理制度,负责本单位计算机信息系统的安全保护工作。”人工智能的法律探究/0446.第 7 条 g)(向使用者提供服务方面)征求意见稿正式文件第 7 条 f)向使用者提供服务方面:1)对明显偏激以及明显诱导生成违法不良信息的问题,应拒绝回答;对其他问题,应均能正常回答;2)应设置监看人员,及时根据国家政策以及第三方投诉情况提高生成内容质量,监看人员数量应与服务规模相匹配。第 7 条 g)向使用者提供服务方面:1)应采取关键词、分类模型等方式对使用

178、者输入信息进行检测,使用者连续三次或一天内累计五次输入违法不良信息或明显诱导生成违法不良信息的,应依法依约采取暂停提供服务等处置措施;2)对明显偏激以及明显诱导生成违法不良信息的问题,应拒绝回答;对其他问题,应均能正常回答;3)应设置监看人员,并及时根据监看情况提高生成内容质量及安全,监看人员数量应与服务规模相匹配。注:监看人员的职责包括及时跟踪国家政策、收集分析第三方投诉情况等。本条照应了AIGC 暂行办法第十四条中对服务提供者就违法内容采取处置措施的要求23。正式文件增加了对使用者输入信息的检测及相应处置要求,加强对使用者输入信息的监管,并要求服务提供者根据监看情况而非仅根据国家政策以及第

179、三方投诉情况来进行内容优化。总体而言,本条向服务提供者提供了生成内容监控制度的设立要点,分别包括(1)在输入阶段,检测输入信息、对多次输入违法信息的用户采取处置措施;(2)在内容生成阶段,对诱导性问题设立拒绝回答的机制;(3)设置人员监控制度,根据监控情况及时调整基础模型,提高生成内容质量及安全。7.第 7 条 h)(模型更新、升级方面)征求意见稿正式文件第7条g)模型更新、升级方面:1)应制定在模型更新、升级时的安全管理策略;2)应形成管理机制,在模型重要更新、升级后,再次进行安全评估,并按规定向主管部门重新备案。第 7 条 h)模型更新、升级方面:1)应制定在模型更新、升级时的安全管理策略

180、;2)应形成管理机制,在模型重要更新、升级后,再次自行组织安全评估。正式文件删除了在模型重要更新、升级后须重新备案的要求,修改为由服务提供者自行组织安全评估。这一修改与具有舆论属性或社会动员能力的互联网信息服务安全评估23 AIGC 暂行办法第十四条规定,“提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。”AI 政策解读/045规定(“互联网信息服务安全评估规定”

181、)中互联网信息服务提供者应当在使用新技术新应用导致重大变更等情形下自行开展安全评估的规定相适应24。根据互联网信息服务安全评估规定第七条规定25,如该等模型重要更新、升级属于使用新技术新应用导致重大变更情形,服务提供者完成该等安全评估后需要将该等安全评估报告提交至网信部门等主管部门。如服务提供者涉及提供互联网新闻信息服务的,还需根据互联网新闻信息服务新技术新应用安全评估管理规定规定26报请国家或者省、自治区、直辖市互联网信息办公室组织开展安全评估。8.第 7 条 i)(服务稳定、持续方面)征求意见稿正式文件无该条款。第 7 条 i)服务稳定、持续方面:1)应将训练环境与推理环境隔离,避免数据泄

182、露和不当访问;2)应对模型输入内容持续监测,防范恶意输入攻击,例如DDoS、XSS、注入攻击等;3)应定期对所使用的开发框架、代码等进行安全审计,关注开源框架安全及漏洞相关问题,识别和修复潜在的安全漏洞;4)应建立数据、模型、框架、工具等的备份机制以及恢复策略,重点确保业务连续性。本条照应了AIGC 暂行办法第十三条对生成式人工智能服务稳定性与持续性的要求27。正式文件单独增加了本条款,既遵循了AIGC 暂行办法的要求,也与目前全球各主要国家和地区对人工智能服务鲁棒性(robustness)的普遍关注态度一致。正式文件中明确了保障稳定性与可持续性须注意的技术要点,包括隔离训练环境与推理环境、持

183、续监测模型输入内容、定期安全审计、建立备份机制和恢复策略等。24 互联网信息服务安全评估规定第三条规定,“互联网信息服务提供者具有下列情形之一的,应当依照本规定自行开展安全评估,并对评估结果负责:(二)使用新技术新应用,使信息服务的功能属性、技术实现方式、基础资源配置等发生重大变更,导致舆论属性或者社会动员能力发生重大变化的;。”25 互联网信息服务安全评估规定第七条规定,“互联网信息服务提供者应当将安全评估报告通过全国互联网安全管理服务平台提交所在地地市级以上网信部门和公安机关。具有本规定第三条第一项、第二项情形的,互联网信息服务提供者应当在信息服务、新技术新应用上线或者功能增设前提交安全评

184、估报告;具有本规定第三条第三、四、五项情形的,应当自相关情形发生之日起 30 个工作日内提交安全评估报告。”26 互联网新闻信息服务新技术新应用安全评估管理规定第七条规定,“有下列情形之一的,互联网新闻信息服务提供者应当自行组织开展新技术新应用安全评估,编制书面安全评估报告,并对评估结果负责:(一)应用新技术、调整增设具有新闻舆论属性或社会动员能力的应用功能的;(二)新技术、新应用功能在用户规模、功能属性、技术实现方式、基础资源配置等方面的改变导致新闻舆论属性或社会动员能力发生重大变化的。国家互联网信息办公室适时发布新技术新应用安全评估目录,供互联网新闻信息服务提供者自行组织开展安全评估参考。

185、”互联网新闻信息服务新技术新应用安全评估管理规定第八条规定,“互联网新闻信息服务提供者按照本规定第七条自行组织开展新技术新应用安全评估,发现存在安全风险的,应当及时整改,直至消除相关安全风险。按照本规定第七条规定自行组织开展安全评估的,应当在应用新技术、调整增设应用功能前完成评估。”互联网新闻信息服务新技术新应用安全评估管理规定第九条规定,“互联网新闻信息服务提供者按照本规定第八条自行组织开展新技术新应用安全评估后,应当自安全评估完成之日起 10 个工作日内报请国家或者省、自治区、直辖市互联网信息办公室组织开展安全评估。”27 AIGC 暂行办法第十三条规定,“提供者应当在其服务过程中,提供安

186、全、稳定、持续的服务,保障用户正常使用。”人工智能的法律探究/046(六)第 9 条(安全评估要求,原第 8 条)1.第 9.1 条(评估方法,原 8.1 条)征求意见稿正式文件第 8.1 条(评估方法)对提供者的要求如下。a)应在服务上线前以及重大变更时开展安全评估,评估可自行开展安全评估,也可委托第三方评估机构开展。b)安全评估应覆盖本文件所有条款,每个条款应形成单独的评估结论,评估结论应为符合、不符合或不适用:1)结论为符合的,应具有充分的证明材料;2)结论为不符合的,应说明不符合的原因,采用与本文件不一致的技术或管理措施,但能达到同样安全效果的,应详细说明并提供措施有效性的证明;3)结

187、论为不适用的,应说明不适用理由。c)应将本文件各条款的评估结论以及相关证明、支撑材料写入评估报告:1)评估报告应符合开展评估时主管部门要求;2)撰写评估报告过程中,因报告格式原因,本文件中部分条款的评估结论和相关情况无法写入评估报告正文的,应统一写入附件。d)自行开展安全评估的,评估报告应至少具有三名负责人共同签字:1)单位法人;2)整体负责安全评估工作的负责人,应为单位主要管理者或网络安全负责人;3)安全评估工作中合法性评估部分的负责人,应为单位主要管理者或法务负责人。第 9.1 条(评估方法)要求如下。a)按照本文件自行组织的安全评估,可由提供方自行开展,也可委托第三方评估机构开展。b)安

188、全评估应覆盖本文件第 5 章至第 8 章中所有条款,每个条款应形成单独的评估结果,评估结果应为符合、不符合或不适用:1)结果为符合的,应具有充分的证明材料;2)结果为不符合的,应说明不符合的原因,有以下特殊情况的应补充说明:采用与本文件不一致的技术或管理措施,但能达到同样安全效果的,应详细说明并提供措施有效性的证明;已采取技术或管理措施但尚未满足要求的,应详细说明采取的措施和后续满足要求的计划。3)结果为不适用的,应说明不适用理由。c)应将本文件第 5 章至第 8 章中各条款的评估结果以及相关证明、支撑材料写入评估报告:1)评估报告应符合履行备案手续时的相关要求;2)撰写评估报告过程中,因报告

189、格式原因,本文件中部分条款的评估结果和相关情况无法写入评估报告正文的,应统一写入附件。d)应在评估报告中形成整体评估结论:1)各条款的评估结果均为符合或不适用时,整体评估结论为全部符合要求;2)部分条款评估结果为不符合时,整体评估结论为部分符合要求;3)全部条款均为不符合时,整体评估结论为全部不符合要求;4)第 5 章至第 8 章中推荐性条款的评估结果不影响整体评估结论。e)自行开展安全评估的,评估报告应至少具有三名负责人共同签字:1)单位法定代表人;2)整体负责安全评估工作的负责人,应为单位主要管理者或网络安全负责人;3)安全评估工作中合法性评估部分的负责人,应为单位主要管理者或法务负责人。

190、AI 政策解读/047正式文件中对安全评估结果为不符合的特殊情况做出了进一步规范,要求服务提供者对已经采取技术或管理措施但未符合AIGC 安全要求项下强制性安全措施要求的部分进行详细说明,阐明采取的措施以及后续满足要求的计划。另外,正式文件中还新增了要求安全评估报告形成整体评估结论的内容,并明确了该结论的评估标准,进一步提高了安全评估报告的完整性与科学性。二、生成式人工智能服务安全制度的修订要点与合规制度建议(一)修订要点整体而言,正式文件较征求意见稿的修订大致分为三个方面:其一,将各类定义与条款表述与个保法、AIGC 暂行办法等法律规定拉齐,保证规范概念体系的一致性;其二,从可行性的角度对部

191、分生成式人工智能服务的安全要求进行了删繁就简、灵活处理,平衡了包括用户知情权、内容安全在内的合规需求与发展需求;其三,在语料采集、语料标注、内容安全监测、服务稳定性等方面为服务提供者提供了更为明确、详细、与当前发展水平相适应的制度设立的指引。(二)安全合规制度建议在归纳梳理了 AIGC安全要求 正式文件中对服务提供者的各项服务安全评估要求后,我们建议服务提供者可考虑采取下述制度,以保障自身所提供的生成式人工智能服务的安全性。1.设立语料来源安全管理制度(1)设立语料采集前及采集后安全评估制度,结合AIGC 安全要求附录 A 中针对语料安全风险信息的分类,对风险语料设立分级分类识别、关键词识别等

192、识别机制。(2)设立语料来源追溯制度。将采集的语料根据AIGC 安全要求分为自采语料28与商业语料,并针对不同类型的语料,通过内部培训、协议条款约定、交易审核流程等环节建立起语料追溯制度。2.设立语料内容安全管理制度,包括:(1)语料内容过滤制度。服务提供者可以通过多种机制确保语料内容的合法性和适宜性,包括但不限于:关键词过滤、分类模型、人工抽检等;(2)知识产权管理制度。服务提供者可以确立针对生成式人工智能的知识产权管理制度,包括但不限于:设立知识产权负责人和管理策略、设立知识产权风险识别制度、建28 AIGC 安全要求正式文件规定,对于汇聚了网络地址、数据链接等能够指向或生成其他数据的情况

193、,如果需要使用这些被指向或生成的内容作为语料,应将其视同于自采语料。人工智能的法律探究/048立用户易于访问的投诉举报渠道以及知识产权侵权问题报告渠道等。3.建立语料标注规范,包括:(1)标注人员管理制度,包括但不限于:安全培训制度、考核制度、职能划分等;(2)标注规则,包括但不限于:确立规则基本内容,制定包含标注目标、数据格式、方法和质量指标的标注规则;确立功能性与安全性标注规则,分别对功能性和安全性标注制定规则,至少覆盖数据标注和审核环节。(3)标注内容抽检审核制度,包括但不限于:功能性标注抽检制度,对每批标注语料进行人工抽检,不准确的内容需重新标注,包含违法不良信息的批次应废弃;安全性标

194、注审核制度,确保每条安全性标注语料至少需经一名审核人员审核通过。(4)设立数据隔离存储制度,对安全性标注数据进行隔离存储,以保障数据的安全性和完整性。4.设立模型生成内容安全制度,包括但不限于:(1)安全性评价规则,在模型训练过程中,将生成内容的安全性作为评估生成结果好坏的主要指标;(2)输入信息安全性检测制度,对用户输入进行安全性检测,引导模型生成积极正向的内容;(3)常态化监测与优化机制,建立常态化的监测评估机制,对服务过程中检测到的安全问题进行及时处理,并通过指令微调或强化学习等技术手段优化模型。5.其他综合管理制度(1)模型适用性和安全性制度,包括但不限于:特殊场合的保护措施:为关键信

195、息基础设施领域,或者如自动控制、医疗信息服务等重要场景提供服务时,结合网络安全法数据安全法关键信息基础设施安全保护条例信息安全技术 关键信息基础设施安全保护要求等规范制定与风险相适应的保护措施;AI 政策解读/049 未成年人保护制度:结合未成年人网络保护条例等未成年人保护相关法律法规设立未成年人使用规则,允许监护人设定防沉迷措施,展示有益内容,防止未成年人接触不适用服务。(2)内容监管与质量控制制度,设置关键词和分类模型监管制度以及人员监看制度:对用户输入进行监管,对违法不良信息采取处置措施,并根据监看情况提高内容质量及安全,监看人员数量应与服务规模匹配。(3)环境隔离与安全审计制度,隔离训

196、练与推理环境,定期进行安全审计。设立持续监测与备份恢复制度,持续监测输入内容,建立数据和模型的备份及恢复策略。结语生成式人工智能服务安全基本要求正式文件的出台,不仅为企业提供了更明确的合规指导,也体现了我国在促进技术创新的同时,对于保障网络安全、个人隐私以及社会公共利益的坚定立场。面对快速发展的生成式人工智能技术,建立和完善相应的合规制度,不仅符合当前的法规要求,更使其在不断变化的法律环境中保持灵活性和前瞻性,确保技术创新的同时,能够有效管理风险,保护用户权益。我们将持续关注,为企业保驾护航。感谢实习生缪逸泓、张文溢、何一辰对本文作出的贡献。人工智能的法律探究/050生成式人工智能服务安全基本

197、要求实务解析宁宣凤 吴涵 吴舸 张浣然 刘畅引言自 2022 年初以来,我国陆续发布算法推荐、深度合成与生成式人工智能服务相关的规范文件,初步构建起对特定领域人工智能技术与服务的监管机制。具体至生成式人工智能服务领域,在生成式人工智能服务管理暂行办法(“暂行办法”)的监管框架下,形成了由算法备案制度和生成式人工智能(大语言模型)备案(“大模型备案”)构成的“双备案制”的实践机制。算法备案制度最早在互联网信息服务算法推荐管理规定(“算法推荐规定”)中确立,企业可通过中央网信办的互联网信息服务算法备案系统提交算法备案申请,流程和备案内容细则均较为固定。而大模型备案自暂行办法施行之日起也仅有半年,还

198、需要与服务提供者开展更多有效地沟通、互动来积攒监管经验以制定明确、具体的规则,从而指引企业履行大模型备案义务,尤其是备案所需的安全评估。在此背景下,2023 年 10 月 11 日,全国网络安全标准化技术委员会秘书处发布生成式人工智能服务安全基本要求(征求意见稿)(“征求意见稿”),就包含语料安全、模型安全在内的生成式人工智能服务安全的基本要求广泛征求社会公众意见。2024 年 3 月 1 日,历时近半年,生成式人工智能服务安全基本要求(“基本要求”)正式发布。根据规范内容,我们理解,基本要求对暂行办法相关合规要求例如数据来源合法、内容安全等在执行规则方面的细化,并对生成式人工智能服务提供者在

199、实践中开展安全评估提供有效的路径,不仅能推动企业提高其自身的生成式人工智能服务安全能力,还可为监管部门评价特定生成式人工智能服务的安全水平提供参考标准。基于前述,本文尝试明晰基本要求的出台背景与实践定位,梳理基本要求所涉的各类安全要求,以便为相关企业遵循执行基本要求提供抓手。AI 政策解读/051一、规范背景与定位(一)系对暂行办法的细化支撑,对生成式人工智能服务其他适用法律法规的增强衔接从规范效力来看,基本要求属于全国信息安全标准化技术委员会编制的技术文件,是一种旨在引导、指引生成式人工智能服务安全发展的指南类文件,而不具备强制性法律效力。但若逐一比对暂行办法除安全评估相关要求之外的通用规定

200、(即第 5-7 章),可以看到基本要求并非是空中楼阁地架设额外合规义务,而是对暂行办法接近于一一对应的细化、解释,以及对于暂行办法上位法、其他监管生成式人工智能服务的法律法规的增强衔接性规定,故可以为服务提供者有的放矢落实暂行办法,在现行网络空间治理法律框架下合法合规提供生成式人工智能服务提供实践指引与监管侧重参照。基本要求与暂行办法规定的具体对应关系,可参见下表:基本要求规定暂行办法规定语料安全语料来源安全语料来源管理:不得使用含违法不良信息超过 5%的语料语料搭配:从语言、模态、境内外来源方面提出多样性要求来源可追溯:针对开源、自采、商业语料及使用者输入信息等不同来源语料提出可追溯要求国家

201、要求阻断的信息不应作为语料第四条第(二)款第七条第(一)(四)(五)款第九条语料内容安全采取内容过滤措施过滤违法不良信息采取知识产权保护措施:设置知识产权负责人并建立管理策略、识别语料知产侵权风险、建立投诉举报渠道等采取个人信息保护措施:取得合法性基础第四条第(三)(四)款第七条第(二)(三)(五)款第九条语料标注安全标注人员规则标注规则标注内容准确性要求隔离存储安全性标注数据第八条人工智能的法律探究/052基本要求规定暂行办法规定模型安全应使用第三方已备案模型提供服务模型生成内容安全要求:将内容安全嵌入训练目的、采取模型输入信息检测和常态化检测机制生成内容准确性生成内容可靠性第四条第(五)款

202、第九条第十七条安全措施模型适用人群、场合、用途要求:针对向关键信息基础设施、未成年人提供服务的特殊要求服务透明度要求使用者输入信息用于训练要求内容标识义务训练、推理所采用的计算系统要求接受公众或使用者投诉举报向使用者提供服务模型更新、升级服务稳定、持续基本涵盖暂行规定第三章“服务规范”要求的安全措施,故此处对具体条款不予一一列举。值得注意的是,除暂行规定及其上位法外,考虑到基本要求列明的参考文献还特别包括了中华人民共和国密码法商用密码管理条例以及网络信息内容生态治理规定等生成式人工智能服务通常受到规制的法律法规,故从基本要求的规定中同样可以看到对前述规范的增强衔接性规定。例如,安全措施要求之“

203、训练、推理所采用的计算系统要求”明确提出“对系统所采用芯片宜支持基于硬件的安全启动、可信启动流程及安全性验证”,即建议企业采用可信计算芯片,并应当注意遵循密码法、商用密码相关规定。(二)大模型备案的配套指南另一方面,根据基本要求总则,除说明其旨在支撑暂行办法外,“服务提供者在按照有关要求履行备案手续时,按照本文件第 9 章要求进行安全评估并提交评估报告。”结合我们的备案相关项目经验,基本要求所指称的备案手续即是大模型备案,从实践中大模型备案的实践情况来看,基本要求实质上属于大模型备案的配套指引,其第 9 章“安全评估要求”对备案所需安全评估应涵盖的要点进行逐一细化,第 8 章“其他要求”及附录

204、 A 则是对于安全评估材料必备附件的细化要求。AI 政策解读/053总体而言,我们理解基本要求是暂行办法等规定的有益细化补充,尽管暂时不具备强制法律效力,但被法规、规章等正式法源引用或其实际内容被作为监管执法参照时,其效力也会发生转化。考虑到基本要求属于结合大模型备案支持工作经验形成,文本成熟度较高,不排除网信部门在未来的大模型备案与生成式人工智能行政执法活动中将其作为参照性标准,这也是我国 APP 治理等网络空间治理领域的常见实践。二、重点合规观察相比 2023 年 10 月份发布的征求意见稿的内容,基本要求对生成式人工智能服务在各项安全方面的要求,提出了进一步细化的指引,同时对征求意见稿的

205、部分内容进行了删除。如下列明了基本要求提出的重点合规要点:(一)对关键术语作出明确定义作为与暂行办法中“生成式人工智能服务提供者”定义的衔接,并为了明确基本要求的适用对象,基本要求所确定的“服务提供者”为“以交互界面、可编程接口等形式提供生成式人工智能服务的组织或个人。”此前在征求意见稿中的前述定义还包括了“面向我国境内公众提供服务”的前提限定,基本要求对此范围限定进行了删除,这一修订与暂行办法的整体适用范围保持一致。其次,基本要求针对“训练语料”“抽样合格率”“基础模型”“违法不良信息”等实践中可能存在争议的关键术语均进行界定,例如“训练语料”包括所有直接作为模型训练输入的数据,而无论某一训

206、练阶段,包括在预训练或优化训练过程中的输入数据。抽样合格率需要结合基本要求附录 A 列明的 31 种安全风险样本进行占比计算。可以想见,明确上述关键术语定义,也将有助于生成式人工智能服务提供者有效落实合规义务,并使得人工智能服务供应链上的多元主体(例如训练语料提供者、基础模型开发者等)在合作过程中进一步界分各方责任义务。(二)明确五类安全风险鉴于生成式人工智能本身可能无法充分理解输入与输出内容的真实内涵,且受制于模型训练数据集等技术局限性,生成式人工智能的输出内容可能存在虚假、低劣、含有偏见与歧视性质,甚至输出与人类伦理准则不相符的内容。在广泛应用下,前述违法不良信息内容更有可能对于公众的事实

207、认知造成影响并进一步引导舆论传播。因此,对于生成式人工智能输出的内容安全治理一直是立法与监管的“安全底线”。基本要求 在附录 A 中列明了语料及生成内容的五类主要安全风险,其中 A.1 类(包人工智能的法律探究/054含违反社会主义核心价值观的内容)以及 A.2 类(包含歧视性内容)作为关键词库必须覆盖的安全风险类别,属于五类安全风险中风险等级较高的情况,这也与网络信息内容生态治理规定中关于违法信息种类的列举意图一脉相承。另外三类安全风险包括 A.3 类商业违法违规风险、A.4 类侵犯他人合法权益的风险以及 A.5 类无法满足特定服务类型的安全需求。随着数字经济的飞速发展,在新经济、新业态、新

208、模式发展中逐渐出现了利用数据与技术手段从事不正当竞争的行为,在本次基本要求列明的 A.3 类商业违法违规风险项下,选择纳入了“利用算法、数据、平台等优势,实施垄断和不正当竞争行为”的安全风险,与中华人民共和国反不正当竞争法(修订草案征求意见稿)的立法方向进行了衔接。但是,基本要求附录 A 列明的五类安全风险中也存在定义模糊、在实践中可能较难理解与界定的内容,例如 A.3 类商业违法违规风险项下的“违反商业道德”风险,A.4 类侵犯他人合法权益风险项下的“危害他人身心健康”风险,以及 A.5 类无法满足特定服务类型的安全需求风险项下的“内容不可靠”“无法对使用者形成帮助”等概念。(三)合规义务清

209、单基本要求整体从语料安全、模型安全以及生成式人工智能服务的安全措施、词库题库等维度上对服务提供者提出了一系列较为细致的合规义务,其中语料安全保障义务又分为语料的来源安全、内容安全以及标注安全要求保障义务。同时,基本要求明确列明服务提供者需要根据暂行办法开展的安全评估应当针对基本要求中第 5 章至第8 章的每一条款形成单独的评估结果,也即为服务提供者列明了合规义务清单,该等内容主要包括:1.语料安全要求首先,就语料来源安全而言,基本要求首先删除了征求意见稿中关于建立语料黑名单机制的要求,也即“单一来源语料内容中含违法不良信息超过 5%的,应将该来源加入黑名单”,但这不代表基本要求对于语料来源包含

210、违法不良信息的比例没有进行规定;相反,基本要求对于语料来源的管理要求新增提出了事前评估、事后核验的双重安全保障措施,即对面向特定语料来源采集前需要进行安全评估,同时采集后也需要进行二次核验,以便完全排除掉“含有违法不良信息超过 5%的情况”,从源头上全面避免了不良语料进入数据训练的问题。其次,延续算法推荐规定暂行办法等规定对于算法偏见、算法歧视等要求,AI 政策解读/055基本要求提出需要就语料语言及语料类型进行不同语料的多语料来源的搭配,以提高语料来源的多样性,并且可以合理搭配境内外来源的语料。第三,随着人工智能在公众社会中的普及,其生成内容可能会被广泛传播、引用和使用,而当出现违法不良信息

211、输出或输出内容侵犯权益的情况时,直接传播者可能并非单一责任主体,违法不良信息或侵权内容可能存在于语料本身。因此,语料的可溯源性一直是保障生成式人工智能输出内容合法、安全的必要措施,也是定位输出内容责任主体、压实信息内容安全治理责任的有效办法。基本要求针对使用开源语料、自采语料、商业语料三种不同情形提出了细化规定,尤其是当服务提供者使用商业语料时,除了确保语料交易的法律效力、交易方或提供方对语料安全的承诺保障外,基本要求明确提出服务提供者同时应当对交易方或合作方所提供的语料、承诺、材料进行合规审查。这对于依赖第三方语料库的服务提供者而言为一项新增合规义务,但在服务提供者自行审核语料安全性时,应当

212、以何种方式或者审核结果达到何种效果时方可确认某一语料的安全性,目前尚不非常明确。服务提供者可以考虑从交易方或合作方提供的基本书面材料有效性,结合基本要求附录列明的语料及生成内容的主要安全风险清单等方面进行多方面的审核。2.语料内容安全要求基本要求对于语料内容的安全要求,主要围绕搭建以知识产权保护为基础的策略与结构,包括应当专门设置语料以及生成内容的知识产权负责人,允许并支持第三方就语料使用情况以及相关知识产权情况进行查询的功能设置等规定。结合此前北京互联网法院审结的人工智能生成图片著作权纠纷案、广州互联网法院审结的生成式人工智能训练数据集侵权案,可以看出基本要求对于在语料内容的训练、使用以及在

213、事后为知识产权相关权益方提供畅通的投诉与查询通道等方面,同样继承了目前的实践监管趋势,表明了重点保护知识产权的立场与态度。第二,秉承网络信息内容生态治理规定的主旨,基本要求在内容安全治理方面提出服务提供者应当采取关键词、分类模型、人工抽检等方式,充分过滤全部语料中的违法不良信息,从源头避免违法不良信息与内容的生成。第三,针对语料中包含个人信息及敏感个人信息的情形,基本要求对服务提供者仅规定了事前告知与获得个人信息主体同意的前置义务,但并没有明确个人信息主体在事后可以通过何种方式向服务提供者主张权利、提出问询或投诉,或要求服务提供者删除其个人信息。服务提供者可以结合个人信息保护法中关于个人对个人

214、信息的处理知情权、决定权、有权限制或拒绝他人对其个人信息进行处理的规定,在其服务产品的显著位置向人工智能的法律探究/056个人信息主体说明其有权主张前述权利的途径与方式,以便权利人的权益在使用生成式人工智能服务事前、事中与事后均可得到充分的保障。3.语料标注安全要求基本要求针对语料标注人员、标注规则、标注内容的准确性均提出了要求,例如,相对征求意见稿而言,新增要求服务提供者应当自行组织对标注人员的安全培训,这与目前大模型备案中的安全评估要点也进行了衔接,同时明确了培训的内容应当包括例如标注任务规则、标注内容质量核验方法等事项。在标注内容的准确性保障方面,基本要求对于功能性标注与安全性标注提出了

215、不同的确认规则,针对功能性标注需要进行人工抽检、抽检对象的语料以每一批为单位。而针对安全性标注则需要进行人工审核,审核对象的语料以每一条为单位。4.模型安全要求基本要求首先明确如服务提供者需要基于第三方基础模型提供服务,必须使用已经主管部门备案的基础模型。尽管“基于”的范畴尚不明确,结合暂行规定及实践中的服务上线要求,我们理解,这意味着直接接入境内外未备案的服务提供者可能无法上线生成式人工智能服务,但并未禁止基于未备案基础模型进行二次开发的服务在完成备案要求后上线。此外,基本要求分别针对模型生成内容的安全性、准确性、可靠性提出了具体要求,以正确引导生成式人工智能服务可以安全地为使用者输出安全、

216、有效、符合科学常识以及主流认知的内容。5.安全措施要求在上线范围方面,基本要求提出了根据服务应用场景不同采取分类分级的保护措施的要求,针对用于关键信息基础设施,以及如自动控制、医疗信息服务、心理咨询、金融场景等本身存相对较高风险的内容安全、数据安全、个人信息保护安全的情况,服务提供者需要就此配备与具体场景风险程度以及场景相适应的保护措施,加强对重点重要场景的安全保障。在针对未成年人使用者的保护方面,对于面向未成年人提供生成式人工服务的提供者,基本要求删除了征求意见稿中关于限制未成年人单日对话次数与时长的前提限定,对于可能涉及消费、支付功能或场景的情况,基本要求同样做出了微调,将“需经过监护人确

217、认后未成年人方可进行消费”修订为“不应向未成年人提供与其民事行为能力不符的付费服务”,这一调整与民法典未成年人网络保护条例等规定中关于未AI 政策解读/057成年人从事与其年龄、认知等民事行为能力相符的行为以及引发的责任承担的规定意图相一致,对于通过生成式人工智能提供的各项付费服务,尤其是有益于未成年人身心健康的服务和内容,不应简单地要求所有未成年人均需事前获得其监护人的确认,从使用者的角度而言,前述修订也更易于例如辅助学习类别、寓教于乐类别的生成式人工智能服务得到更加广泛地应用。第三,基本要求对生成式人工智能服务的使用者及其使用规范也提出了具体要求,例如,当需要收集使用者输入的信息用于数据和

218、模型训练时,基本要求要求的授权模式为“默认开启+显著告知单独关闭渠道”,即“Opt-out”模式。也即服务提供者只需要为使用者提供关闭其输入信息用于训练的途径与方式即可,并非由使用者主动选择开启该等功能,这对于需要实时过滤、微调、更新模型训练语料与词库题库的需求而言可能为一项更高效便捷的模式,同时也能促使生成式人工智能服务的输出内容尽可能多地采集到不同使用者的输入内容以及同一内容的不同表述样本,有益于对不同问题的需求与反馈统计等,以便及时完善模型、内容质量及其配套安全措施。需要注意的是,虽然前述“Opt-out”模式为目前同类生成式人工智能服务的主流实践做法,但该等模式下的个人信息处理的合法性

219、基础可能较为薄弱,结合此前 X/Twit-ter、Zoom 等国内外企业更新隐私政策宣布将用户数据用于训练人工智能模型存在广泛争议的情况,以及基于同意将用户数据用于模型训练后响应删除权等个人数据权利存在技术困难等实践情况,我们理解目前亦有诸多企业将前述情形采取或调整为用户 Opt-in 模式,即默认情况下不会使用用户提交的数据来训练或优化模型,除非用户主动选择共享给公司;或明确不将该等数据用于模型训练的做法。此外,暂行办法第十四条提出,提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。基

220、本要求承接并量化了前述主体责任的落实方案,明确规定了对违规使用或恶意使用生成式人工智能服务的情况应当设置使用拦截功能,如果使用者连续三次或一天内累计五次输入违法不良信息或明显诱导生成违法不良信息的,应依法依约采取暂停提供服务等处置措施,这为提供者在实践中设置有关拦截机制方面提供了相对具体的合规义务落实指引。值得注意的是,基本要求删除了征求意见稿规定的在模型重要更新、升级之后,需要再次进行安全评估并重新向主管部门备案的要求。根据目前的规定,服务提供者在模型完成重要更新和升级后,只需再次自行组织安全评估即可,这对于服务提供者的合人工智能的法律探究/058规成本以及提供服务的业务连续性均是利好信号。

221、但是,前述“重要更新和升级”所指具体内容与范围、以及该事项是否会落入需要办理变更备案的情况,尚待进一步释明。6.关键词库与测试题库要求建立关键词库与测试题库是保证语料安全的重要前提之一,基本要求结合其附录A 列明的五类安全风险,对于关键词库与生成内容测试题库进行了对应规定,可以看出针对风险等级较高的 A.1 类与 A.2 类安全风险均规定了最低条目数量的要求。同时,相比征求意见稿,基本要求新增了关键词库与测试题库的定期更新的推荐性条款,服务提供者可以参照该等规定,按照网络安全、信息内容安全治理以及业务实践情况与需要,及时更新关键词库与测试题库。三、合规建议(一)增强语料等源头治理工作暂行办法第

222、九条压实了生成式人工智能服务提供者的网络信息内容生产者责任,即落实生成内容的具体责任主体。但是,生成式人工智能的权利侵害结果形成原因可能复杂多样,仅关注传统的侵害结果维度容易忽略了人工智能技术的设计意图、训练数据、科技伦理等源头性因素对人工智能造成侵害结果的直接影响。因此,相关企业应增强人工智能的源头治理力度,将人工智能侵害治理追溯至人工智能的设计、开发等源头阶段,优化人工智能侵害的责任主体链。具体而言,在算法设计方面,应采取有效措施防止产生民族、信仰、国别等歧视,并将伦理道德纳入技术体系,推动“科技向善”。在人工智能训练、优化、测试数据等语料治理方面,应关注语料的来源、质量、安全乃至语料搭配

223、等方面,制定恰当的治理规则以实现语料的源头治理。例如,保留开源语料的开源许可协议、自采语料的采集记录等以确保语料来源的可追溯性,对采集后的语料进行核验以避免因使用存在大量违法不良信息的语料而致使人工智能的运行受到相应的负面影响。(二)坚持安全底线,尤其是内容安全基本要求 旨在细化生成式人工智能服务在安全方面的基本要求,从而贯彻落实“发展与安全并重”的人工智能理念。这一以安全为底线护航人工智能产业发展的思路也应贯彻至生成式人工智能服务提供者等相关企业的业务实践当中。一方面,企业宜遵循基本要求的颗粒度,逐步落实语料来源安全、语料内容安全、语料标注安全、模型安全与安全措施的相关要求,完善内部的安全治

224、理体系,保障用户权AI 政策解读/059益、社会公共利益。另一方面,基本要求还重点对包含语料内容安全和生成内容安全的内容安全提出了关切,例如通过附表形式明确列举了现阶段识别出的主要内容安全风险,细化了内容安全目标粒度或提出具有实操性的安全举措。我们理解,在网络消息传播速度飞速的互联网信息时代,对生成式人工智能服务相关的内容安全的重视也是互联网内容治理整体框架下的“题中应有之义”。总的来说,我们理解,企业在积极推进生成式人工智能安全治理工作时,宜重点加强内容安全治理,采取诸如人工与机器结合审核、引入或开发高质量语料库等方式保障输入与输出内容的安全。实践中,我国各行业积极建设高质量语料库,如人民网

225、开发主流价值语料库、智源人工智能研究院联合其他单位发布开源可信中文互联网语料库。相关企业可充分利用现有优质语料资料,实现内容安全与技术发展的“同频共振”。(三)加强合规体系建构,完备内部制度伴随暂行办法科技伦理审查办法(试行)网络安全标准实践指南生成式人工智能服务内容标识方法基本要求等与生成式人工智能技术及服务相关的法律法规、技术文件的出台,构建制度完备的生成式人工智能合规体系是相关企业在人工智能迅捷发展时代下的重要命题。我们理解,完备的人工智能合规体系应以网络安全、数据安全和个人信息保护为底层架构,即应首先按照网络安全法数据安全法个人信息保护法及配套规则构建健全的网络安全与数据合规治理体系,

226、例如制定并落实数据分级分类保护规则、安全事件应急响应规则。在此基础上,结合暂行办法等人工智能相关规定,补充完善训练数据治理、内容治理、生成内容标识、科技伦理审查等由人工智能引发的特殊合规要求。此外,根据 2023 年度国务院立法计划,我国人工智能法草案已被纳入提请全国人大常委会审议的范畴当中。我们理解,随着人工智能监管顶层设计的出台、包含生成式人工智能在内的人工智能治理规范体系的不断完善,人工智能相关企业应依据最新立法与监管动态,及时更新既有合规体系。为了确保企业内部既有人工智能合规体系能够有效落地与执行,企业还宜积极引入具备人工智能技术与法律双重背景的治理人才,以畅通新兴技术发展与企业合规之

227、间的桥梁。(四)开展大模型备案遵照执行基本要求如前所述,基本要求作为全国网络安全标准化技术委员会发布的技术文件,并非具有强制性法律效力的正式立法,也暂未被纳入强制性国家标准的范畴。但是,一方面,人工智能的法律探究/060不具有法定强制性效力不影响基本要求因其规范支撑作用与明晰的执行颗粒度,而可能在实践监管活动中被相关监管部门选定为评估生成式人工智能服务安全能力等方面的具有可落地性的执法标准。另一方面,考虑到基本要求基本涵盖了大模型备案过程中要求生成式人工智能服务提供者开展安全评估的具体评估指标例如训练语料来源、标注人员情况等,相关服务者在实际开展大模型备案工作时,也宜遵照基本要求的相关合规要求

228、自行或委托第三方机构开展安全评估,以提高备案效率。(五)开展大模型备案前组织自测工作自大模型备案开展以来,大模型备案的实践要求处于动态调整的过程当中,例如,在保留训练数据来源等内容的基础上,新增了企业提供大模型下载通道、实测账号与内容审核机制等要求。我们理解,这在一定程度上体现出监管部门对大模型备案的重视程度:随着实践经验的积累,适时调整备案要求从而契合当下生成式人工智能服务的发展情况,实现精准收集信息、提供更为柔性的指导之目的。因此,在正式开展大模型备案前,为提高备案的可行性,如可行,相关企业宜自行或引入上海人工智能实验室等第三方专业机构开展大模型自测工作,遵循基本要求的安全评估办法及具体评

229、估事项开展测试工作,以“查漏补缺”,优化自身安全评估流程,提高自身的生成式人工智能服务的安全水平。AI 法律 实 务/062人工智能的法律探究AI-Generated Content and Copyright(China)宋海燕 赵怡冰 王默A Practice Note providing an overview of the developing governance of AI-generated content(AIGC)and the emerging copyright-related issues associated with AIGC under the laws of C

230、hina(PRC).The Note considers the subsistence of copyright in AIGC,copyright ownership,and potential copyright infringement issues arising when either training a generative AI model or generating AIGC.It also introduces a few notable Chinese copyright cases involving AIGC,including the Beijing Film L

231、aw Firm v BD case,the Shenzhen Tencent v.Shanghai Yingxun case,the LI v.LIU case,and the SCLA v.AI Company case.The meaning and scope of AI or generative AI(GAI)vary between fields and jurisdictions.The OECDs Council on Artificial Intelligence adopted a recommendation including a definition of AI sy

232、stem(Recommendation of the Council on Artificial Intelligence OECD/LEGAL/0449,adopted 22 May 2019,amended on 8 November 2023).This Note provides an overview of the developing governance of AI-generated content(AIGC)and the emerging copyright-related issues associated with AIGC under the laws of Chin

233、a(PRC).The Note considers the subsistence of copyright in AIGC,copyright ownership,and potential copyright infringement issues arising when either training a GAI model or generating AIGC.It also introduces a few notable Chinese copyright cases involving AIGC,including the Beijing Film Law Firm v.BD

234、case,the Shenzhen Tencent v.Shanghai Yingxun case,the LI v.LIU case,and the SCLA v.AI Company case(the Ultraman case).I.AIGC and Common AIGC ApplicationsAIGC refers to the content,including texts,pictures,audios and videos that are generated using advanced generative AI(GAI)techniques(Article 22,Int

235、erim Measures for the Management of Generative Artificial Intelligence Services 2023(2023 GAI Measures).China has witnessed the rapid developments of AIGC applications,from the first and most well-known text-generating AIGC application(that is,ChatGPT launched by OpenAI in November 2023),to the pict

236、ure-generating AIGC applications(such as MidJourney and Stable Diffusion),and the audio and video generating AIGC applications(such as Imagen Video).In China,the following AIGC applications are active in the market:AI 法律实务/063 Text-generating:ERNIE Bot developed by Baidu.Picture-generating:Miaoya de

237、veloped by Reshuffle technology.Audio and video generating:Zenvideo developed by Tencent.II.Main LegislationMain Chinese legislation relates to AIGC and the associated copyright-related issues include:The Copyright Law of the PRC 2020(2020 Copyright Law,with effect from 1 June 2021),issued by the St

238、anding Committee of Chinas National Peoples Congress.As the third revision of Chinese Copyright Law,the revised law includes detailed provisions on:-the composition of a copyrightable work;-the ownership of a copyrightable work;-limitations and exceptions to exclusive rights(that is,fair use);and-in

239、fringement liability rules.The Regulations for the Implementation of Copyright Law of the PRC 2013(2013 Copyright Implementing Regulations),issued by the State Council.The implementing regulations supplement the 2020 Copyright Law by providing practical guidelines and operational details.As the thir

240、d revision,the regulations clarify:-the scope of copyrightable works;-the rights of copyright holders;-procedures for handling copyright infringement cases;and-penalties for copyright violations.The 2023 GAI Measures,issued by the Cyberspace Administration of China,in conjunction with the National D

241、evelopment and Reform Commission and five other state agencies.The measures are Chinas first GAI regulations that regulate GAI developers and address a few important topics surrounding GAI services,including:-the definition of AIGC providers,that is,organisations and individuals that provide GAI ser

242、vices using GAI technology,including through the provision of programmable interfaces(Article 22(2);-the principle of GAI regulation in China(that is,under classified and graded supervision)(Article 3);and-the responsibilities of AIGC providers(such as undertaking security evaluation and reporting)(

243、Articles 7-15).The Regulations on the Protection of Right of Dissemination via Information Network 2013(2013 Information Network Regulations,first issued in 2006 and revised in 2013),issued by the State/064人工智能的法律探究Council.The regulations are the Chinese version of the US Digital Millennium Copyrigh

244、t Act(DMCA)(see Practice Note,Digital Millennium Copyright Act(DMCA):Safe Harbors for Online Service Providers),providing safe harbour provisions for internet service providers(ISP).The Beijing High Peoples Court Guidelines for the Trial of Copyright Infringement Cases 2018(2018 Beijing High Court G

245、uidelines).Although China is not a case-law jurisdiction where precedents made by higher courts are legally binding,yet the guidelines issued from this high-profile court may be influential to other lower courts in China(see Practice Note,Case Guidance System in China).The guidelines clarify the jud

246、icial interpretations of the Beijing High Peoples Court on copyright-related infringement cases and reflects the courts opinion on:-what constitutes a copyrightable work;-what constitutes originality;-how to determine the ownership;and-what constitutes copyright infringement.III.Copyrightability for

247、 AIGC Outputs(I)Copyrightability:General TestUnder Chinese copyright law,a work that meets the following conditions may be protected by copyright:It is original.It can be represented in a certain format.It belongs to intellectual creations of human beings.The 2020 Copyright Law stipulates the defini

248、tion of works,which refers to ingenious intellectual achievements that are original and can be presented in a certain form in the fields of literature,art and science(Article 3).(For a non-exhaustive list of recognised types of works of authorship,see Practice Note,Copyright(China):Overview:Works Pr

249、otected by Copyright.)The 2013 Copyright Implementing Regulations also affirm the requirements of originality and human authorship for a copyrightable work.The regulations specify that the term works as referred to in the 2020 Copyright Law means intellectual creations with originality in the litera

250、ry,artistic and scientific domain,insofar as they can be reproduced in a tangible form(Article 2).The 2018 Beijing High Court Guidelines further clarify that works must meet the requirement of being created by human authors and the criteria of originality.When examining whether the object of copyrig

251、ht claimed by the plaintiff constitutes a work,the court should generally consider the following factors:Whether it is a creation made by a natural person in the fields of literature,art and science.AI 法律实务/065 Whether it possesses originality.Whether it has a certain form of expression.Whether it i

252、s reproducible.(Article 2.1,2018 Beijing High Court Guidelines.)In determining the originality of an expression,the court should generally consider the following factors:Whether the expression is independently created by the author.Whether the arrangement of expressions manifests the authors selecti

253、on and judgment.(Article 2.2,2018 Beijing High Peoples Court Guidelines.)(II)Copyrightability:Application of General Test to AIGCIn view of the above legislation,an AIGC output may be subject to copyright protection under the context of the 2020 Copyright Law,provided that there is sufficient human

254、authorship in the AIGC outputs.However,what constitutes human authorship is often debatable and subject to Chinese courts discretion.For instance,in Beijing Film Law Firm v.BD,the Beijing Internet Court deemed that the graphics and the initial report automatically generated by the legal analysis sof

255、tware Wolters Kluwer(WK)lacked human authorship and thus should not be subject to copyright protection(but finding that the final article published by the plaintiff was copyrightable because the final article was substantially different from the initial auto-generated report and reflected the author

256、s personal judgement)(see Beijing Film Law Firm v.BD).Yet,in Shenzhen Tencent v.Shanghai Yingxun,the Shenzhen Nanshan District Peoples Court ruled that,the subject article produced or assisted by AI-writing software reflected the writer or editors personal judgement and arrangement and hence should

257、be subject to copyright protection in China(see Shenzhen Tencent v.Shanghai Yingxun).It is also noteworthy that in LI v.LIU,Chinas first case concerning the copyrightability of AI-generated pictures,the Beijing Internet Court ruled that,since the plaintiff had input over 150 prompts and experimented

258、 various parameters multiple times when using Stable Diffusion to generate the AI picture,the plaintiff has exercised aesthetic choices and personal judgment in the entire generation process,thus finding the AI-generated picture to be a copyrightable work(see LI v.LIU).The Beijing Internet Courts de

259、cision in LI v.LIU seems to contradict with the US decisions on the copyrightability of AIGC outputs(for example,the Zarya of the Dawn case,the A Recent Entrance to Paradise case and the Thtre Dopra Spatial case),in which both the US Copyright Office and US courts denied copyright protection to AIGC

260、 outputs that lack human authorship.For instance,in Thtre Dopra Spatial,on the same issue of prompts input by humans to generate AI pictures,/066人工智能的法律探究the Review Board of the US Copyright Office concluded that even over 600 prompts input by the applicant were not enough to constitute human author

261、ship.However,it is worth noting that the different outcomes made by the courts of these two jurisdictions are not because that Chinese courts believe non-humans could be authors,or that Chinese copyright law does not require human authorship,but rather that the two courts or jurisdictions seem to ha

262、ve different standards and interpretations as to what constitutes human authorship.IV.Ownership of Copyright in AIGC Outputs(I)Copyright Ownership:Default Rules Under Chinese LawWith regard to the ownership of copyrightable works,the default rule under the 2020 Copyright Law is that a work vests its

263、 copyright ownership in its creators(Article 11),with a few exceptions such as employment work(Article 18),commissioned work(Article 19),computer software,and audio-visual work(Article 17).The copyright owner of a work may either be a natural person(that is,ownership belongs to the author who create

264、s the work)or a legal entity(that is,ownership belongs to the employer or commissioner).Article 9 of the 2020 Copyright Law provides:Copyright owners include authors,and other natural persons,legal entities and unincorporated organisations that enjoy copyright in accordance with this law.The default

265、 rule regarding copyright ownership is that a work vests its ownership with its author,who creates the work.Article 11 of the 2020 Copyright Law provides:Except otherwise provided in the law,the copyright in a work belongs to its author,and that the author of a work is the natural person who created

266、 the work.In terms of legal persons work,Article 11 of the 2020 Copyright Law provides:Where a work is created according to the intention and under the supervision and responsibility of a legal entity or unincorporated organisation,the legal entity or unincorporated organisation is the author of the

267、 work.In terms of employment work,Article 18 of the 2020 Copyright Law provides:A work created by a natural person when fulfilling the tasks assigned by a legal entity or unincorporated organisation is deemed to be an employment work.Unless otherwise provided in Paragraph 2 of this Article,the copyr

268、ight of such a work is enjoyed by the author,but the legal entity or unincorporated organisation has a priority right to exploit the work within the scope of its professional activities.In terms of commissioned work,Article 19 of the 2020 Copyright Law provides:The ownership of copyright in a commis

269、sioned work can be agreed upon in a contract between AI 法律实务/067the commissioning party and the commissioned party.In the absence of such a contract or of an explicit agreement in the contract,the copyright in such a work belongs to the commissioned party.In terms of audio-visual work,Article 17 of

270、the 2020 Copyright Law provides:Among audiovisual works,the copyright of cinematographic works and television programs is enjoyed by producers,but the scriptwriter,director,photographer,composer and lyricist enjoy the right of authorship and the right to receive compensation from the producer.The co

271、pyright ownership of audio-visual works other than those specified in the preceding paragraph will be agreed upon by the parties;where there is no agreement or the agreement is unclear,the copyright is enjoyed by the producer,but the authors have the right of authorship and the right to receive comp

272、ensation.The authors of script,music and other works that may be used separately from the audio-visual work have the right to separately exercise their right of copyright.In terms of computer software,Article 9 of the Regulations for the Protection of Computer Software 2013 provides:Except where oth

273、erwise provided in these regulations,the copyright in the software belongs to its developer.In the absence of proof to the contrary,the natural person,legal entity or other organisation whose name appears on the software will be its developer.(II)Copyright Ownership:Application in AIGC OutputsWhere

274、an AIGC output may be subject to copyright protection in China,the next question is to determine who owns the copyright to the AIGC output.In addition to the framework for copyright ownership vesting under Chinese copyright law,the terms of use agreements posted by Chinese AIGC providers may also pr

275、ovide a glimpse into the industry practices(see Copyright Ownership:Default Rules Under Chinese Law).There are usually three scenarios.A summary of the example terms is set out below:AIGC outputs owned by AIGC users.Company A:Unless otherwise agreed or stipulated by the applicable laws and regulatio

276、ns,you(user)own the intellectual property right(IPR)to the content generated by this AIGC tool based on the content uploaded by you that is legally owned by or authorised to you.You also agree to authorise us(Company A)to use the content that you upload,generate,and synthesise for the purpose of pro

277、viding this service.This looks a common approach adopted by many AIGC providers.AIGC outputs owned by AIGC providers.Company B:All IPRs related to this platform,including but not limited to copyrights,trademarks,patents,trade secrets,and all information and content/068人工智能的法律探究generated by this serv

278、ice(including,but not limited to,texts,images,audios,videos,graphics,interface designs,layout frameworks,relevant data or electronic documents),are protected by laws and regulations,and belong to Company B and its affiliated entities,who have the complete legal rights,ownership and other lawful righ

279、ts.Users only have the right and permission to use this service and its related content in accordance with the terms of this agreement.Silent.Company C:Company C is the principal entity responsible for the development and operation of this Service.Company C owns all the rights,within the scope allow

280、ed by the applicable laws and regulations,to all data,information,outputs,and other products generated during the development and operation of this service,except for the rights that are expressly preserved by the other rights holders under the law.In the case of LI v.LIU,the Beijing Internet Court

281、held that the plaintiff who used an AI tool to generate AI pictures is the author of the subject picture,as the picture was generated as a result of the plaintiffs intellectual input and reflected the plaintiffs personalised expressions(see LI v.LIU).The court also indicated that:An AI service itsel

282、f could not be considered as an author of a copyrightable work because an AI is not a human being.Neither the developers or providers of AI services could be considered as the author in this case because they had no intent to create the subject picture and they had not actually participated in the s

283、ubject picture creation process.Based on the terms of use agreement posted on the website of the AI tool,the AI developers already waived their rights,if any,in the AIGC output,that is,they do not claim rights to the output content.V.Copyright Infringement Associated with AIGCTo identify copyright i

284、nfringement risks associated with AIGC,it is important to understand the following:The exclusive rights of copyright holders under Chinese copyright law,and exceptions and limitations to these exclusive rights.What exclusive rights may be infringed during the AIGC creation process,and whether any ex

285、ceptions and limitations may apply.(I)Exclusive Rights of Copyright-HoldersA copyright holder enjoys the following exclusive rights:The right of publication,that is,the right to decide whether to make a work available to the public.The right of authorship,that is,the right to claim authorship and to

286、 have the authors name AI 法律实务/069mentioned in connection with the work.The right of alteration,that is,the right to alter or authorise others to alter ones work.The right of integrity,that is,the right to protect ones work against distortion and mutilation.The right of reproduction,that is,the righ

287、t to produce one or more copies of the work by means of printing,photocopying,rubbing,sound recording,video recording,duplicating,re-shooting,or digitising,and so on.The right of distribution,that is,the right to provide the public with original copies or reproduced copies of works by means of selli

288、ng or donating.The right of lease.The right of exhibition,that is,the right to publicly display the original copies or reproduced copies of works of fine art and cinematographic works.The right of performance,that is,the right to publicly perform works,and to publicly transmit the performance of wor

289、ks by various means.The right of projection.The right of broadcasting.The right of dissemination via information networks.The right of production,that is,the right to fix works on a carrier by audiovisual production.The right of adaptation,that is,the right to modify a work for the purpose of creati

290、ng a new work of original creation.The right of translation,that is,the right to transform the language of a work into another language.The right of compilation,that is,the right to choose or edit some works or fragments of works so as to form a new work.Other rights which are enjoyed by the copyrig

291、ht owners.(Article 10,2020 Copyright Law.)Under Article 10,the first four bullets relate to the personal rights of an author(which are not assignable),the fifth to 16th bullets relate to the economic rights of an author,and the last bullet is a catch-all provision that allows a bit of flexibility to

292、 include other rights that are not expressly listed under this provision.(II)Fair Use ExceptionThe 2020 Copyright Law lists out the exceptions and limitations to the exclusive rights,where no permission or compensation from the copyright owner is required to use the copyrightable work,provided that

293、the name or designation of the author and the title of the work are mentioned,and/070人工智能的法律探究that the use must not impact the normal use of the work or unreasonably harm the copyright holders lawful rights and interests.The exceptions and limitations include:Use of a published work for the purposes

294、 of the users own private study,research,or self-entertainment.Appropriate quotation from a published work in ones own work for the purposes of introduction of,or comment on,a work,or demonstration of a point.Inevitable reappearance or citation of a published work in newspapers,periodicals,radio sta

295、tions,television stations,or other media for the purpose of reporting news.Reprinting by newspapers or periodicals or other media,or rebroadcasting by radio stations or television stations or other media,of the current event articles on the issues of politics,economy and religion,which have been pub

296、lished by other newspapers,periodicals,radio stations or television stations or other media,except where the copyright owner has declared that publication or broadcasting is not permitted.Publication in newspapers or periodicals or other media,or broadcasting by radio stations or television stations

297、 or other media,of a speech delivered at a public assembly,except where the author has declared that publication or broadcasting is not permitted.Translation,adaptation,compilation,and broadcasting or reproduction,in a small quality of copies,of a published work for use by teachers or scientific res

298、earchers in classroom teaching or scientific research,provided that the translation or reproduction is not published or distributed.Use of a published work by a state organ within the reasonable scope for the purpose of fulfilling its official duties.Reproduction of a work in its collections by a li

299、brary,archive,memorial hall,museum,art gallery,art museum or similar institution,for the purpose of the display or preservation of a copy of the work.Free of charge performance of a published work,that is,with respect to the performance,neither fees are charged from the public nor the remuneration i

300、s paid to the performers,nor the performance is for profit.Copying,drawing,photographing,or video recording of an artistic work located or on display in a public place.Translation of a work published by a Chinese citizen,legal entity or unincorporated organisation,which is created in the national co

301、mmon language and characters,into a minority nationality language for publication and distribution within the country.Providing published works for dyslexics in a barrier-free way through which they can perceive.AI 法律实务/071 Other circumstances prescribed by laws and administrative regulations.(Artic

302、le 24,2020 Copyright Law.)The first paragraph of Article 24 sets out the three-step test for the fair use doctrine under Chinese copyright law(similar to Article 9 of the Berne Convention):Fair use may only apply in certain special circumstances,that is,the 12 explicit exceptions under Article 24(1)

303、to(12)and the catch-all provision under Article 24(13)for other permissible use circumstances that may be provided under other laws.Fair use must not conflict with a normal exploitation of the work.Fair use must not unreasonably prejudice the legitimate interests of the copyright owner.For example,t

304、he copyright owners right of signature should be protected during fair use.(III)IP Provisions Under Chinese AIGC LegislationThe 2023 GAI Measures are the first Chinese AI regulations,which address:The principle of GAI governance in China.The responsibilities of AIGC providers,including requiring AIG

305、C providers to respect the IP of other rights holders.In terms of the AIGC training process,although not explicitly stipulated,the 2023 GAI Measures require all materials used for AIGC training purposes to be legally acquired,thus requiring AIGC providers to get permission from copyright holders bef

306、ore they use the copyrighted materials for AIGC training purposes.AIGC providers should carry out pre-training,optimised training,and other training-data processing activities according to the law,and comply with certain obligations,including:Using data and underlying models from legitimate sources.

307、Where IPRs are involved,not infringing on the IPR lawfully enjoyed by others.(Article 7,2023 GAI Measures.)In terms of AIGC outputs,AIGC providers are also required to manage the AIGC outputs and take down illegal content or suspend and terminate users services,when necessary.Where a AIGC provider d

308、iscovers illegal content in the AIGC outputs,it should promptly:Take disposal measures,such as stopping generation,transmission,and eliminating the illegal content.Make rectification through measures such as model-based optimisation training.Report to the relevant competent department.(Article 14,20

309、23 GAI Measures.)/072人工智能的法律探究(IV)Copyright Infringement Risks in AIGC Training ProcessUnlike the express text and data mining(TDM)exceptions provided under the UK or the EU legislation,China does not have specific TDM exceptions under its copyright law.Also,because Chinese courts tend to apply stri

310、ngent interpretations of the fair use exception(including the three-step test)in copyright infringement cases,there are serious copyright infringement risks when AIGC providers use unauthorised copyrighted works in its AIGC training process.(For more information on the TDM exceptions under the UK or

311、 EU legislation,see Practice Notes,Copyright:permitted acts:Copies of text and data analysis for non-commercial research(TDM)and Digital Copyright Directive:key provisions:Text and data mining exceptions(Articles 2 to 4).)In November 2023,a group of artists sued a popular Chinese lifestyle social me

312、dia platform Little Red Book(also known as,Xiaohongshu),arguing that the defendant had used their copyrighted works without authorisation when training its AI-painting model.The set of cases are currently pending before the Beijing Internet Court.(V)Copyright Infringement Risks in AIGC OutputsWhere

313、an AIGC output is found to be substantially similar with a prior copyrightable work,the AIGC provider may be held liable for copyright infringement.For instance,in a 2024 Chinese court ruling involving Ultraman,the Guangzhou Internet Court held that the AI-generated picture Ultraman by the Chinese d

314、efendant was substantially similar with the pictures of Ultraman owned and registered by the Japanese company Tsuburaya(which grants an exclusive licence to the plaintiff in China valid until 31 March 2024),thus finding the defendant liable for violating the plaintiffs right of reproduction and the

315、right to prepare derivative works(that is,the right of alteration)(see SCLA v.AI Company).The Guangzhou Internet Court also ruled that the defendant failed to exercise reasonable care under Article 4(respecting IPRs)of the 2023 GAI Measures when providing GAI services,thus should be liable for compe

316、nsating the plaintiffs losses.Specifically,the court indicated that the defendant failed to:Provide a complaint and reporting mechanism for rights holders(Article 15,2023 GAI Measures).Include appropriate provisions in its terms of use agreement to remind AIGC users to respect the IPRs of others whe

317、n generating AIGC outputs(Article 4,2023 GAI Measures).Label AIGC outputs to distinguish them from human outputs(Article 12,2023 GAI Measures).The defendant did not itself train the AIGC data to develop the text-picture AIGC generating tool,rather it interfaced with a third party AI technology vendo

318、r to provide the AIGC services.Yet the court quoted Article 22(2)of the 2023 GAI Measures(see Main Legislation),and held that AIGC providers,by definition,also include those who provide AIGC services through interfacing with other application programs,thus finding the defendant liable for violating

319、both the 2023 GAI AI 法律实务/073Measures and the plaintiffs exclusive rights.VI.Notable Chinese Cases(I)Beijing Film Law Firm v.BDIn April 2019,the Beijing Internet Court held that the subject article published by the plaintiff had enough human authorship and thus should be subject to copyright protect

320、ion.The defendant,BD,published the plaintiffs subject article without authorisation and thus was liable for copyright infringement.In May 2020,the Beijing Intellectual Property Court affirmed the decision made by the Beijing Internet Court.(See Beijing Film Law Firm v.BD 2018 Beijing Internet Court(

321、Jing 0491 Min Chu No.239).)Key FactsThe plaintiff,Beijing Film Law Firm,claimed that it organised to write an article titled Analytical Report on the Judicial Big Data in the Film and Entertainment Industry:Film Industry in Beijing and first published the article on its official WeChat account on 9

322、September 2018,thus owning the copyright to the subject article.The subject article included certain graphics and texts that were generated by the legal analysis software WK.On 10 September 2018,the defendant BD,Chinas largest internet search engine,published an almost identical article on its Baiji

323、ahao account without the plaintiffs authorisation,only deleting a few sections such as the signature,introduction and search overview.The plaintiff sued the defendant for copyright infringement and petitioned for damages in the amount of RMB10,000 and a reasonable expense of RMB560.The defendant arg

324、ued that plaintiffs subject article was not copyrightable because it was automatically generated by the WK software and thus should not be subject to copyright protection in China.Legal IssuesThe first-instance court identified the legal issues involved in the case as follows:Whether the plaintiff h

325、as the standing to sue,as the copyright owner of a valid copyrightable work.Whether the defendant has constituted copyright infringement.Whether any defences should apply.When evaluating the first issue(that is,whether the plaintiff has the standing to sue),the court focused its analysis on whether

326、the subject article published by the plaintiff is a copyrightable work.Here,the court made separate analysis and determinations on the copyrightability of the following three items:/074人工智能的法律探究 The graphics that were generated by the WK software and included in the subject article.The court held th

327、at these graphics are not copyrightable because they were automatically generated by the WK software and did not reflect the plaintiffs original expressions.The report that was generated by the WK software.The court held that such a report is not copyrightable because it was also generated by the WK

328、 software rather than by human beings.The subject article published by the plaintiff in its final format.The court compared the subject article with the report generated by the WK software and found them to be very different.Thus,the court concluded that the subject article was an original work of a

329、uthorship created by the plaintiff and should be subject to copyright protection.In terms of the second and third issues,the court found that BDs unauthorised use of the plaintiffs subject article violated the plaintiffs exclusive rights to the subject article and thus is liable for copyright infrin

330、gement.(II)Shenzhen Tencent v.Shanghai YingxunOn 24 December 2019,the Shenzhen Nanshan District Peoples Court ruled that the plaintiff,Tencent,has exercised enough human authorship when using the AI-writing software to generate the subject article,and thus is the copyright owner of the subject artic

331、le.The defendants unauthorised use of plaintiffs subject article constituted copyright infringement.(See Shenzhen Tencent v.Shanghai Yingxun 2019 Shenzhen Nanshan District Peoples Court(Yue 0305 Min Chu No.14010).)Key FactsOn 20 August 2018,the plaintiff,Tencent,published a financial-related article

332、 on the Tencent Securities website and noted in the end that this article was automatically written by Tencents robot Dreamwriter.The Dreamwriter software is an AI-writing assistance software developed by an affiliate of Tencent.It includes various functions from data collection and analysis,to writ

333、ing,smart proofreading and automatic distribution of its reports to relevant platforms such as Tencent for publication.The defendant,Shanghai Yingxun,without the plaintiffs permission,reprinted the article on its website.The plaintiff sued the defendant on the grounds of copyright infringement and unfair competition.Legal IssuesIn this case,the court focused on three key issues as follows:Whether

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(金杜律师事务所:2024人工智能的法律探究报告(413页).pdf)为本站 (拾起) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
小程序

小程序

客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部