AI生成图片、AI歌曲、声音克隆、换脸视频等不断涌现,旧规则正遭遇新挑战。与此同时,《人工智能生成合成内容标识办法》已落地实施,最高法正在推进涉人工智能、数据产权的司法政策研究,全国人大常委会也已将相关立法列入预备审议项目。AI知识产权问题,正从技术讨论走向制度回应。
表面看是知识产权之争,实则是在AI重塑内容生产的过程中,谁来投入、谁获得收益、谁承担风险——一整套创新秩序正在被重新塑造。
本期议事厅,新华每日电讯智库研究与传播中心邀请来自法学界和知识产权领域的四位嘉宾,围绕AI时代知识产权的边界重划展开讨论:争议的症结在哪里,训练数据的边界该怎么划,平台责任能否止于“工具中立”,以及哪些规则应该率先落地?
图片由AI生成
访谈嘉宾:
张平 北京大学法学院教授、北京大学人工智能研究院AI安全与治理中心主任
郑宁 中国传媒大学文化产业管理学院法律系教授、文化法治研究中心主任
刘晓春 中国社会科学院大学法学院副教授、互联网法治研究中心主任
周亚平 音乐产业资深从业者、中国音像著作权集体管理协会原副理事长兼总干事
争的不只是版权,而是创新秩序
主持人:公众关注这个议题,往往是从一桩桩具体事件开始:某张AI图和某位画家的风格太像,某首AI歌曲和某位歌手难辨真假……但这些可见的冲突,是否只是冰山一角,真正的症结在哪里?
张平:AI时代知识产权之争,表面是权利归属之争,实质是一整套创新秩序正在被重新塑造。传统著作权法的逻辑是“创作—授权—收益—再创作”,前提是权利主体清晰、利益流向可追溯。AI来了,这个链条的每一环都被打乱了——投入方从单一创作者扩展到数据提供者、算力提供者、模型训练者和应用开发者,收益却大量落入制度灰色地带。目前制度最先捉襟见肘的,正是覆盖多方主体的利益分配规则:谁贡献了内容、谁获得了收益、谁承担了成本,法律层面仍是一片空白。这不是某一个法条的缺失,而是整个分配框架的缺位。责任的划分不能只看谁掌握技术,更要看谁从中获得了收益——收益归属,才是分配责任的首要标尺。
4月15日,第十三届中国网络视听大会在四川成都开幕。这是参会者在创新展交区体验VR头显设备。新华社记者王曦摄
主持人:如果说制度层面的症结在于利益分配规则失灵,那么在产业一线,最先受到冲击、表现最为直观的问题究竟是什么?
周亚平:音乐是最直观的样本。AI把音乐领域几类法律痛点一下子具象化了:大规模复制版权录音用于训练,构成复制权侵权;高度还原特定歌手的音色和演唱风格,侵害表演者的人格权益;生成内容大量涌入流媒体,直接挤压原创者的市场空间。网上已有大量以知名歌手音色生成的AI歌曲流传,许多听众难辨真假。对产业来说,这不是抽象的法学讨论,而是原创者正在失去对自身声音形象的控制。
郑宁:有一点需要先说清楚:今天并非“无法可依”。民法典、著作权法和《互联网信息服务深度合成管理规定》等已经划定了人格权、著作权、平台责任的基本红线。真正的问题是执法能力跟不上侵权速度、跨平台协同机制缺失、公众认知存在大量误区——很多人以为“非商用不侵权”“打上AI标识就免责”,这些都是错的。但在我看来,训练数据权属与平台运营规则固然关键,当下对普通民众权益冲击最直接的,当属AI换脸、声音盗用等人格权侵权行为。这类行为传播门槛低、扩散速度快,对公民人格尊严造成的损害往往不可逆。
主持人:普通人发现自己的脸或声音被AI盗用之后,到底该怎么办?
郑宁:普通权利人最无力的,不是发现不了侵权,而是发现之后——不知道怎么举证、怎么追责、怎么止损。AI训练是“黑箱”,权利人难以证明自己的声音或肖像被用于模型训练。就算投诉成功下架了一个账号,侵权内容换个马甲又会在别的平台继续传播,权利人只能陷入“反复维权、反复侵权”的恶性循环。这不是个案,是系统性困境。
在北京的一场“OpenClaw”相关活动上拍摄的龙虾造型挂坠(3月22日摄)。4月1日,国家知识产权局发布风险提示,“OpenClaw”等智能体工具易引发严重安全风险。新华社记者鞠焕宗摄
刘晓春:维权难是事实,但解题方向不应是把所有合规压力都压到单一主体身上——不管是全部推给平台,还是全部前置到应用层创新主体,都不利于产业可持续发展。更可行的思路是多方共担:权利人用好通知删除机制,平台提供低成本的侵权核验工具,应用层创新主体就“明知或应知”的侵权情形承担责任。分层分责,才能让每道防线都有人守。
郑宁:分层分责是对的,但现实中各方往往相互推诿,均认为自身并非首要责任主体,最终导致权利人维权四处碰壁、诉求无处落实。权责如何界定、责任如何划分,必须结合具体场景与实际问题逐一厘清。
训练先管,还是输出先治
主持人:训练数据是当前争议最集中的问题,也是最容易被绕开的问题——强调创新的一方担心“管得太紧”,强调版权保护的一方则认为“根源就在侵权”。这个争议的焦点在哪里?
张平:训练端的问题无法绕开。如果一律要求先授权再训练,一对一谈判几乎不可能实现,创新空间会被明显压缩;但如果默认可以广泛抓取,原创者就会在事实上沦为AI发展的无偿燃料。合理的路径,是在两端之间划定边界,辅以付费补偿机制兜底。可借鉴欧盟的折中思路:为一般性训练数据使用设立默认许可例外,同时允许权利人以机器可读方式主动声明保留权利——既给产业留出合规空间,也为原创者保留行使选择的制度出口。
周亚平:音乐产业的实践告诉我们,一对一授权对海量训练数据来说就是灾难。更可行的路径应当是集体管理——平台向集体管理组织支付年度一揽子许可费,一次性覆盖成千上万首作品,权利人按数据比例分润。这样可以把交易成本降下来,中小权利人无需单独谈判也能获得补偿。音集协认为应将集体管理职能延伸到AI训练场景,实现“一站式收取和转付”。但训练数据是整个生成式AI的地基:如果模型侵权使用海量数据训练,后续所有输出就不具有合法性。没有合法授权,模型本身就是“污染源”,后续的输出、声音克隆、传播行为,都可能被追溯为衍生侵权。
刘晓春:从治理的可操作性看,我认为输出端应当优先突破。训练数据的合理使用认定,国际上尚未形成统一共识;而输出端的侵权事实更直观——直接再现他人作品、未经授权将生成内容商业化传播,对权利人的损害更容易量化。优先治理输出端,能以更低的成本实现更高的治理效能,同时为训练端的合规模式探索留出缓冲空间。
主持人:周亚平先生认为,训练端不先理顺,模型本身就带着“原罪”;刘晓春教授则担心,如果把成本全转嫁到训练端,中小创新者根本没有出场机会。这两种代价,究竟该先避免哪一种?
周亚平:如果源头长期无序,原创者会先出局——创作者一旦失去对自身作品被学习、被复制的控制权,而后其输出的内容又无法对原创者进行合理补偿,那么整个内容产业的经济秩序都会被颠覆。
刘晓春:我理解周老师对训练端的担忧。但如果把全链条合规义务都前置到训练端,尤其压到中小开发者和初创团队身上,他们往往难以承担全流程知识产权核验的成本。这样做未必能提升治理效能,反而可能削弱应用层创新的活力。
张平:这个问题需要分开看。肖像权、声音权属于人格权益,具有绝对性,可以引入算法透明度原则,将举证责任适度转移至平台和模型方;而版权纠纷属于财产性私权,以输出结果判断侵权即可,不必强制要求平台公开训练数据。两类纠纷的保护力度应当有所区分,采取一刀切的处理方式,既可能压制创新,也可能保护失当。
平台只是工具,还是责任主体
主持人:平台和模型方常常说,自己只是提供工具,责任在用户。这个说法,现在还成立吗?
周亚平:这个说法已经过时了。平台早已深度介入内容生产全链条与收益分配,不能还停留在“被动工具箱”的位置上。美国唱片业协会起诉Suno(全球头部AI音乐生成平台)和Udio(AI作曲/人声生成公司)的核心指控,就是平台主动复制数百万首版权录音用于训练——这是平台在产品开发阶段的系统性选择,不是用户完成的。平台不能一边依靠侵权训练数据获益,一边把侵权风险全部推给用户与创作者。
郑宁:认定平台责任的关键标准,应是“明知或应知侵权而未采取必要措施”。杭州互联网法院审理的涉AI“奥特曼案”中,平台因未合理预防用户生成与特定形象实质性相似的内容,被认定承担帮助侵权责任。这个裁判确立的可追责性底线,应在后续司法实践中延续并强化。更重要的是,平台责任不能只有原则没有刻度,还应遵循分类定责、过错归责和比例原则——谁的技术控制力更强、盈利规模更大,谁就应承担更高的注意义务。
张平:平台责任应当分层配置。责任分配应以收益归属为核心、技术控制为补充:主体从AI产业链获益越高,风险抵御能力越强,相应承担的合规义务也就越重。具体来看,基座模型开发者对知名形象生成、声音合成等典型高风险场景,应履行更高的事前预防义务;平台承担内容分发环节的透明度与投诉处置义务;应用层开发者则应就其可控范围内承担合规义务。头部平台承担更高合规责任,也要为中小创新主体预留合理空间。
主持人:平台不能免责,但责任过重会不会形成合规壁垒,反而把创新压死?这个尺度怎么把握?哪些底线无论如何不能突破?
刘晓春:这个张力是真实存在的。基础模型格局大体成形,应用层创新将成为接下来最关键的增长点。过急出台严苛的规则会形成合规壁垒,让大量中小开发者望而却步。应坚持问题导向、分类施策:对明确、紧迫、危害突出的风险,加强治理、严格追责;对具有探索性、非恶意的问题,保持制度弹性,建立容错纠错机制。“包容审慎”不是对侵权的放任,而是为尚未形成定论且技术与商业模式仍在迭代的领域保留试错空间。
张平:底线之上允许弹性,底线之下不可退让。有三条底线无论如何不能突破:一是原创作品的基础权利——凡实质性利用原创表达、对原作品市场形成替代效应的行为,都应受到法律约束;二是肖像权、声音权等人身权益,不因技术效率而让步;三是源头侵权的可追责性必须守住——利用AI进行的侵权行为,无论发生在哪个阶段,都应当被追究。
规则落地,先补哪一块
主持人:规则缺位、执行乏力、行业自律不足,这三个问题同时存在。如果只能先补一块,各位会把票投给哪里?
张平:最应优先落地的,是可实操的收益分配机制。这不能停在原则层面,必须转化为具体工具:税收手段可对AI训练和生成环节设立特定税目,用于反哺原创者;补偿金制度可参照私人复制补偿金的经验,对特定训练数据使用设立法定补偿;版税基金可由平台和模型方共同出资,用于结算分散权利人的对价。训练数据使用规则和利用AI技术自动生成内容的权利属性,则必须在著作权法修订中明确回应,不宜长期停留于司法个案。平台义务边界则可交由司法实践和行业自律逐步探索完善。
郑宁:我的票投在技术溯源和跨平台协同处置机制上。首先,应明确过错推定原则:权利人完成初步举证后,由平台和模型方披露训练数据来源和算法逻辑,打开“技术黑箱”,把举证责任适度转移到更有能力承担的一方。在此基础上,建立统一的AI侵权内容数据库,权利人完成一次投诉后,所有接入平台自动识别、拦截侵权内容,实现“一处投诉、全网下架”。内容标识解决“让人看见”,溯源机制解决“追得上、查得清”,两者缺一不可。
刘晓春:有一件事尤其需要警惕:规则越做越多,执行能力却没有跟上,最终就容易变成纸面合规、现实失灵。更可行的分层方案是:标识、水印、平台审核、投诉快速处置这些基础工具先做扎实;对于技术与商业模式仍在迭代的领域,保持制度弹性,让市场和技术先行探索,在发展中逐步明确标准。
周亚平:分配机制要真正落地,集体管理组织是绕不过去的关键节点。平台向集管组织支付年度一揽子许可费,一次性覆盖成千上万首作品,权利人按数据比例分润。分级授权也是可行路径:非商业实验训练低收费,商业化生成增加分成。窗口打开了,创新有了合法渠道,原创者也能拿到实实在在的回报。但从长远看,内容产业更需要建立的是一套可持续的利益分配机制,而不是一套更严格的禁止性规则——单纯靠“堵”行不通,要让AI成为创作的放大器,而不是创作者权益的掠夺者。音集协今年新修订的会员规则,暂不登记纯AI生成的音乐内容,这首先说明音集协对AI音乐的可版权性持否定立场,同时也明确呼吁AI大模型平台应该为其使用的训练素材付费。虽然这只是限于产业的态度,且分成所依据的数据如何取得也尚无定论,更没有平台真正执行——但方向已经亮出来了。
主持人:知识产权保护的核心,从来不是防止创新,而是为创新提供可靠的激励。AI时代真正的考验在于:能否建立一套让原创者分到应得回报、让创新者不必被合规成本拖垮的分配机制。规则已经写下第一行字,接下来要看它多快能变成创作者账户里真实到账的收入。那时人们才会真正相信:技术进步,并不以牺牲创造者为代价。
策划:黄书波 李坤晟
主持人:薛园