日期:2026-03-31
近日,曾为电视剧《甄嬛传》《芈月传》、电影《疯狂动物城》等经典角色配音的知名配音演员季冠霖,通过个人微博发布声明,直指部分网络用户及平台滥用人工智能(AI)技术,未经许可克隆其声音用于影视二创、短剧配音、商业推广等场景,严重侵犯其声音权益。中国知识产权报记者就此联系采访季冠霖,截至发稿,尚未收到回复。季冠霖的遭遇并非孤例,此前,边江、张杰等多位配音演员也联合发声,配音演员史泽鲲还就涉嫌侵权行为提起诉讼,强调“法庭见”。
生成式人工智能技术的飞速迭代,让声音克隆从科幻场景变为现实。如今,仅需数秒音频素材,AI就能精准提取音色、语调、发音习惯等核心声纹特征,复刻出以假乱真的仿声内容,广泛应用于影视配音、短视频创作、有声读物、虚拟主播等领域,大幅降低内容生产门槛,催生全新的声音产业生态。与此同时,侵权隐患也随之而来:未经授权采集公众人物声音训练模型、AI仿声内容未经许可商用牟利、侵权内容跨平台快速传播难以管控……AI仿声的“野蛮生长”,触碰了人格权、著作权、个人信息保护的多重法律红线。如何平衡技术创新与版权保护,划定 AI仿声的合法边界,成为亟待破解的命题。
侵犯双重权利
AI仿声技术的普及,让“声音抄袭”变得隐蔽且高效,而其侵权行为,本质上是对自然人声音人格权、作品著作权的双重侵犯。
北京德和衡律师事务所权益合伙人、律师王文俊在接受本报记者采访时明确指出,从物理角度来说,人的声音主要主要由频率、振幅、音色、音长四部分构成,其中音色是区分人体声音最主要元素。音色因人而异,具有独特性和指向唯一性,具有极强的人身属性,属于人身权范畴。根据民法典第一千零二十三条第二款规定,对自然人声音的保护,参照适用肖像权保护的有关规定。另外,根据商标法第八条规定,声音是可以获得商标注册保护的标志,如果声音商标获得注册,还受到商标法的保护。
具体到影视创作领域,演员参加特定创作通常会与制作方签订合作协议,授权制作方使用其声音、肖像、姓名等人身权利,在此基础上形成的影视作品版权包含了演员的声音权利。“所以,AI仿声模仿的对象如果是演员在特定影视作品的台词,在没有授权许可的情况下,通常会认定为侵害了影视作品的版权。当然,这还涉及相同类似的专业比对问题。如果 AI仿声仅仅是模仿特定演员的声音,在未经授权的情况下极有可能侵害了演员的人身权。”王文俊表示。
实践中,AI仿声侵权已形成清晰的侵权链条。记者注意到,个别网络用户或平台通过公开渠道采集配音演员的有声作品片段,上传至 AI模型进行训练,提取声纹特征后生成高度相似的合成语音,再将其用于二次创作剪辑、商业配音、广告推广甚至虚假宣传,部分平台甚至公开提供“声音克隆”付费服务,形成“采集-训练-生成-商用”的灰色产业链。此类行为不仅未获配音演员的授权许可,更直接挤占其商业机会,对以声音为核心生产力的职业群体造成极大冲击。
“请各平台在收到有效举报后及时采取必要措施,共同抵制侵权行为,保护配音演员的合法权益,维护健康的创作与传播环境。”季冠霖在博文中呼吁。
厘清权利归属
AI仿声并非简单的声音复制,而是对配音演员“声音表演形象”的深度复刻,其权利归属与保护逻辑,需结合技术特征与法律规则进一步厘清。
西南政法大学民商法学院副教授易健雄在接受本报记者采访时表示,AI仿声技术突破了传统录音技术对配音的机械复制,能提取出蕴含在配音中的声音特征,包括声线、音色、语调、语气,甚至是发音习惯与口部微操等最具个性化的声音细节,再由声学模型和生成对抗网络声码器还原出高度逼真的音频,从而发出与配音风格高度相似的声音,形成一种“配音演员在说话”的听觉效果。
“不管仿声技术如何,其结果都表现为对配音演员‘声音表演形象’的再现,只不过这一表演形象不再是传统录音技术下已固定下来的配音的机械复制——这正是目前著作权法规定‘表演形象’所针对的典型情形,而是对‘配音风格’的复制。”易健雄表示,这一声音表演形象不同于配音演员本人的声音。同一个配音演员完全可能形成多种不同风格的配音,在理论上更类同于“形象权”或“商品化权”的客体,在法律上则仍属表演者的表演形象。在权利归属方面,这一基于“配音风格”的声音表演形象在权源上应归于配音演员,其与制作者或原视听作品著作权人的关系可通过合同予以约定,若无合同明确约定,则由配音演员控制为宜。原视听作品著作权人可在一定的目的范围内使用这一声音表演形象,其他人未经许可就不得使用。在请求权基础方面,可以考虑适用著作权法上关于表演形象的规定或适用反不正当竞争法的有关规定。
规避侵权风险
面对 AI仿声带来的侵权风险,单靠事后维权难以根治,唯有构建技术防控、法律合规等多位一体的治理体系,才能平衡技术创新与权利保护,推动行业健康发展。
从法律合规层面,声音参与者应树立“先授权、后使用”的底线意识。王文俊认为,AI仿声的形成过程事实上离不开行为人的直接或间接参与,如果行为人需要特定权利人的声音进行智能化模拟仿声,建议提前与权利人协商并获得授权,是否有偿由双方协商确定,如果有偿还可以进一步协商授权费标准。仿声模拟的对象通常是具有一定社会知名度和辨识度的公众人物,以上方式是防范侵权风险最有效的方式。除此之外,AI仿声完成后正式使用之前,建议通过智能软件工具对仿声进行专业的检测分析,以确定是否指向特定公众人物,这是防范侵权风险的第二道防线。“声音已经逐步形成产业,声音产品的应用场景越来越多,衍生的合规与侵权风险也越来越高。声音产业的参与者应当尊重他人的原声,尊重他人模拟声音产品的知识产权,在法律规则范围内依法规范经营声音产品与服务,共同维护声音产业环境和市场秩序。”王文俊直言。
从技术防控层面,“解铃还须系铃人”,技术问题需用技术解决。易健雄建议,可考虑使用反 AI仿声技术,如在音频中嵌入人耳听不见的“数字水印”,或通过算法检测音频中是否存在 AI生成特有的“频谱空洞”。通过技术手段锁定使用者后,再从法律适用层面解决问题。
声音是人类独特的情感载体与人格标识,也是文化创作的重要资源。AI仿声技术必须守住法律与伦理的底线。只有在尊重权利、规范使用的前提下,技术才能真正赋能内容创作,让声音产业在创新与保护的平衡中行稳致远。
作者:侯伟
来源:中国知识产权资讯网
|责编:牟研