日期:2026-04-30
在人工智能(AI)技术深度赋能文化产业的背景下,AI短剧凭借制作高效、形式灵活的优势迅速崛起,成为网络视听领域的新兴业态。然而,伴随技术普及,AI深度合成人脸在短剧创作中的滥用问题时有发生。未经授权盗用他人肖像进行内容生产的侵权行为,既挑战人格权益保护底线,也为行业规范发展埋下隐患。作为内容传播的核心载体,网络平台亟需在技术可行、责任合理的前提下,构建适配AI短剧特性的治理体系,平衡产业创新与权利保障。
AI短剧的人脸侵权行为,既涉及公众人物,也影响到普通民众。公众人物凭借高社会关注度与辨识度,成为AI侵权的重要对象,部分创作者未经许可,将明星肖像深度合成至短剧角色中,借助公众人物的流量效应实现商业变现,侵犯肖像权与人格利益。相较于公众人物,普通民众的肖像侵权很可能更具隐蔽性,侵权制作方通过网络公开渠道抓取素人照片、视频素材,将其用于短剧,甚至用于负面角色塑造、低俗内容演绎等场景,普通人往往难以察觉侵权事实,并面临维权困难。
由于AI短剧迅速兴起,其侵权形式和现象呈现诸多新型特点,对现有的识别和认定标准构成了实质性挑战,通过以往的技术难以进行有效的事前判断和拦截。首先,司法实践中总结的“可识别性”判断标准在很多情况下存在不确定性,AI合成人脸多经过特征修饰、局部修改,并非完全复刻原貌,形成“似是而非”的形象,难以依据传统标准判定侵权,目前尚缺乏统一、明确的审核标准。其次,混合与动态人脸情况下会增加判断难度,部分合成人脸融合多人面部特征,无明确原始对照对象,可能构成跟多人相似却又无法一一对应的情况;且短剧画面为动态呈现,人脸特征随剧情、镜头实时变化,有可能时近时远、时像时不像,进一步提升审核难度。最后,技术与数据库支撑的成熟度存在不足,行业目前还缺乏成熟的动态人脸比对技术,且无法建立覆盖普通人的肖像比对数据库,无论从技术可行性还是成本合理性上看,都难以实现全量事前筛查。
由此,规范AI短剧发展,需立足产业实际与权利保护,理性界定平台责任,构建分类施策、协同高效的治理机制。在审核方面,建议平台可以建立分类分级审核机制,针对侵权高发场景,例如特定公众人物,建立特征数据库,通过技术手段主动预警、拦截侵权内容;对于尚未监测到高发的情形,比如普通人肖像,不强制要求事前全量比对,一方面通过平台规则要求短剧创作者严格履行权利保护义务,以创作者授权承诺为基础,强化源头规范,另一方面完善落实“通知-删除”规则,搭建便捷、高效的维权通道,简化维权流程,在接到有效侵权通知后及时采取下架、屏蔽等处置措施。平台还应完善侵权账号惩戒机制,对恶意侵权、多次违规的账号采取限流、封禁、公示等处置措施,并为权利人提供便捷取证等辅助服务,为权利人进行后续司法维权提供支持。
AI短剧产业的繁荣离不开规范有序的发展环境。平台作为连接技术、创作者与用户的关键环节,需坚守法律底线与伦理准则,在合理范围内履行治理责任,既不苛责过度、阻碍产业创新,也不松懈放任、纵容侵权行为。唯有通过多方协同、权责清晰的治理路径,才能让AI短剧在技术创新与权益保护的平衡中健康发展,守护好每一个人的肖像权与人格尊严。(刘晓春 中国社会科学院大学互联网法治研究中心主任)
来源:中国知识产权资讯网
|责编:牟研