AI语音克隆创业项目未获声音主体明确授权面临人格权诉讼
1776708292

近年来,AI语音克隆技术迅猛发展,从智能客服到有声读物,从虚拟偶像到个性化导航播报,其应用场景日益广泛。然而,在技术狂奔的背后,一连串法律与伦理的隐忧正加速浮现。近期,某初创科技公司因在未获得声音主体明确授权的情况下,擅自采集、训练并商业化使用多位公众人物及普通用户的语音数据,被多名当事人以侵犯人格权为由诉至法院,该案已成为国内首例聚焦“AI语音克隆中声音权益边界”的典型人格权纠纷,引发法学界、产业界与公众的高度关注。

声音,作为自然人区别于他人的重要生物特征与人格标识,在我国法律体系中早已被纳入人格权保护范畴。《中华人民共和国民法典》第1023条第二款明确规定:“对自然人声音的保护,参照适用肖像权保护的有关规定。”而第1019条进一步强调,任何组织或个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权——这一立法精神,已被司法实践延伸适用于声音权益:未经许可的深度合成、克隆、商用,若足以导致公众混淆、损害声音主体的社会评价或经济利益,即可能构成对人格权的实质性侵害。

涉案创业公司主打“一键生成明星音色”服务,用户上传简短语音样本后,系统可在数分钟内生成高度拟真的目标音色语音,用于短视频配音、直播旁白甚至商业广告。该公司辩称,其训练数据主要来源于公开网络音频(如新闻发布会、综艺片段、播客节目),属于“合法公开信息”,且已通过平台协议模糊提示“可能涉及声音建模”,故不构成侵权。但法院在初步审查中指出:公开性不等于可无偿、无限制地用于商业性人格符号再造;所谓“平台协议提示”既未单独列明声音授权条款,亦未以显著方式说明克隆后果与风险,更未设置实质性的明示同意机制——这种“默认授权+格式条款”的操作模式,完全背离《个人信息保护法》第28条关于“敏感个人信息处理须取得个人单独同意”的强制性要求。声音作为典型的生物识别信息,其敏感程度不亚于人脸、指纹,理应适用最严格授权标准。

值得注意的是,本案原告不仅包括知名主持人、配音演员等职业用声者,亦有数位普通用户——他们曾偶然发现自己的语音被AI平台标注为“优质训练样本”,甚至出现在第三方接单平台的“可商用音色库”中。一位中学教师诉称,其在某教育类APP中录制的30秒课堂导语,被算法自动抓取后生成了数十种变调版本,其中一段竟被用于某借贷广告,语调亲和却内容违规,致其在校内声誉受损。此类案例清晰表明:AI语音克隆的侵权链条已不再局限于“名人效应”,而是下沉至每个普通人的日常数字足迹之中。技术中立不是免责金牌,当算法主动爬取、归集、建模并变现个体声音时,开发者即成为人格权益干预的关键责任方。

司法界对此类新类型案件正展现出审慎而坚定的立场。北京互联网法院在另一起类案判决中明确提出:“声音权益的核心在于自主控制权,而非单纯防止盗用。是否‘可识别’、是否‘具商业价值’、是否‘引发身份混淆’,均非判断侵权的前置门槛;只要未经同意实施声音的数字化复制与传播,即已侵入人格权的专属领域。”该观点为本案审理提供了重要参照。目前,原告方除主张停止侵害、删除全部语音模型及衍生数据外,还提出按实际使用频次与商业收益计算的赔偿请求,并要求被告建立覆盖全生命周期的声音授权管理机制——涵盖数据采集、模型训练、接口调用、日志审计等环节。

这场诉讼远不止关乎一家公司的存续,它正在为整个AI语音产业划出不可逾越的伦理红线与法律底线。真正的技术创新,从不以牺牲人格尊严为代价;可持续的商业逻辑,必须建立在尊重个体权利的基础之上。当代码开始模仿人类声线,法律必须确保每一声“你好”,都源于真实的意愿与郑重的承诺。否则,再逼真的语音,也不过是数字时代的回声空洞——没有灵魂,亦无未来。

15810516463 CONTACT US

公司:新甄创数智科技(北京)有限公司

地址:北京市朝阳区百子湾西里403号楼6层613

Q Q:15810516463

Copyright © 2024-2026

京ICP备2025155492号

咨询 在线客服在线客服
微信 微信扫码添加我