小心ai偷走你的声音 -ks8凯发官方网站

小心ai偷走你的声音
2024-05-28 15:20:17 来源:法人杂志 作者:惠宁宁 李韵石

◎文 《法人》杂志全媒体记者 惠宁宁 李韵石

当前,随着ai技术的不断发展,ai合成声音也越来越广泛地应用到多个领域。声音被收集、合成、模仿甚至篡改现象越来越普遍。前不久,ai翻唱技术、ai翻译视频曾火爆一时,人们感受其震撼效果的同时,也对有关声音权益保护产生了思考。

4月23日,北京互联网法院对全国首例“ai声音侵权案”进行了一审判决,认定作为配音师的原告,其声音权益可及于案涉ai声音,被告方使用原告声音、开发案涉ai文本转语音产品未获得合法授权,构成侵权,书面赔礼道歉,并赔偿原告各项损失25万元。近日,有关法律人士接受《法人》记者采访时表示,该案的审判,对ai的内容生成领域具有一定的指导价值,对于ai声音侵权行为也将起到警示作用。

ai生成声音应用广泛

ai技术的发展,降低了内容生产的门槛。ai生成声音、ai翻唱、ai翻译等内容产品层出不穷。去年,ai孙燕姿翻唱林俊杰的《她说》、周杰伦的《爱在西元前》、赵雷的《成都》等,火遍网络,让华语乐坛沸腾了一把。之后,又出现了ai周杰伦、ai王心凌、ai张学友等。还有的歌迷,为了满足内心的遐想,训练了阿桑、张国荣、姚贝娜、邓丽君等已故歌手的ai。

当时有报道称,据不完全统计,在b站上,“ai孙燕姿”翻唱歌曲的视频有近千条;其中 《发如雪》《下雨天》播放量过百万,弹幕超千条。随后,大批ai翻译作品涌现,如郭德纲用英语说相声等。

此前,ai在声音领域就曾因技术滥用、侵权等问题遭到声讨。“ai孙燕姿”、篡改歌手演唱视频的传播也持续引发业界内外的讨论与争议。

记者在某平台搜索“ai生成声音”发现,有的软件教程声称“只需一段话,轻松克隆任何声音”“克隆任何声音”“当前为丁真克隆声”“专家学者访谈视频生成”“ai翻唱让喜欢的角色为您发声”等。有商家称,运用ai技术,只要提取一个人足够的声音样本,就可以“克隆”其声音,制作出视频或者音频作品。

ai生成声音的法律边界

目前,ai在声音方面的应用仍存在灰色地带,如诸多视频经过二次甚至是多次篡改、传播,导致溯源环节长、当事人维权成本高。有专家认为,是否获得权利人的合法授权,是判定是否构成声音权益侵权的一个关键点。

近日,北京大成律师事务所高级合伙人肖飒接受记者采访时表示,根据著作权法第十三条规定,“改编、翻译、注释、整理已有作品而产生的作品,其著作权由改编、翻译、注释、整理人享有”,但同时也需要注意,“行使著作权时不得侵犯原作品的著作权”。这里所谓行使著作权时不得侵犯原作品的著作权之规定,实际上指的就是在“使用改编、翻译、注释、整理、汇编已有作品而产生的作品进行出版、演出和制作录音录像制品,应当取得该作品的著作权人和原作品的著作权人许可,并支付报酬”。而这种许可的缺失,在ai翻唱乃至于传统的歌曲翻唱中经常存在。

现实中,许多创作者为了追求效果,利用ai技术手段使用明星的声线进行创作,从而使明星翻唱成为主流。

但这其中隐藏着侵权风险。“事实上,使用他人声音翻唱歌曲需要其本人授权。”肖飒认为,我国民法典明确规定,对自然人声音的保护,参照适用肖像权保护的有关规定,明确将声音权益作为特殊的人格利益予以保护。而对肖像权而言,民法典规定,“未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或者公开肖像权人的肖像”。因此,使用某一自然人声音翻唱歌曲,需要本人授权。

首案的典型意义

本案涉及ai技术在声音领域的应用问题。近年来,ai生成声音的应用日益普遍,因出售他人ai生成声音而侵害人格权的不法行为时有发生,这对如何依法保护ai生成声音背后的人格权提出了新的要求。

北京互联网法院副院长赵长新在近日召开的“全球知识产权保护与创新论坛”上,讲述了上述案件审理中的细节。“语音集本身作为数据集合,要通过什么途径去保护权利人的权益?”赵长新认为,该案原告声音形成了语音集,是一类数据集合,拥有行政机关颁发的知识产权认证书。在审理过程中,考虑到数据集合涉及商业利益,法院认可了语音集的认证书。aigc (继 ugc、pgc 之后新型利用ai技术自动生成内容的生产方式)时代的数据权益得到强调。

另外,北京互联网法院也审理了“全国首例ai文生图著作权侵权案”。赵长新分析,该案的审理思路基于现有的法律框架,将特定场景下的人工智能生成物的性质认定为作品,并将其权益归属于ai工具的使用人。

在赵长新看来,上述案件的审理思路比较符合国内人工智能现在的发展趋势,法院应该在现有的著作权法的框架内,对新技术的变化做研究判定。

随着互联网和人工智能不断发展,ai技术在各个领域的广泛应用,由ai技术引发的侵害人格权纠纷日渐增多,北京互联网法院审理了如“利用ai陪伴软件侵害人格权案”等典型案件,通过裁判为新业态、新技术划定应用边界,并一以贯之地亮明兼顾保护人格权益与引导技术向善的司法态度。

北京市京师律师事务所律师许浩告诉记者,与肖像一样,自然人的声音也是人格权的一种,受民法典保护。任何人不得丑化、污损或者伪造他人声音,更不可以未经本人许可,模仿他人声音获利。

许浩认为,和著作权不同,自然人的声音有独特性,在音色、语调以及发音风格等多维度,可识别性较强,使用人工智能工具对其加工,并进行传播获利,则构成对人格权的侵权。

在许浩看来,上述案件作为全国首例“ai声音侵权案”,对ai的内容生成领域具有一定的指导价值。

如何合法使用ai声音

“未见其人,先闻其声”是对人类声音专属特性的经典描述。民法典将人格权独立成编,首次以立法形式将保护“声音”写入民法典。

中国政法大学传播法研究中心副主任朱巍认为,声音权是民法典中一个特别的规定,比如通过一个声音可以识别到特定人的,这就是具体人格权的一种。

记者了解到,目前ai在声音方面应用五花八门,很多应用对于上传的原文件没有限制,制作出的可能已经过二次或多次生成、传播,这也导致溯源困难、维权成本高。对于ai声音使用者来说,则面临侵权风险。

朱巍表示:“对于声音编辑,需要当事人单独同意。如首例‘ai声音侵权案’中,原告对录音制品的授权并不意味着对声音的授权。”这也给运用ai技术的企业提供了参考,避免此类侵权事件发生。

此外,事前的风险防范也必不可少。中南财经政法大学知识产权研究中心教授戚建刚建议,平台应完善事前审核机制,从技术层面加强内容过滤与算法优化。如使用人工智能技术,结合声音识别和文本分析,自动检测和移除可能侵权的内容。

他还建议,完善投诉机制,建立用户举报系统,提高监管部门及时对侵权行为发现和处理的可能性。

编审|渠 洋

责编|惠宁宁

校对|张波 张雪慧

编辑:刘晓莹
网站地图