雷军“出口成脏”?AI语音应用要有边界

刚过去的国庆假期,短视频平台充斥着大量“雷军”骂人视频,把这位科技大佬塑造成“出口成脏”的形象。面对网友恶搞,雷军本人以三个愤怒的表情予以回应。目前,这类骂人配音视频已基本从短视频平台消失。

雷军摊上事了,但雷军也很委屈,因为此类视频中的声音并非出自雷军本人,而是AI配音。

AI可换脸,AI也可模仿他人的声音。有专业技术人员表示,当前AI语音技术已达到人耳甚至传统鉴定方案难以区分的程度,包括各种情绪、口音、发音习惯、方言等都可以高度还原,并且能够高细粒度地理解文本,最后生成最匹配的声音。

技术进步了,参与者也越来越多。据统计,在某社交平台上,用AI配音模仿雷军几乎已经形成风潮,相关话题浏览量动辄过亿。

AI配音技术为什么会在网络上迅速走红?

一方面,这符合网民个性化与创意表达的需要,而且与传统配音工作耗时费力相比,AI配音能在短时间内完成大量文本转换成语音的任务,其制作成本低廉。

另一方面,模仿名人或创造幽默场景的AI配音作品,易于引起共鸣,激发用户的分享欲望,从而促进内容的广泛传播。

但是这一技术也可能被不当使用,带来诸多隐患。

9月26日晚,合肥警方通报称,9月20日接到三只羊公司报警,称网上传播的涉卢某某音视频不实,严重侵害其合法权益。经过侦查,9月22日晚将犯罪嫌疑人王某某抓获,并在其电脑、手机和制作AI音频的网站中发现伪造相关音视频的证据。经鉴定,认定网传音视频系伪造。

一段用AI伪造的录音让正陷入虚假宣传风波的“三只羊”公司雪上加霜,现在,模仿雷军的AI配音逼出了雷军本人的愤怒表情并引来众多网民围观,证明AI配音引发的问题正在扩大化。

根据我国民法典对自然人声音的保护参照适用肖像权保护的有关规定,这意味着,声音作为个人特征的一部分,与肖像一样受到法律的明确保护。这也意味着在未获得授权的情况下用他人声音进行配音创作是一种名誉侵权行为。

如果更进一步,用他人声音进行配音创作的内容具有捏造事实诽谤他人的性质,且情节严重,则有可能达到刑事立案标准,这也是上述案件中的王某某最后被警方刑拘的原因。

因此,对网民来说,玩梗并非完全不可行,AI也可能是你的好帮手,但是其中的法律风险却不能不察。

提醒网民,更要追问提供AI技术公司的责任。

媒体报道,三只羊“录音门”伪造音频事件和这次雷军被恶搞事件,牵涉到了同一家公司。

在三只羊“录音门”伪造音视频事件发生之后,该公司曾发表声明表示,公司高度重视,已启动内部审核机制,将进一步加强产品的安全管控措施,确保技术的合法合规应用。

现在看来,该公司“加强产品的安全管控措施”的动作显然未见效果。

需要认识到,随着深度学习和人工智能算法的不断优化,伪造音频和视频变得越来越逼真,以至于普通人难以分辨真伪。这大大提升了信息欺骗的成功率,增加了个人信息和数据的安全风险。

抵御这种风险,只有依靠包括企业、平台、公众、监管者联动的综合治理。

AI技术的应用边界在哪里?何时何地何种程度的模仿被认为是合理的创作表达,又在何时会越过界限变成侵权行为?这一切也许还难以在仓促之间形成统一的答案,但眼下AI技术进步越来越快的事实在警示,跟随技术的发展,社会需要建立更加完善的伦理准则和法律框架,以指导AI技术的合理合法使用。