郭德纲赵本山“飙英语”,有何风险?警惕AI“深度造假”!|第2眼

来源:羊城晚报•羊城派 作者:陈婉允 发表时间:2023-11-06 16:12
羊城晚报•羊城派  作者:陈婉允  2023-11-06
如何预防AI换脸换声诈骗?如何对AI技术加强监管?

赵本山用英文演小品、郭德纲用英文说相声、范明用英文演戏……近日,多个中国明星开口“说”英语的视频引发热议。

视频中的人物使用中英文表达自然真实,音乐几乎匹配本人,口型和字幕同步,没有译制片腔调。

不仅有中国的名人飙英文,网络上也传播着不少外国明星用地道中文接受采访的视频。近期刷屏网络的一段短视频中,美国歌手泰勒·斯威夫特“说”着流利中文,音色和讲母语时的音色类似,甚至连口型都能对上。

类似的视频还有很多,有的甚至脱离了原本的内容,仅使用明星的脸,再加上创作者的声音和内容,直接让安妮·海瑟薇唱起了“东北rap”……不少网友感叹,“嘴型、手势都对得上,还有身体动作和语速的配合。太自然了,差点儿以为是真的。”

其实,这些视频有一个共同点:都是由AI(人工智能)生成的。

对比原片可以发现,AI“翻译”后重新配音的新视频不仅进行了较准确翻译,而且连声线和情绪都近乎拟真,嘴型很贴合,难辨真假。

对此,有网友表示,这种技术看起来很炫酷,应用场景很广泛,未来可能会越来越成熟。

但也有网友表示担忧,“这会不会被用来模仿声音进行诈骗?”“再加上换脸,以后网上啥都不能信了。”“以后视频造假会越来越容易。”

还有网友表示:“希望AI技术发展能被控制在正轨。”

AI技术是把“双刃剑”

近年来,AI技术被广泛应用于短视频的二次创作,比如AI换脸及换声等。可以说,AI技术是把“双刃剑”。

一方面,AI换脸及换声技术对于工作效率的提高具有非常强的作用。清华大学新闻与传播学院教授司若举例说,AI换脸及换声技术让已故的演员、历史人物可以通过换脸技术重现在屏幕上,在不同国家的语言转译上也可以通过AI的换声技术进行实时转译。

另一方面,近年来,有不法分子为了牟利,利用AI技术进行诈骗。比如利用AI换脸冒充熟人诈骗,甚至将“魔爪”伸向儿童,或者制作发布假新闻混淆视听、赚取流量等。

实际上,AI技术本身不是问题,关键是我们如何正确合法地应用。

如何警惕AI“深度造假”?

值得警惕的是,AI换声带来的风险距离我们的生活并不遥远。派派君梳理媒体报道发现,目前已发生了多起由AI换脸换声导致的诈骗案件。

今年11月,青岛的一名大学生和他在网上认识的“女朋友”视频聊天,对方称需要资金周转,男孩打钱过去之后,发现竟然被诈骗了。

今年5月,包头市公安局公布一则案件细节:郭先生的好友突然通过微信视频联系到他,称想要借郭先生公司的账户走一下账。基于视频聊天信任的前提下,郭先生先后分两笔把430万元给对方打了过去。最后,郭先生发现自己遇到了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。郭先生称,“我在视频中也确认了面孔和声音,所以才放松了戒备”。

据了解,目前,AI诈骗主要有两种形式:

第一种是通过技术手段合成换脸、换声的视频或语音,在视频聊天、普通电话中直接播放。这种诈骗主要出现于比较紧急的情况,如遭遇事故求助等,播放结束后就会中断连接,无法与被害人形成回合性对话。

另一种是在视频通话中直接换脸并替换声音,或直接换声拨打电话。

民警提示,以上两种诈骗方式都受限于样本数量,所以可以通过延长通话时间、多次进行提问的方式让对方多说话,露出破绽。

此外,国家也在通过多重手段防范“AI换脸诈骗”,近两年,相关部门先后出台了互联网信息服务深度合成管理规定,生成式人工智能服务管理暂行办法等有关政策文件。先后开展了“互联网深度合成算法备案”“大语言模型算法备案”等有关工作。严厉打击利用AI换脸、变声等手段实施的违法犯罪行为。

如何预防AI换脸换声诈骗案件的发生?

10月13日,国家金融监督管理总局在《关于警惕利用AI新型技术实施诈骗的风险提示》中指出,利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。国家金融监督管理总局提醒广大金融消费者:第一,网络渠道“眼见”不一定为实;第二,转账汇款务必核验对方身份;第三,保护好照片、声音等个人信息。

具体来说,要想从源头上预防此类诈骗案件的发生,保护好个人信息是关键:

●不要随意接听陌生电话,防止诈骗人员以电销推广等借口采集发音、语句;

●避免在个人互联网社交账户上过多暴露个人照片、声音、视频等信息;

●对外提供人脸照片时需谨慎对待;

●使用小众软件进行身份认证、网络贷款实名放贷时需提高警惕;

●不要随意点击陌生链接,链接中的木马程序会窃取用户手机内的照片、监听回传通话内容;

●开启定位服务、输入身份证号、录入人脸识别信息、指纹识别信息等个人生物信息时,一定要慎之又慎。

AI换脸换声存在什么法律风险?

北京岳成律师事务所高级合伙人岳屾山律师表示,用AI技术为他人更换声音、做“翻译”并发布视频,可能涉嫌侵权,主要有三个方面:

一是著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的“作品”。网友用AI软件将相声、小品等“翻译”成其他语言,需经过著作权人授权,否则就存在侵权问题。

二是肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。网友用他人形象制作视频,并在网站发布,需要取得肖像权人的同意,否则涉嫌侵权。

三是声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。也就是说,需要取得声音权人的同意,才能够使用他人的声音。

如何对AI技术加强监管?

AI技术发展,需要多层面约束规范——

在源头端,需要进一步加强公民个人信息保护。专家建议,加强公民信息尤其是生物特征等隐私信息的技术、司法保护力度。

在技术层面,数字水印鉴伪等技术有待进一步普及利用。比如AI生成的视频需带有不可消除的“AI生成”水印字样。

在法律制度层面,进一步完善人工智能等领域相关法律法规。今年8月15日,《生成式人工智能服务管理暂行办法》正式施行。《办法》规定,提供和使用生成式人工智能服务,应当尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。

中国科学技术大学公共事务学院、网络空间安全学院教授左晓栋表示,总体而言,生成式人工智能仍处于发展的初期阶段,风险没有完全暴露,应用前景难以估量,所以应当采取包容审慎的态度,坚持发展和安全并重、促进创新和依法治理相结合,要采取有效措施鼓励生成式人工智能创新发展。

据了解,目前我国人工智能产业蓬勃发展,核心产业规模达到5000亿元,企业数量超过4300家。随着各项措施规范出台,我们期待未来人工智能发展更加健康规范,从多方面助力人们的工作和生活。

(资料来源:央视新闻、央视财经、中央广电总台中国之声、新京报、贝壳财经、上观新闻、极目新闻、潮新闻、包头市公安局、国家金融监督管理总局)

话题主持 | 记者 陈婉允

来源 | 羊城晚报•羊城派
责编 | 梁泽铭
校对 | 桂晴

编辑:陈婉允
返回顶部
精彩推荐