AI正以前所未有的方式改变着我们的生活,从智能家居的语音助手到自动驾驶汽车,从高效能的数据分析到医疗领域的精准诊断,AI的应用无处不在。然而,随着AI技术的不断发展和应用,其双刃剑特性也逐渐显现,特别是深度伪造技术带来了不小的隐患。
所谓的深度伪造技术,是一种利用人工智能算法生成高度逼真但并非真实的视频或图像的技术。这种技术使得造假变得更加容易和难以辨别,给社会带来了诸多安全隐患。今年以来,AI深度伪造假冒名人的事件时有发生。不久前,有人利用AI技术,深度伪造了张文宏医生的脸部和声音进行直播带货。在这段视频中,被合成的人像反复介绍一种产品,声音也很像张文宏本人,商品中的蛋白棒产品已经售卖了1200多件。目前该账号已经无法搜索到,而张文宏医生对有人利用AI模仿自己带货的行为非常气愤。
“这个事情已经有几个星期了,一开始我也是投诉,”张文宏医生表示,“特别是对AI不是很熟悉的年纪较大的市民,他们很容易就会相信。”
类似的事件并不罕见。今年国庆期间,有人用企业家雷军的声音和头像制作了众多恶搞视频;还有人利用AI制作刘德华的声音为自己增加流量,刘德华电影公司为此连续发布两则声明,提醒各方人士注意,避免落入伪造刘德华声音的AI语音合成技术骗局。
现在的AI技术在克隆他人面部和声音上已经非常成熟。专家介绍,通过提供一张照片就能做出换脸的效果,他人的声音也能被轻易模仿。中国网络空间安全协会人工智能安全治理专业委员会专家薛智慧指出,通过人工智能技术,可以将脸进行替换,同时需要有一个语言模型来合成被模仿者的声音,实现音色的克隆。
技术人员现场做了一个测试,将事先录制好的视频换成记者的脸和声音。1.记者给技术人员提供了一张证件照片,不到两分钟,通过软件的渲染,视频的人脸就换成了记者的脸。随后是声音的AI制作,记者现场录制了一段声音输入到AI资料库中,很快AI就能用记者的声音播报任何文本内容。AI制作的换脸和声音的视频完成后,效果非常逼真。
尽管AI模仿度高,但并非毫无破绽。专家表示,这种既要换脸又要换声的操作,只能制作视频,无法做到实时直播。观众通过仔细辨认视频,也能看出AI的痕迹。专家提醒,辨别时可以重点关注视频中人脸的变换,包括人脸轮廓和背景环境融合度、协调度等。另外,在语音、语速和口型的匹配度上,也可以去重点关注。
那么,是否可以利用AI深度伪造技术随意将名人形象为己所用呢?专家表示,那些未经过授权使用他人形象的行为,均属于违法行为。中国政法大学副教授朱巍指出,按照民法典的规定,未经允许使用他人的肖像和声音信息进行深度合成是违法的。如果把相关视频,包括声音编辑之后,形成了相关内容,这属于伪造的信息,违反网络安全法的相关规定,当事人可能要承担包括刑事责任在内的法律责任。
此外,AI假冒名人发表自己的作品,有可能会追究发布者的刑事责任。未经权利人同意随便使用别人的肖像和声音并对外发布,按照民法典的规定是一种侵权责任,要承担包括损害赔偿、精神损害赔偿在内的相关责任。
专家表示,AI假冒名人进行带货这样的行为已经涉嫌违法,一旦消费者信以为真购买了产品,可以要求商家退一赔三。上海市消费者权益保护委员会副秘书长唐健盛指出,消费者权益保护法明确规定,如果消费者遭到了欺诈,可以按照消费者权益保护法的规定要求不法商家进行赔偿。具体的赔偿标准就是退一赔三,如果不足500元,消费者完全可以要求商家按照500元进行相关的赔偿。
此外,短视频平台也应该担负主体责任,有义务防范AI假冒名人视频在自己的平台大量传播。朱巍教授强调,如果发现利用AI合成的声频和视频传播虚假消息,并不是仅仅把视频删掉就完了,应当对发布者采取包括信用管理在内的强制措施,包括账号的盈利权限,以及账号的一些特殊权限,根据信用的降低,要随之产生必要的处罚措施。
文章内容来源于网络,不代表本站立场,若侵犯到您的权益,可联系多特删除。(联系邮箱:[email protected])
近期热点