首页 > 热点资讯 > 正文

AI冒充名人带货违法,消费者可退一赔三

2024-12-23 12:13 来源:网络

AI仿冒名人带货属违法行为 消费者可要求退一赔三

AI技术的双刃剑:深度伪造带来的隐患

如今,从智能家居语音助手到自动驾驶汽车,从高效能的数据分析到医疗领域的精准诊断,人工智能(AI)正以前所未有的方式改变着世界。然而,随着AI技术的不断发展和应用,其双刃剑的特性也逐渐显现。其中,深度伪造技术带来了不小的隐患。

所谓深度伪造技术,是一种利用AI算法生成高度逼真但并非真实的视频或图像的技术。通过深度学习算法,这种技术能够分析大量的真实数据,学习特定人物或场景的特征,并生成极为相似的虚假内容。这种技术的出现,使得造假变得更加容易和难以辨别,给社会带来了诸多安全隐患。

名人被AI假冒事件频发

今年以来,AI深度伪造假冒名人的事件时有发生。不久前,有人利用AI技术伪造了张文宏医生的脸部和声音进行直播带货。在这段视频中,合成的人像反复介绍一种产品,声音也很像张文宏本人,商品中的蛋白棒已经售卖了1200多件。目前该账号已无法搜索到,而张文宏医生对此行为非常气愤。

张文宏医生表示:“这个事情已经有几个星期了,一开始我也是投诉。特别是对AI不是很熟悉的年纪较大的市民,他们很容易就会相信。”

类似事件并非个例。今年国庆期间,有人用企业家雷军的声音和头像制作了众多恶搞视频。还有人用AI模仿刘德华的声音为自己增加流量,导致刘德华电影公司连续发布声明,提醒各方注意,避免落入伪造刘德华声音的AI骗局。

上海市消费者权益保护委员会副秘书长唐健盛指出,虚拟人直播带货的情况越来越多,不法商家通过AI手段冒用张文宏老师的形象和声音进行假直播带货,这是赤裸裸的欺诈行为,严重侵害了消费者的合法权益。

AI模仿技术的发展与局限

当前,AI技术在克隆他人面部和声音上已经非常成熟。专家介绍,只需提供一张照片就能实现换脸效果,他人的声音也能被轻易模仿。技术人员现场测试,将事先录制好的视频换成记者的脸和声音,整个过程不到两分钟,效果非常逼真。

然而,AI模仿度虽高,但并非毫无破绽。1.这种既要换脸又要换声的操作只能制作视频,无法做到实时直播。2.观众通过仔细辨认视频,也能看出AI的痕迹。例如,人脸轮廓和背景环境的融合度、协调度,以及语音、语速和口型的匹配度都可以作为辨别的依据。

未经授权使用AI假冒他人属违法行为

是否可以随意使用AI深度伪造技术将名人形象为己所用?答案是否定的。专家表示,未经授权使用他人形象的行为均属于违法行为。

中国政法大学副教授朱巍解释说,按照民法典的规定,编辑他人的人脸和声音都属于当事人权利人自己的人格权利,未经允许任何人不得侵害。不仅不能直接使用,也不能使用当事人的信息进行深度合成。此外,伪造的信息违反网络安全法,属于违法信息。

如果未经权利人同意随便使用别人的肖像和声音并对外发布,按照民法典规定是一种侵权责任,要承担包括损害赔偿、精神损害赔偿在内的相关责任。如果发布的内容违反网络安全法的相关规定,当事人可能要承担包括刑事责任在内的法律责任。

消费者权益保护与平台责任

专家表示,AI假冒名人进行带货的行为涉嫌违法,一旦消费者信以为真购买了产品,可以要求商家退一赔三。上海市消费者权益保护委员会副秘书长唐健盛指出,根据消费者权益保护法,消费者遭到欺诈后,可以要求不法商家进行赔偿,具体的赔偿标准是退一赔三,不足500元的,消费者可以要求商家按500元赔偿。

此外,短视频平台也应担负起主体责任,防范AI假冒名人视频的传播。朱巍教授认为,平台不仅要删除违规视频,还应对发布者采取信用管理等强制措施,包括限制账号的盈利权限和其他特殊权限,以确保平台的安全和诚信。

文章内容来源于网络,不代表本站立场,若侵犯到您的权益,可联系多特删除。(联系邮箱:[email protected]