首页 > 热点资讯 > 正文

AI假冒名人带货违法,消费者可退一赔三

2024-12-23 12:13
来源:网络

AI仿冒名人带货属违法行为 消费者可要求退一赔三

AI技术的双刃剑:深度伪造带来的隐患

如今,从智能家居语音助手到自动驾驶汽车,从高效能的数据分析到医疗领域的精准诊断,人工智能(AI)正以前所未有的方式改变着我们的生活。然而,随着AI技术的不断发展和广泛应用,其双刃剑的特性也逐渐显现。其中,深度伪造技术带来了不小的隐患。

所谓的深度伪造技术,是利用人工智能算法生成高度逼真但并非真实的视频或图像的技术。通过深度学习算法,深度伪造技术能够分析大量的真实视频或图像数据,学习特定人物或场景的特征,并生成与之极为相似的虚假内容。这种技术使得造假变得更加容易和难以辨别,给社会带来了诸多安全隐患。

名人遭遇AI深度伪造事件频发

今年以来,AI深度伪造假冒名人的事件时有发生。不久前,有人利用AI技术,深度伪造了张文宏医生的脸部和声音进行直播带货。在这段视频中,被合成的人像反复介绍一种产品,声音也很像张文宏本人,商品中的蛋白棒产品已经售卖了1200多件。目前该账号已经无法搜索到。张文宏医生对有人利用AI模仿自己带货的行为感到非常气愤。

张文宏医生表示:“这个事情已经有几个星期了,一开始我也是投诉。特别是对AI不是很熟悉的年纪较大的市民,他们很容易就会相信。”

类似的情况并不仅限于张文宏医生。今年国庆期间,有人用企业家雷军的声音和头像制作了众多恶搞视频。还有人利用AI制作了刘德华的声音为自己增加流量。刘德华电影公司为此连续发布两则声明,提醒各方人士注意,避免落入伪造刘德华声音的AI语音合成技术骗局。

上海市消保委关注AI假冒名人现象

上海市消费者权益保护委员会副秘书长唐健盛表示:“我们注意到最近虚拟人直播带货的情况越来越多。有不法商家通过AI手段冒用张文宏老师的形象和声音,进行假的直播带货。这种行为是对消费者合法权益的侵害,是一种赤裸裸的欺诈行为。”

AI模仿技术的发展与挑战

当前,AI技术在克隆他人面部和声音方面已经非常成熟。专家介绍,提供一张照片就能做出换脸的效果,他人的声音也能被轻易模仿。技术人员现场做了一个测试,将事先录制好的视频换成记者的脸和声音。1.记者给技术人员提供了一张证件照片,不到两分钟,通过软件的渲染,视频的人脸就换成了记者的脸。随后,记者现场录制了一段声音输入到AI资料库中,很快AI就能用记者的声音播报任何文本内容。AI制作的换脸和声音的视频完成后,效果非常逼真。

然而,专家指出,尽管AI模仿度高,但仍存在破绽。1.这种既要换脸又要换声的操作只能制作视频,无法做到实时直播。2.观众通过仔细辨认视频,也能看出AI的痕迹。例如,人脸轮廓和背景环境的融合度、协调度以及语音、语速和口型的匹配度等都可以作为辨别依据。

未经授权使用AI假冒他人属违法行为

那么,是否可以随意利用AI深度伪造技术将名人形象为己所用呢?中国政法大学副教授朱巍表示,未经允许使用他人形象的行为均属于违法行为。根据《民法典》的规定,这些行为侵犯了当事人的肖像权和声音权,构成侵权责任,需承担包括损害赔偿、精神损害赔偿在内的相关责任。

此外,如果AI假冒名人发表作品,发布者可能面临刑事责任。根据《网络安全法》的规定,传播伪造信息属于违法行为,当事人需承担法律责任。

消费者权益保护与平台责任

专家还强调,AI假冒名人进行带货的行为已经涉嫌违法。一旦消费者信以为真购买了产品,可以要求商家退一赔三。根据《消费者权益保护法》,消费者遭到欺诈时,有权要求不法商家进行赔偿。具体的赔偿标准为退一赔三,不足500元的,消费者可以要求商家按照500元进行赔偿。

此外,短视频平台也应担负起主体责任,防范AI假冒名人视频的大量传播。朱巍教授指出,平台不应仅仅删除违规视频,还应对发布者采取信用管理等强制措施,包括限制账号的盈利权限和其他特殊权限,以确保平台的安全性和可信度。

举报
关注公众号“多特资源号”
内容来源于网络,不代表本站观点,侵删
热搜资讯