如今,从智能家居的语音助手到自动驾驶汽车,从高效能的数据分析到医疗领域的精准诊断,人工智能(AI)正以前所未有的方式改变着我们的生活。然而,随着AI技术的不断发展和应用,其双刃剑特性也逐渐显现,其中深度伪造技术带来的隐患尤为突出。
深度伪造技术的隐患
所谓的深度伪造技术,是一种利用AI算法生成高度逼真但并非真实的视频或图像的技术。通过深度学习算法,深度伪造技术能够分析大量真实数据,学习特定人物或场景的特征,并生成与之极为相似的虚假内容。这种技术使得造假变得更加容易和难以辨别,给社会带来了诸多安全隐患。
今年以来,AI深度伪造假冒名人的事件时有发生。不久前,有人利用AI技术伪造了张文宏医生的脸部和声音进行直播带货,售卖了一款蛋白棒产品,销量达1200多件。张文宏医生本人对此非常气愤,指出这对不太熟悉AI技术的老年市民尤其具有欺骗性。
不止张文宏:AI假冒名人的普遍现象
用AI制作、假冒名人欺骗网民的现象并不局限于张文宏事件。今年国庆期间,有人用企业家雷军的声音和头像制作了众多恶搞视频。还有人利用AI模仿刘德华的声音为自己增加流量,刘德华电影公司为此连续发布声明,提醒各方注意避免落入伪造刘德华声音的AI骗局。
上海市消费者权益保护委员会副秘书长唐健盛表示,虚拟人直播带货的情况越来越多,不法商家通过AI手段冒用名人形象和声音进行假的直播带货,这不仅是对消费者合法权益的侵害,更是赤裸裸的欺诈行为。
现在的AI技术在克隆他人面部和声音上已经非常成熟。专家介绍,提供一张照片就能做出换脸效果,他人的声音也能被轻易模仿。技术人员现场演示了将事先录制好的视频换成记者的脸和声音,整个过程不到两分钟,合成后的效果非常逼真。
然而,尽管AI模仿度高,但并非毫无破绽。1.这种既要换脸又要换声的操作只能制作视频,无法做到实时直播。2.观众通过仔细辨认视频,也能看出AI的痕迹。专家建议,辨别时可以重点关注视频中人脸轮廓和背景环境的融合度、协调度,以及语音、语速和口型的匹配度。
那么,是否可以随意利用AI深度伪造技术将名人形象为己所用呢?专家表示,未经授权使用他人形象的行为均属于违法行为。中国政法大学副教授朱巍指出,按照《民法典》规定,未经允许任何人不得侵害当事人的肖像权和声音权。不仅不能直接使用,也不能将这些信息用于深度合成。此外,伪造的信息违反《网络安全法》,属于违法信息。
AI假冒名人发表作品还可能追究发布者的刑事责任。朱巍进一步解释说,未经权利人同意随便使用别人的肖像和声音并对外发布,属于侵权行为,要承担包括损害赔偿、精神损害赔偿在内的相关责任。如果相关内容违反《网络安全法》,当事人可能还要承担刑事责任。
专家表示,AI假冒名人进行带货涉嫌违法,一旦消费者信以为真购买了产品,可以要求商家退一赔三。上海市消保委副秘书长唐健盛强调,《消费者权益保护法》明确规定,消费者遭受欺诈后可以要求不法商家进行赔偿,具体标准是退一赔三,不足500元的,消费者可以要求商家按500元进行赔偿。
短视频平台也有义务防范AI假冒名人视频的传播。朱巍认为,平台发现利用AI合成的声频和视频传播虚假消息,不应仅删除视频,还应对发布者采取信用管理等强制措施,包括限制账号的盈利权限和其他特殊权限。
小编建议,AI技术的应用虽带来便利,但也需谨慎对待其潜在风险,确保技术发展的同时保护好消费者的合法权益。
文章内容来源于网络,不代表本站立场,若侵犯到您的权益,可联系多特删除。(联系邮箱:[email protected])
近期热点
最新资讯