首页 > 热点资讯 > 正文

记者实测AI换脸搭配声音合成_记者调查AI换脸拟声技术使用乱象 “骗子来电,声音容貌和我家人一模一样”

2024-12-23 14:24 来源:网络

最近记者实测ai换脸搭配声音合成_记者调查AI换脸拟声技术使用乱象 “骗子来电,声音容貌和我家人一模一样”事件在热度非常高,为大家准备了完整关于记者实测AI换脸搭配声音合成_记者调查AI换脸拟声技术使用乱象 “骗子来电,声音容貌和我家人一模一样”事件的所有相关内容,如果大家想知道更多这方面的情况,请持续关注本站!

记者实测AI换脸搭配声音合成_记者调查AI换脸拟声技术使用乱象 “骗子来电,声音容貌和我家人一模一样”

记者调查AI换脸拟声技术使用乱象 “骗子来电,声音容貌和我家人一模一样”

记者 赵丽 实习生 林铭溱

“妈,生活费不够了,再转15000元吧。”一位母亲与远在他乡读书的女儿视频时,听到了女儿的撒娇,心生怜悯,正准备转账。这时,真正的女儿走进房间,而视频中的“女儿”仍在继续求助。这并非寻常的家庭对话,而是AI防骗教育视频的一幕。

不少网友在该视频下方分享了相似的受骗经历,惊诧于骗子如何能模仿得如此逼真,无论是声音还是外貌都与亲人无异。

近期,《法治日报》的调查显示,AI换脸与语音模仿技术已成为易于获取的工具,仅需个人的照片和声音样本,借助相应软件,即可迅速创建高度仿真的“数字替身”。遗憾的是,这一技术已被不法分子瞄上,用于策划非法活动。

国家金融监管机构近日发出预警,特别提到了利用AI换脸和语音模仿进行的新型电信诈骗,这类诈骗通常以网店客服或营销人员的身份接近受害者,收集他们的声音和面部信息,随后通过技术手段伪造视频或音频,冒充熟人骗取钱财。

专家指出,未经允许制作和使用他人的换脸或语音模仿视频涉及多重法律风险。因此,需要加强相关法律建设,平衡技术创新与安全之间的关系,既要严格执法,也要采取包容性策略

如今,几乎零门槛的AI技术使得换脸和语音模仿变得轻而易举。在社交媒体上,有博主展示如何仅凭一段语音就能近乎完美地复制一个人的声音,整个过程快速而简单。更有AI工具允许用户免费在线生成高度相似的声音,甚至能根据文本内容添加情感色彩,使伪造的声音听起来更为自然。

AI换脸技术同样普及,一些应用程序提供一键换脸功能,让用户可以在图片和视频中无缝切换面容,这种技术的普及引发了人们对隐私和安全的新担忧。

在这些技术的地下市场,AI换脸和语音模仿服务明码标价,卖家很少询问购买目的。调查发现,这类软件和服务广泛存在,有的甚至包含争议功能,如去除衣物的AI功能,显示出监管的紧迫性。

对此,法律专家强调,尽管技术进步是不可避免的,但必须明确其合法使用界限,增强公众的防骗意识。个人应减少在公共平台分享敏感的个人影像和声音资料,提高警惕,通过设置专属暗号等方式验证身份,防止诈骗。在AI技术快速发展的同时,法律和社会伦理的跟进至关重要,旨在确保技术的安全、合规使用,同时推动产业健康发展。

关于记者实测AI换脸搭配声音合成_记者调查AI换脸拟声技术使用乱象 “骗子来电,声音容貌和我家人一模一样”的内容小编就阐述到这里了,希望本篇的信息能够解答大家目前的疑问,想要更多最新的内容记得关注多特软件站哟!

了解更多消息请关注收藏我们的网站(news.duote.com)。

文章内容来源于网络,不代表本站立场,若侵犯到您的权益,可联系多特删除。(联系邮箱:[email protected]