戳视频,看精彩
每天一分钟,主播有话说。
【资料图】
近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元,骗子通过智能AI换脸和拟声技术,佯装其好友实施了诈骗。有网友担心说,在AI换脸技术的辅助下,这种骗术的欺骗性实在是太强了,让人防不胜防。
近年来,通过使用AI换脸与人工生成的语音技术实施诈骗的相关案例屡见不鲜,常用手法包括:通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。而人脸效果更易取得对方信任,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群,然后在视频通话中利用AI换脸,骗取信任。
人工智能时代,面对一系列层出不穷的种种骗术,该如何保卫我们的财产安全和合法权益?我们需要更加警惕,提高安全防范意识,不要随意泄露个人信息,需要转账时更加谨慎地核实。尤其是对人脸信息的使用处理,要避免随意泄露,给骗子可乘之机。而对行业而言,必须尽快立规,明确信息保护红线,加强对技术服务商行为的规范引导、明确技术使用范围、严防被滥用等等。只有AI换脸、AI拟声等在每一个环节有据可依、严格授权,提升造假诈骗难度,才能更好保护每个人的信息和财产安全。
主播:春 阳
策划:孙雪梅
编辑:赵佛佛
审核:岳 楠
监制:山 丹
声明:奔腾融媒原创稿件
转载请注明来源于《内蒙古新闻广播》官方微信