近日,安徽省一名男子在9秒内被骗走132万元,原因竟是犯罪分子利用“AI换脸”技术冒充他的亲戚,犯罪分子先通过视频通话骗取该男子的信任,9秒后假借正在开会挂断后,短信诱导该男子加Q..Q后骗得转账款。这是继包头市公安局电信网络犯罪侦查局发布的一起使用智能AI技术进行电信网络诈骗的案件后,又一起利用“AI换脸”进行诈骗的案例。
先视频骗取信任后挂断
通过添加Q \ Q 继续诈骗得手
“AI换脸”就是通过一张照片加以AI人工智能技术,在视频中将别人的脸换成自己的脸,换后脸部表情自然,效果逼真。如近期被各种AI换脸的保国同学,换完脸后简直完美无瑕,逗得网友乐开花。
这项技术本身并无罪恶,但别有用心者却利用该项技术冒充好友、亲戚、领导等实施诈骗,严重侵害了群众的财产安全。
面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。
首先,要做好个人信息安全第一责任人,不轻易提供人脸、指纹等个人生物信息给他人;不要轻易透露自己的身份证、银行卡、验证码等信息;不要贪图方便把身份证、银行卡照片等直接共同存放于手机内;陌生链接不要点、陌生软件不要下载、陌生好友不要随便加、不明二维码不要随便扫。
其次,远程转账务必多重验证,把好“钱袋子”。如果有人自称“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以各种方式和理由诱导你转账汇款,务必第一时间提高警惕。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款!无论对方是谁。
最后,遭遇诈骗信息或资金损失时,要及时举报和报警。中国互联网协会公众号5月24日发文提示“AI换脸”新骗局,并建议遭遇诈骗信息,请至12321.cn反诈专栏举报,如发生资金损失请及时报警。
AI技术是一把双刃剑,既可以为社会带来便利和进步,也可以被滥用和利用。我们不能因噎废食,否定AI技术的价值和潜力,但也不能掉以轻心,忽视AI技术的风险和隐患。只有提高个人信息安全意识和防范能力,才能有效避免和日常防范“AI换脸”等新型诈骗手段。
以下同类诈骗事件也请广大网友多多注意,时刻保持警钟长鸣:
案例1是福建省一名科技公司老板,被冒充好友的骗子通过ai换脸和拟声技术,以借用账户走账为由,10分钟内被骗走430万元。
案例2是江苏省一名女子,被冒充老师的骗子通过ai换脸和拟声技术,以帮助孩子升学为由,被骗走近20万元。
案例3是湖北省一名男子,被冒充女友的骗子通过ai换脸和拟声技术,以借钱买房为由,被骗走近30万元。