一、典型案例
不久前,小张的同学通过微信联系自己借钱,对方打过来一段视频电话,称自己因为意外在医院就诊,急需交费1000元,需要小张帮忙周转一下,等在学校办理的学平险理赔后就还钱,然后表示信号不好,而且自己在办理急诊手续不方便就挂断了。小张看到确实是同学本人,且非常着急,便当场转账了1000元。事后小张想想感觉不安,拨打同学电话,方才得知同学的微信账号被盗,当时和小张视频的根本不是同学本人。小张这才意识到自己上当受骗了,对方是通过AI技术合成了特定影像和声音,还有很多同学都收到了同样的视频电话。
二、案例分析
今年以来,使用智能AI技术进行诈骗的案件屡见不鲜。AI诈骗常用的手法有:
1。声音的合成:通过骚扰电话进行录音,提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
2.AI换脸:基于发布的照片、视频,通过人体图像合成技术,生成假脸。
3。转发微信语音:通过提取微信语音文件或安装非官方版本(插件),实现语音转发。
本案中,不法分子通过智能AI换脸和拟声技术,制造视频聊天的假象实施诈骗,让小张同学蒙受了经济损失。
三、风险提示
一是切勿轻信他人,身份信息多重核验。转款汇款前一定要通过电话、见面等多种沟通渠道核验对方身份,未经核实不要轻易转账汇款。
二是保护个人信息,提高安全防范意识。在网络平台上不过度公开或分享动图、视频等,提高自我保护意识。
三是遇到诈骗风险,保留证据及时报案。如不慎诈骗,发生资金损失,注意保留聊天记录、转账截图等证据,及时拨打96610(反诈专线)报警。
中国人寿寿险重庆市分公司供稿