当前位置:首页 > 遇事找法 > 正文

10分钟被骗430万!警方提醒:警惕这类新型诈骗!

发布日期:2023-05-24 09:49 来源:人民网科普综合新街派生活报、黑龙江日报

5月22日,话题#AI诈骗正在爆发#冲上微博热搜:

图片

据“平安包头”微信公众号消息,近日,内蒙古包头市公安局电信网络犯罪侦查局发布一起使用智能 AI 技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生 10 分钟内被骗 430 万元。

4 月 20 日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要 430 万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把 430 万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能 AI 换脸和拟声技术,佯装好友对他实施了诈骗。

“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生说。

幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截 336.84 万元,但仍有 93.16 万元被转移,目前正在全力追缴中。

01

多地出现AI诈骗案例

据华西都市报此前报道,2022 年 2 月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近 5 万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI 换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。

浙江温州公安曾发布消息,2021 年拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用 AI 换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。

2020 年,上海某公司高管因对方使用 AI 换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗 150 万元。

02

AI诈骗常用手法


1. 声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

图片

2. AI换脸

人脸效果更易取得对方信任,骗子用 AI 技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。

骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过 AI 技术筛选目标人群。在视频通话中利用 AI 换脸,骗取信任。

图片

3. 转发微信语音

骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。

尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。

4. AI 程序筛选受害人

骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。

例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。

03

如何防范?


1. 多重验证,确认身份

如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心。

对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的。

网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。

如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。

2. 保护信息,避免诱惑

不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。

陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ 等被盗号。

3. 提高安全防范意识

公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打 110 咨询。

如不慎被骗或遇可疑情形,请注意保护证据立即拨打 96110 报警。