近日
一起利用人工智能(AI)
【资料图】
实施电信诈骗的典型案例
引发关注
话题#AI诈骗正在爆发#
冲上微博热搜
近日,内蒙古自治区包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。
4月20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。
“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。
幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。
多地出现AI诈骗案例
据华西都市报此前报道,2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。
浙江温州公安曾发布消息,2021年拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。
2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。
AI诈骗常用手法
1
声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
2
AI换脸
因为人脸效果更易取得对方信任,基于在社交平台发布的照片、视频,通过AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
3
转发微信语音
在盗取微信号后,骗子便向账号好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。
4
AI筛选受骗人群
这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。
警方提醒:注意防范!
目前,包括北京反诈、武汉市反电信网络诈骗中心等官方公众号平台,都警告了AI技术新骗局的严重性,甚至表示“诈骗成功率接近100%”。
那该如何破解?答案是见招拆招,防患于未然!
1
多重验证,确认身份
➡ 对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的。
➡ 网络转账前要通过电话等多种不同沟通渠道核验对方身份,一旦发现风险,及时报警求助。
➡ 如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。
2
保护信息,避免诱惑
➡ 不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。
➡ 陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。
3
提高安全防范意识
➡ 公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询。
➡ 如不慎被骗或遇可疑情形,请注意保护证据立即报警。
预防网络诈骗
提高自己的辨别能力很重要
千万别被骗局所迷惑
转发提醒更多人!
点击下方名片,
关注“今日斗门”微信公众号▽
更多精彩有你好看!点击阅读▽
|来源:人民日报、平安包头、珠海刑侦
|编辑:陈颖
关键词: