当前位置: 首页 > 资讯 > >正文

今日聚焦!谨防“AI换脸”骗局!看完这篇你就不会上当了!

来源:商业新知网    时间:2023-05-29 09:44:41

“陷阱”无处不在,“面具”难辨真伪!听说了吗!又一起令人发指的AI换脸诈骗事件在5月25日被媒体曝光了!这一次,诈骗金额竟然高达245万,而且整个诈骗过程时间更短,只有9秒钟!简直是让人瞠目结舌!难道我们的财产安全已经无处不在受到威胁了吗?!赶紧来了解这些新骗局,以免成为下一个受害者!

作者 |小军哥 (文化产业评论作者、三川汇文旅体研究院研究员)


(资料图片仅供参考)

编审 | 时光

编辑 | 半岛

来源 | 文化产业评论

继此前发生的“10分钟被AI换脸骗走430万元”事件引起社会广泛关注之后,5月25日,又一起AI换脸诈骗事件被曝光,令人倍感惊恐。据报道,这次诈骗金额高达245万元,更可怕的是整个过程只用了短短的9秒钟。

这两起事件再次警示人们,随着人工智能技术的广泛运用,网络诈骗手段也在不断升级,需要更加警惕和谨慎,掌握和识别“AI换脸”陷阱,以免自己成为下一个受害者。

套路如出一辙:“熟悉的朋友+熟悉的声音”

近日,包头市公安局通报了一起利用人工智能(AI)实施电信诈骗的案例。2023年4月20日中午,福州市某科技公司法人代表郭先生接到好友微信视频电话,对方称需要430万元保证金,并要求转账至公对公账户。

由于过于相信好友,加上对方使用了智能AI换脸和拟声技术,郭先生二话没说便在10分钟内将430万元分两笔转账至对方银行卡上。事后郭先生拨打好友电话,才知道被骗,但已来不及挽回损失。随后福州、包头两地警方迅速启动止付机制,成功止付拦截了336.84万元,但仍有93.16万元被转移。

无独有偶。据澎湃新闻5月25日报道,5月22日,安徽安庆的何先生也遭遇了类似的诈骗。当天何先生接到一个熟人视频电话,让他帮忙转一笔账。但9秒之后,对方以“在开会”为由,迅速挂断了电话,还称“微信和电话不能说,加一下QQ”。

随后,“好友”在QQ上告诉何先生,目前有一个项目招标需要周转资金,希望何先生先行帮忙垫付。 “因为打了视频电话又是熟人”,“我就没多想,就转账了”,基于对“熟人”的信任,何先生没有犹豫 ,立刻让家人将245万元到对方指定的账号上,直到事后拨打对方电话才得知被骗。

△安徽安庆受害人何先生微信截图(图源:大皖)

幸运的是,发现被骗之后,何先生迅速报警,专案民警第一时间冻结相关账户,连夜赶赴北京市抓获3名涉诈嫌疑人,追回何先生被骗的132万元。

回顾两起事件可以发现,当骗子们使用智能AI换脸和拟声技术时,他们可以模仿熟悉的朋友或家人的声音和形象,让受害者产生信任感。 这种“身份欺诈”的手法很容易让人掉入陷阱,因为人们通常更容易相信自己认识的人。

在这两起案件中, 骗子们都采用了类似的套路:通过微信电话和好友身份进行切入,然后使用AI技术伪装成受害者熟悉的人物 ,从而获得受害者的信任并引导他们转账。这种手法让受害者很难辨别真假,因为智能AI换脸和拟声技术可以使骗子们的外貌和声音与受害者熟悉的人物非常相似。

△ 制图 : 文化产业评论 史欣怡

因此,在日常生活中,我们应该保持警惕,不要轻易相信微信或其他社交媒体上的陌生人,并且要注意确认对方的真实身份。如果怀疑有诈骗嫌疑,一定要及时报警并寻求帮助。同时,政府和相关部门也应该加强监管和技术防范,以打击这种智能AI换脸和拟声技术的电信诈骗行为。

AI换脸技术诈骗的四大显著特征

AI换脸技术主要通过软件将一个人的面部特征、表情和动作等信息转移到另一个人的照片或视频中,实现真实的换脸效果。

△资料图片(图源:澎湃新闻)

目前,AI换脸技术已经被广泛应用于影视制作、数字娱乐、虚拟现实等领域,为人们带来了更加丰富多彩的视听体验。 然而,这种技术也为一些不法分子提供了可乘之机,成为网络欺诈和身份盗窃等犯罪活动的利器。 与传统的电信诈骗相比较,AI换脸诈骗具有以下四个显著特征:

一是成本投入更低。 传统电信诈骗通常需要一定的人力和物力成本,如招募电话销售人员、租赁办公场所等,同时也需要一定的时间和空间来进行策划和诈骗。相比之下,AI换脸诈骗则可以通过一部手机或一台电脑和一些软件来实现,成本较低,而且可以快速进行诈骗。这也意味着,诈骗者可以更加快速地获取利益,而且难以被追查。

△ 制图 : 文化产业评论 史欣怡

二是成功机率更高。 传统电信诈骗通常采用冒充公检法、银行客服或兑奖平台等方式进行恐吓或诱骗,成功率相对较低;AI换脸通过打情感牌的诈骗手法更加真实,更容易让受害者掉进陷阱。这种手法往往切中对方的情感软肋,如说自己有病需要治疗、公司竞标重大项目需要支持等等,让受害者产生同情心理上当受骗。这也导致了AI换脸诈骗的成功率更高,受害者更容易被欺骗。

△ 制图 : 文化产业评论 史欣怡

三是角色伪装更多。 除了之前提到的利用AI换脸技术冒充熟人或好友进行诈骗外,一些不法分子利用AI技术伪装成领导的QQ或微信账号进行诈骗,通过添加下属或服务对象获得信任后,以亲戚或家中急需用钱要求对方帮忙周转或转账到指定账户上。受害人敬畏上级,不敢质疑指示,极易上当受骗。近期,贵州三都县公安局成功破获一起冒充领导微信诈骗案件,并追回被骗资金19万元。

△以上为微信诈骗参考图片(图源:网络)

四是防范难度更大。 近年来国家和地方对传统电信诈骗已经有了一些成熟的防范措施,尤其是金融机构对传统电信诈骗防范手段更加多样化,社会层面防范意识也不断增强。 但是,对于AI换脸诈骗,目前还没有很好的解决方案。 因为诈骗者可以利用各种社交媒体平台进行诈骗,而且很难通过简单的判断来辨别真伪,短时间难以追踪和抓捕。

△制图:文化产业评论 史欣怡

识别和警惕AI诈骗的6种新伎俩

综上所述,AI换脸诈骗相比传统电信诈骗成本更低、时速更快、角色更多、机率更高和防范更难等特点,对社会造成的危害也更大。因此,我们要高度警惕基于AI诈骗的6种新伎俩。

1.虚假音频诈骗。 利用AI技术生成虚假的语音信息,冒充亲戚、朋友等身份进行诈骗。比如,不法分子使用AI技术生成了一段虚假的亲属语音信息,声称家中告急亟需紧急转账。受害者因为听到了亲属的声音,从而引起恐慌和焦虑,没有多想就进行了转账。

△图片来源: 新华网

2.虚假视频诈骗。 利用AI技术生成更加逼真的虚假视频,制造更加真实的人物或情境,让受害者更容易上当受骗。 例如,近年来,有不法分子将现实中的一个人脸替换成了电影明星的脸,并通过社交媒体传播,诱导用户和粉丝点击链接下载恶意软件或输入个人信息。

3.虚假恐吓诈骗。 据光明网披露,近日,多名网友收到同一条虚假恐吓诈骗短信。短信声称对方因信贷诈骗已经被执法机关定位,要求当日14点前结清全部欠款,否则将会遭到上门强制“枪毙”。 然而,这种“低智商”的诈骗手段,极有可能是AI筛选出最容易上当的人群,特别是那些文化程度不高、社会阅历单薄的弱势人群。

△图片来源:新华网

4.虚假客服诈骗。 利用AI技术生成虚假的客服对话框,冒充银行、支付机构等身份进行诈骗。 例如,在一次诈骗事件中,骗子冒充银行客服,通过微信联系受害人,谎称对方银行账户异常,让受害人输入银行卡密码,导致受害人银行卡被盗刷。

△骗子冒称京东客服进行诈骗的对话(图源:深圳反诈中心)

5.网络钓鱼诈骗。 利用AI技术生成虚假的网站、邮件等,诱导用户输入个人信息或下载恶意软件。例如,在一次网络钓鱼事件中,黑客使用AI技术生成了一个虚假的银行网站,通过短信形式告知对方打开某银行网站,让受害人输入银行卡号和密码进行验证,导致受害人银行卡被盗刷。

△图片来源:网络

6.进行定向攻击。 黑客可以使用AI技术分析目标用户的行为特征和个人信息,进行精准定向攻击,窃取个人敏感信息。例如,在一次定向攻击事件中,黑客使用AI技术制作了虚假的社交媒体账号,并通过该账号发送钓鱼链接,成功窃取了目标用户的个人信息。

这些新的诈骗手段可能会更加隐蔽和高效,对公众造成更大的威胁。因此,我们需要加强对AI技术的监管和管理,提高公众的安全意识,共同应对未来可能出现的新型诈骗手段。

AI换脸等诈骗防范指南及措施

5月24日,中国互联网协会发布公告表示,伴随着深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤的违法行为屡见不鲜。广大公众需提高警惕,加强防范。

对此,文化产业评论(ID:whcypl)认为,防范和应对基于AI换脸等诈骗伎俩,需要从个人、政策和技术等多个维度同步发力,才能有效防范或减少类似诈骗案件的发生。

(一)个人层面做到“八不要”“三不怕”。

对于个人而言,除了在形形色色的“人皮面具”中保持清醒,避免陷入虚假宣传,更重要的是面对花样翻新的AI诈骗,必须保持防范意识,切实做到“不听不信不转账”。

1.保护个人信息,做到“八个不要”: 一是不要轻易提供人脸、指纹等个人生物信息;二是不要轻易透露自己的身份证、银行卡、验证码等信息;三是不要把身份证、银行卡照片等直接存放于手机内;四是不要点陌生链接;五是不要下载陌生软件(APP);六是不要随便加陌生好友;七是不要随便扫不明二维码;八是不要向陌生人开启手机屏幕共享。

△ 制图 : 文化产业评论 史欣怡

2.识别虚假身份,做到“三个不怕”: 如果有人自称“亲友”“老师”“上级”等身份,通过微信电话、视频或QQ等社交软件联系你,并以“情况紧急”“领导私事”“遭遇不幸”等理由让你转账汇款,请第一时间保持警惕。在任何情况下,无论对方是谁, 都要不怕麻烦、不怕得罪人、不怕耽误事, 务必多途径核验对方身份,千万不要随意转账打款。请记住,“宁绕百步走,不落一险棋”。

△图片来源:新华网

(二)在政策层面应做到“四个加强”。

2022年12月,国家互联网信息办公室等三部门发布《互联网信息服务深度合成管理规定》,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。但就目前AI换脸诈骗形势和手段,还需要进一步加强防范和治理。

1.加强对AI换脸技术的监管。 进一步丰富完善相关法律法规,科学规范AI换脸技术的开发、使用和管理闭合措施,明确AI换脸技术的合法使用范围,严厉打击利用AI换脸技术进行诈骗、网络暴力、侵犯隐私等违法行为。

2.加强技术防范措施的开发。 加大对AI换脸技术的技术研究和防范措施的开发力度,提高AI换脸技术的安全性和可靠性,研发更加智能化的识别系统用于用于辨别真伪,减少此类诈骗行为的生存空间。

△图片来源:网络

3.加强跨部门的协同合作。 公安机关、网络安全部门和金融机构等部门之间应该加强沟通和协作,形成合力,共同维护互联网生态和社会和谐稳定。例如,金融机构应通过客户证件、手机号码、邮箱等信息进行多重验证,及时发现和处理异常交易。

△图片来源:平安包头

4.加强公众安全意识教育。 AI合成的人脸和虚假音视频通常会有一些特征,如画面不真实、语音不连贯等。相关部门要加强AI换脸技术进行犯罪的案例宣传,增强公众的安全意识和自我保护意识,避免成为诈骗的受害者。

△图片来源:新华网

总之,AI换脸诈骗是一种新型的网络犯罪方式,具有严重的社会危害性。为此,除个体提高防范意识外,还需要从技术、政策、执法、教育等方面进行综合施策,加强对AI技术的监管和犯罪行为的打击,才能有效地减少类似事件的发生,保障公众的合法权益和社会的安全稳定。

参考资料:

1.中国互联网协会(2023.05.24):警惕“AI换脸”新骗局

2. 中国新闻社 (2023.05.22):警惕!“AI诈骗正在全国爆发”

3.三都公安(2023.05.07):“我被领导骗钱了?”黔南公安追回被诈骗资金19万元

X 关闭

推荐内容

最近更新

Copyright ©  2015-2022 华声培训网版权所有  备案号:京ICP备2021034106号-36   联系邮箱:55 16 53 8 @qq.com