<返回更多

万万没想到,最先用AI搞到钱的是骗子!

2023-06-02  中国新闻周刊  
加入收藏

如果真的有好友,跟你打视频电话借钱,你会借吗?

近日,福州市某科技公司法人代表郭先生就接到了这样的微信视频电话。考虑到关系较好,又是真人视频通话,郭先生毫不犹豫,十分钟不到,就向对方账户打了430万元。然而,没过多久,郭先生就意识到他遭遇了一场骗局。

这就是最近不断兴风作浪的AI诈骗。

今年是AI人工智能技术爆发的大年,AI产品已应用于多个领域。但令人颇感意外的是,AI技术竟成了诈骗分子的利器,被骗子玩出各种花样,防不胜防。

那么,如何打好与AI诈骗的攻防战?如何用AI技术反AI诈骗?

9分钟给骗子打款430万元

据包头市公安局官微“平安包头”公布,4月20日11时40分左右,福州市某科技公司法人代表郭先生,接到了好友的视频电话。两人短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。

基于视频聊天见过“真人”的前提下,郭先生没有多想,于11时49分先后分两笔,将430万元打给对方。

钱款转账后,郭先生给好友发了一条微信,称事情已经办妥。没想到,好友竟然回过来一个问号。

郭先生见此,赶紧拨打好友电话,对方却说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。

据“平安包头”发布,郭先生称,“当时打了视频,在视频中也确认了面孔和声音,所以才放松了戒备”。 

郭先生赶紧报警,并通过警方查询得知涉案的银行卡为包头市蒙商银行对公账户,随后立即向包头警方请求协助紧急止付。

无独有偶。

今年4月,安徽安庆经开区发生一起“冒充好友”诈骗案,骗子利用智能AI换脸佯装“好友”,与受害人何先生进行了9秒钟的视频通话,便以开会为由挂断电话。

随后,骗子在QQ上告诉何先生,急需资金周转。何先生打了视频电话确认,又基于可信任的“好友”关系,立刻将245万元打到对方指定的账号上,不过,事后拨打电话才得知被骗。

随着人工智能技术的发展,AI应用逐步落地。但出人意料的是,利用AI技术的诈骗分子竟然成为首批吃螃蟹的人,而且,从目前的案例看,AI换脸诈骗成功率十分高,令人防不胜防。

5月24日,中国互联网协会发布公告称,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤的违法行为屡见不鲜。

AI骗术有哪些花样?

第五空间信息技术研究院院长谈剑锋告诉中国新闻周刊,从技术原理上看,AI换脸及拟声技术本质上是对人脸、声音等生物特征信息二次加工利用,一般可从已知的数据中提取关键特征,通过深度学习算法进行模拟运算,最终生成逼真的图像和语音,这也是近年来人工智能技术的重要成果。

而这样的前沿技术,却被诈骗分子应用于多个场景。

综合已发生的诈骗案件来看,当前AI诈骗主要有变声、换脸、自动应答等几类手段。

比如AI声音诈骗中,诈骗分子通过拨打骚扰电话等,录音提取诈骗对象及其重要关系人的声音特征,并进行合成,进而用伪造的声音实施诈骗。

AI换脸诈骗中,诈骗分子利用AI技术,通过合成视频或照片来“以假乱真”,诈骗对象几乎无法辨别。

谈剑锋表示,当今AI换脸技术花样百出,只靠一张正面照片就能“脑补”出讲话、运动等连续动作,也能实时捕捉真人动作“替换”脸部特征。前者可利用最少的输入信息实现一些规定动作,而后一种技术能在视频交流中保持场景不变,只是将面部特征替换成另一个人脸图像中的面部特征,面部表情相对较为自然,也更具有欺骗性。

奇安信安全专家裴智勇告诉中国新闻周刊,仅仅通过换脸,诈骗分子就能演绎出换脸欺诈、换脸敲诈等多种骗术,比如将一个人的脸换到一段不雅照片或视频上,之后威胁对方。

“尤其可怕的是在AI技术加持下,诈骗分子可以更加智能地选择诈骗对象,从而精准诈骗”,谈剑锋认为,他们可以充分利用已泄露的个人信息,精准锁定诈骗对象,长时间谋划布局,并在“恰当”的时间节点上使用“合适”的方法实施欺诈。这实际上是诈骗术的升级换代,不仅带来操作手段的精细化,而且诈骗思路也有不同程度的深化,更难对付。

如何反AI技术诈骗

不过,AI诈骗并非毫无破绽。

谈剑锋表示,诈骗分子使用的AI换脸工具众多,背后技术复杂度、所获取人脸质量和数量、算法和模型选择等存在差异,缺陷也不尽相同。但正所谓李鬼不是李逵,通过特定动作及耐心观察,识别破绽仍然有规律可循。

以AI换脸为例,这一技术仍然有一些缺陷。

一般来说,由于脸部特征数据精确采集并不容易,多数使用正面证件照片进行模拟替换,有些假脸眨眼的频次明显少于正常人,甚至不会眨眼,同样张嘴也是如此,动作可能也非常生硬,纹理也不自如,因此可以通过观察眨眼、张嘴、转头等动作来大致判断真伪。

另外,由于AI换脸技术需要一定的算力,因此增加场景的复杂性或者突然增加不规则物体,例如要求在脸部晃动手指或者某个不常见物体,假脸就可能出现跳动或变形,从而让换脸术失效。

“必须提高技术门槛,更好地防止AI诈骗”,裴智勇告诉中国新闻周刊,在AI诈骗的背景下,各类人脸识别系统、人脸数据存储系统,都有可能成为攻击者批量盗取人脸数据的目标。

因此,各种基于人脸识别技术的验证系统必须不断提升自身安全水平,还应研发多种能够与人脸识别技术相互配合、更加安全的辅助验证技术,如大数据分析技术、用户行为特征分析技术等,目的是在不增加用户负担的情况下,提升攻击者的攻击门槛。

谈剑锋表示,相关各方需要强化技术治理,提供这类AI伪造技术的厂商应当做好生成内容的醒目标注,并合理限制应用场景。在应用时,尤其是提供实时通讯的各类平台,可用AI技术来对抗AI的滥用,从而加强对AI欺诈的识别,并进行有效提示。

与此同时,裴智勇认为,在社交网络流行的情况下,人脸等个人信息很容易扩散,这就使我们不得不面对一个现实:“眼见也未必为实”,个人需要切实提高安全防范意识。

对于互联网用户而言,一是要保护好个人信息;二是涉及钱款时,要提高安全意识,多重验证身份;三是遇到可疑或危急情况,立即拨打96110报警电话。

形成强大高压震慑态势

“人工智能教父”杰弗里·辛顿今年初警告,人工智能可以辅助人类做一些繁复和创意性工作,但也很可能有不法之徒用它来做违法之事,毕竟虚假图像、视频的破坏力远大于单纯的文字。

谈剑锋认为,由于人脸等属于唯一性、不可再生性的生物特征信息,AI换脸诈骗不仅让个体遭受较大的损失,而且能极大程度混淆身份信息,甚至可能令社会信用体系走向崩溃。

“新技术是一把双刃剑,在造福人类的时候,也易被非法利用,必须加强监管,”北京索朗律师事务所韩利律师向中国新闻周刊表示。

在他看来,监管需多管齐下。首先在完善相关法律法规的基础上,加强执法力度,加大对AI换脸、变声服务企业的监管力度,互联网平台或收集个人信息企业要承担应有的义务,如有随意泄露用户信息等行为应加大惩处力度。与此同时,要利用新技术提升技术监管能力,采取风险标注、拦截提示、搜索屏蔽等措施,从源头上予以阻断。此外,要加大宣传力度,提升大家的防范意识。

针对技术监管,裴智勇强调有三方面要格外重视:一是在安全要求较高的系统中,应当限制人脸、语音等不安全的验证方式的使用;二是对于掌握大量人脸信息、语音数据的机构,包括政府和企业,应当要求其不断提升网络安全建设水平,避免信息被窃取和泄露;三是研究基于人工智能的视频鉴伪技术,在必要时刻使机构和公众有能力借助工具进行鉴伪。

今年4月11日,国家网信办起草《生成式人工智能服务管理办法》(征求意见稿),提出AI内容必须真实准确,禁止非法获取、披露、利用个人信息和隐私、商业秘密。

谈剑锋表示,总体看来,当前我国对保护数据及个人信息等较为重视,也密切关注新技术在信息服务中的应用,下一步,相关监管、立法、执行应该要不断跟进完善,进一步明确人脸识别等AI技术应用的边界,提高对人脸信息等个人信息的保护力度。

为此,他建议,对数据买卖的“黑灰产”做到露头就打;设立“数据银行”这类新型数据基础设施来统一保护生物特征等数据。

从执行层面看,在本次郭先生被骗案件中,福州、包头两地联手行动,在多部门的配合下,成功紧急止付涉嫌诈骗资金330多万元。

对此,韩利表示,联合执法是遏制与防范AI诈骗的重要探索,通过警方、网信、金融、学校等部门广泛参与,在打击诈骗与宣传引导上不断发力,形成强大高压震慑态势,逐步遏制AI技术诈骗犯罪行为。

作者:刘德炳

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>