近日,央视新闻频道曝光了一起令人震惊的新型AI换脸诈骗案件,涉案金额巨大,受害者多达23人,他们的银行账户和银行卡均遭盗刷。

据南京市玄武区人民法院,被告人符某为牟取非法利益,通过网购的方式,非法获取了 195 万多条公民个人信息,随后利用这些公民个人信息,通过 AI 换脸软件,以“人脸识别”的方式,登录了 23 名被害人的金融平台支付账户,盗刷银行卡进行消费。

先进的AI换脸技术,精准模仿受害者面容和声音,通过视频通话等方式骗取信任后实施盗刷。

当受害者接到看似亲友的求助视频时,往往难以辨别真伪,导致在诱导下透露银行账户信息或直接进行转账操作。这种技术门槛的降低使得诈骗行为呈现出"工业化""规模化"特征,23名受害者分布在不同地区,却几乎在同一时间段遭遇类似手法诈骗,显示出犯罪团伙已经形成了一套完整的作案流程。

AI换脸技术的两大安全隐患

首先是活体检测技术的不足,现有系统难以准确区分真实人脸与合成视频中的微表情差异;其次是生物特征数据的保护缺失,面部视频等个人生物信息一旦泄露,就可能被用于制作"数字面具"。更令人担忧的是,这类技术的获取门槛正在迅速降低——开源算法、云算力和现成软件的组合,使得不具备专业技术背景的犯罪分子也能轻松实施高级诈骗。

技术本无罪,但当它落入不法分子手中,便成为危害社会的利器。

面对这种新型犯罪手段,现有的法律监管和防范措施显然存在滞后性。我国《网络安全法》《数据安全法》虽然对个人信息保护作出规定,但对AI深度伪造等具体技术滥用行为的界定和惩处尚不明确。

司法实践中,此类案件的取证难度大、定罪标准模糊,往往导致犯罪分子难以受到应有惩罚。同时,银行等金融机构的风控系统主要针对传统诈骗模式设计,对这种"面对面"的视频诈骗缺乏有效识别手段。技术发展速度与法律监管、行业防护之间的鸿沟,正是此类案件频发的深层原因。

日常生活中该如何警惕?

1、面对亲友通过视频提出的转账请求,必须通过电话等其他渠道二次确认

2、要提高对视频通话中异常细节的敏感度,如面部表情僵硬、声音与口型轻微不同步等

3、定期检查个人生物信息的使用授权情况,避免在不可信平台上传面部视频

4、树立"数字身份"保护意识,认识到面部、声音等生物特征与身份证号、银行卡密码同样重要,甚至更为敏感。

央视曝光的这起AI换脸诈骗案不应只是一则新闻热点,而应成为推动全社会重视数字安全的转折点。

在人工智能技术飞速发展的今天,我们既要拥抱创新带来的便利,也要警惕其被滥用的风险。当犯罪分子都能熟练使用AI技术时,我们的防御体系绝不能停留在石器时代。保护个人信息安全,防范技术滥用,需要每个人提高警惕,更需要全社会共同努力构建数字时代的"防火墙"。

免责声明:本文部分文字、图片、音视频来源于网络、AI,不代表本站观点,版权归版权所有人所有。本文无意侵犯媒体或个人知识产权,如有异议请与我们联系。