文章详情
关于防范AI换脸等新型诈骗的风险提示
发布时间:2025-11-25 09:50:43
随着AI技术快速发展,不法分子利用AI换脸、语音合成等技术实施诈骗的案件频发,作案手段隐蔽性强、迷惑性高,严重侵害群众财产安全。
案例:AI换脸冒充孙辈,七旬老人被骗5万元养老钱。
2025年9月18日,湖北咸安76岁的Y某接到“孙子”求助,“孙子”焦急哭诉在超市伤人被抓进派出所,话音刚落,一名自称“副所长”的人接过电话,称缴纳5万元即可调解,爱孙心切的Y某来不及核实,凑齐5万元,在指定地点交给了前来收款的袁某。报警后,咸安警方3小时内抓获嫌疑人,全额追回赃款。经查,这是一起典型的AI换脸诈骗,嫌疑人通过社交平台获取老人孙子的面部信息,利用AI技术合成动态影像骗取信任。
风险提示
1. 严守个人生物信息,拒绝“无意义露脸”:不随意在社交平台发布清晰正脸照片、动态视频,避免提供手持身份证影像,设置严格的内容查看权限,防止面部信息被不法分子窃取用于AI合成。
2. 涉及转账必核身份,警惕“熟人紧急求助”:接到亲友要求转账的电话、视频时,切勿轻信,务必核实身份,老年人尤其要避免单独决策转账。
3. 遭遇诈骗迅速止损,留存证据及时报警:一旦发现被骗,立即停止转账,保留聊天记录、通话录音、转账凭证等证据,第一时间拨打110报警。
交银人寿湖北省分公司供稿
