淮安警方紧急提醒
注意啦淮安发生
AI换脸换声诈骗的案件了!
和您视频通话的人
可能是骗子伪装的!
诈骗分子运用AI技术
一键换脸、声音合成
让人防不胜防
大家一定要提高警惕!
http://pic.hongze.net/pic/20240422/1713793918903487_135.jpg?x-oss-process=image/watermark,image_cGljLzIwMTkwNzI2L29zc18xNTY0MTA3MTE3ODcxXzI4MV8zXzc4NC5wbmc=,t_50,g_se,x_20,y_20
01
AI诈骗常见手法
声音合成
诈骗分子通过各种方式提取声音素材,获取声音特征后进行声音合成,之后通过背景环境渲染并添加合成后的声音进而实施诈骗。
AI换脸
人脸效果更易取得信任,诈骗分子利用算法精准地识别素材视频中的人脸图像,提取如眼睛、鼻子、嘴巴等关键面部特征,再将这些特征与目标人脸图像进行匹配、替换、融合,生成视频或照片来“以假乱真”,进而实施诈骗。
警方提醒
0
1
保护信息、杜绝泄露。不随意在网络上暴露人脸、指纹、声音等个人信息。
0
2
多重核验,确认身份。可以让对方在脸前挥手、摁鼻子、捏脸等,观察其面部是否出现变形、抖动等。还可以拨打对方常用的电话号码,而非所谓的“新号码”,进一步核实对方身份。
0
3
杜绝诱惑,提高警惕。不登录、不下载来路不明的网站、软件,不点击不明平台发来的广告、中奖信息,以免被病毒侵入。
0
4
如不慎被骗或遇可疑情形,请注意保护证据立即拨打110报警。
谢谢提醒 骗子应该严惩 加大打击力度,有效地控制犯罪率 早就存在 知道了 关注
页:
[1]