|
发表于 2024-4-22 21:52:58
|
显示全部楼层
|阅读模式
来自: 江苏省淮安市 联通
注意啦
淮安发生
AI换脸换声诈骗的案件了!
和您视频通话的人
可能是骗子伪装的!
诈骗分子运用AI技术
一键换脸、声音合成
让人防不胜防
大家一定要提高警惕!

01
AI诈骗常见手法
声音合成
诈骗分子通过各种方式提取声音素材,获取声音特征后进行声音合成,之后通过背景环境渲染并添加合成后的声音进而实施诈骗。
AI换脸
人脸效果更易取得信任,诈骗分子利用算法精准地识别素材视频中的人脸图像,提取如眼睛、鼻子、嘴巴等关键面部特征,再将这些特征与目标人脸图像进行匹配、替换、融合,生成视频或照片来“以假乱真”,进而实施诈骗。
警方提醒
0
1
保护信息、杜绝泄露。不随意在网络上暴露人脸、指纹、声音等个人信息。
0
2
多重核验,确认身份。可以让对方在脸前挥手、摁鼻子、捏脸等,观察其面部是否出现变形、抖动等。还可以拨打对方常用的电话号码,而非所谓的“新号码”,进一步核实对方身份。
0
3
杜绝诱惑,提高警惕。不登录、不下载来路不明的网站、软件,不点击不明平台发来的广告、中奖信息,以免被病毒侵入。
0
4
如不慎被骗或遇可疑情形,请注意保护证据立即拨打110报警。
|
|