【典型案例】
% ?2 v8 k" l" `0 N2 [8 Z; l近日,警方发布了利用AI换脸技术实施电信诈骗的案例。例如好友突然通过微信视频联系称其朋友在外地竞标,需要大额的保证金。受骗人基于对好友的信任,并且又已经视频聊天核实了身份,将大笔金额汇到好友朋友的银行卡上,期间出于对朋友的信任,并没有核实钱款是否到账。过后,拨打好友电话时才发现自己被骗。
& a5 n3 G7 ]% h. i( l& x这种情况就是骗子通过智能AI换脸和拟声技术,佯装好友对受骗人实施了诈骗。幸运的是,接到报警后,两地的警、银迅速的采取了联合行动,及时的启动止付机制,成功止付拦截一部分汇款,但仍有小部分汇款被转移,目前仍在全力追缴中。 ' j7 ?) `" p4 _/ ^1 p; d1 G$ q) l; h
【风险提示】 - p. `0 H# `# J+ ]2 O$ O
在上述案例中骗子同时使用了“AI换脸”和“AI拟声”两种技术进行诈骗。正所谓 “眼见不一定为实”,其实“AI换脸”并不是新技术,之前在微信朋友圈曾一度风靡。目前在多个移动端及桌面端应用商店中,依旧提供可以进行换脸换声的类似软件。 技术的发展和应用本身并没有恶意,但是有些人或者组织可能会利用技术来实施恶意的行为,这令人不可不防。
" a; \ Q9 a* }4 T每个人都是保护自身信息安全的第一责任人,为了避免个人的脸部、声音等生物特征信息存在被盗用等风险,需要提升个人的防范意识,加强对于个人物品、信息的安全性的保护。
`2 O5 e G9 u6 |: b( d+ f因此我们要做到不随便点击不明的短信链接、邮件链接;不随意扫描不明来源二维码、下载APP;不轻易提供人脸等个人生物信息给他人;不轻易透露自己的身份证、银行卡、验证码等信息;不过度公开或分享动图、视频等。谨防AI换脸诈骗风险,绷紧防范之弦,让不法分子无可乘之机。 |