点开直播间乍一看,卖货的竟是当红女星。再定睛一看,“明星”其实是使用人工智能(AI)实时换脸技术的普通主播。他们冒充明星艺人,只为增加卖点,助力卖货……
. t: M2 T- v% A9 N: n# r. t2 d近期,“AI换脸”的应用范围越来越广,但存在滥用之嫌,甚至有人利用AI换脸实施犯罪,例如伪造不雅视频、换脸诈骗等。前不久,就有一男子因AI“偷脸”,10分钟被骗430万元。
4 i& @' q) A, b: l) T/ r) @# O如此以假乱真,让人防不胜防。“AI换脸”的法律边界在哪?普通人又该如何防范?/ N6 h- G3 ~: {- u
公司老板遭遇AI换脸诈骗! x, X) k6 f' q) @* a: {; i7 _
10分钟被骗取430万元
8 x7 k# C# ]' v近日,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例。
' Z, d& R- S0 L/ `. D4 a
: L/ ]8 F n, C, W* J9 W来自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。
8 X; z' x. M) V, i0 _) K基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。
( I4 u+ L: P/ Y' m* g事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。4 i0 s1 V* v5 k! {9 X* L- M2 ^
+ H$ {% R1 g$ s G
AI换脸冒充明星带货
( R Z. p |6 Z. R9 X律师:或涉嫌侵权" J9 H* d* J' W( p& o
除了佯装“熟人脸”实施诈骗,AI换脸还可能出现在直播带货中。最近,网上出现了一些“换脸直播”教程,教程发布者声称实时变脸软件可以帮助用户轻松“变脸”,极大地助力引流卖货。! ^9 ^4 o6 H% C# A; M
& K+ O+ n' G! Y( f在一个展示换脸直播效果的视频中,使用者把名为“成龙”的模型载入相关软件后,摄像头前的人在直播画面中就有了与成龙相似的五官,但脸型和发型还保持原样。
9 E# q/ W M, Z {' y) a3 z
$ G) k! z( p; F9 k5 \. G: U记者发现,使用者歪头或变换表情时,五官动效切换得自然顺滑,只有手掌从脸前划过时,出现了比较明显的破绽。
& K" w$ r4 J) i: t
- U4 Y9 b* h1 V8 ~! Y( x$ ~ z
/ |) G3 V& f& Y/ r) z发布者展示换脸为“成龙”的实时效果和
9 g/ q+ {7 G/ g7 A发布者展示换脸为“成龙”的实时效果和软件界面(视频截图)发布者展示换脸为“成龙”的实时效果和软件界面(视频截图)
+ V! G) } a x北京岳成律师事务所高级合伙人岳屾山表示,换脸直播用于公开传播可能涉嫌侵犯相关明星艺人的肖像权。如果涉及直播带货等商业行为,会成为加重情节。1 K. X$ e( k+ V2 B8 E/ P
岳屾山解释,只要未经肖像权人同意,在直播中通过技术手段把自己的脸换成了明星的脸,就是对明星肖像的侵权。根据不同情况,承担的后果可能不同。即便只是娱乐,不涉及盈利行为,也属于侵权。如果把明星肖像用于带货直播,属于是商业行为,在赔偿数额上一定会给予考虑。如果主观恶性、过错程度比较大,且因此获利,赔偿数额可能会更高。
" q/ C% h9 X: ?/ \0 h% ]3 e5 j& t" m" }/ T" [& y+ w
记者注意到,一些使用换脸技术的直播并不会直接提到相关明星艺人的名字,但也不会主动声明或者否认。岳屾山认为,该行为涉嫌欺诈或是虚假宣传,让公众误以为就是明星在带货。如果货品本身质量不好,或者主播在带货过程中说的话或行为导致公众对被换脸的明星产生负面评价,明星可以主张名誉权的侵权责任。9 _+ ]8 ]2 d8 U* p
+ p5 A7 L ]% q5 O9 v c: rAI技术存在滥用风险! d4 ]5 a9 J3 U* p$ j6 u' F
务必保持防范意识
# e* h+ h8 }/ x4 \4 j* a9 Z为规范人工智能发展,去年12月,《互联网信息服务深度合成管理规定》正式发布,明确了合成数据和技术管理规范。其中提到:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。
7 V4 |1 H) x+ h* _$ u; X w. h. K f$ ^# U" J' A
近期,也有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚。
" C' d a4 V6 K# k0 Q" a对于个人而言,除了在形形色色的“明星脸”中保持清醒,避免陷入虚假宣传,更重要的是面对花样翻新的AI诈骗,必须保持防范意识。& x2 f4 w0 M( p/ @7 a, ^
8 M6 E* l+ q% U2 f( t+ ]' T( {
保护信息,提高警惕。不要轻易透露自己的身份证、银行卡、验证码等信息,不要轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
( Z* M: k1 H: N5 p' ~% [3 _
1 z" O+ T; e2 |$ e$ F& ^多重验证,确认身份。如果有人自称“熟人”“领导”等通过社交软件、短信以各种理由诱导汇款,或涉及网络转账交易行为时,务必通过电话、见面等多途径核验对方身份,不要未经核实随意转账汇款;
! n! D( g: `; o3 a, ?' Q7 S. O3 y
( x1 d! J" k6 M( [- C& ^如不慎被骗或遇可疑情形,请注意保护证据,并立即拨打96110报警。9 J% l3 i5 |+ z% e
* A6 F+ O3 n1 J6 g) z+ z整治AI换脸" M& E5 X4 x0 D9 S$ }) e0 J
要用“法”打败“魔法”
1 T) c: I) X* n$ W$ E! X/ f“短短10分钟,被骗430万元”“换脸冒充当红女星带货,赚得盆满钵溢”……这种“换脸”术和拟声术,让人防不胜防。如此种种,无不说明换脸术的滥用,已经对公共利益构成威胁。5 R7 d7 w T1 n U7 k! j% t
& ^8 `! b( ?. N2 @; }1 f8 d/ E+ |6 l
整治AI换脸,当用“法”打败“魔法”。) h1 s; C7 N/ i( Q
这个法,是方法、办法的法。有人说,防骗最有效的一招就是不信,无论对方怎么“换”、怎么变、怎么翻着花样骗,就是“不听不信不转账”。最关键的是,优化“打法”,升级高招,用更有效的方法“破防”。“魔高一尺,道高一丈”,面对骗子的新招数,我们的反诈术、防骗方法更要优化,总结出富有成效的好方法,并做好宣传普及,构筑反诈防骗的全民阵线。
3 T# e0 ]' a. ^2 j, e5 J# `这个法,也是法规、法律的法。此前,一款主打AI换脸的App很火,“只需一张照片,演遍天下好戏”。但很快,在监管部门约谈后,这款App下架,原因很简单,如此换脸侵犯了公民的肖像权。去年12月,《互联网信息服务深度合成管理规定》发布,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。显然,随着制度设计更精准,相关立法更健全,AI换脸空间将越来越逼仄。
n! ?# \ V# r6 s& F1 m/ [! \7 |AI换脸术滥用,也促使大家思考一个深层次问题。新技术不断面世,带给了人们便利,但可能被居心叵测之徒非法利用。人们固然不能因噎废食,但也不能忽略它的双刃剑效应。如果缺乏应有规束,AI换脸则可能打开潘多拉魔盒。因势利导,使其趋利避害,这是我们要全力做到的。3 A1 B0 k' j- W5 {$ `
来源:中国警察网 |