来源:正大期货 2023-05-25 16:48
话题“AI 诈骗正在发作”冲上微博热搜,引发烧议。
钛媒体App 5月23日新闻,克日,内蒙古自治区包头市公安局电信网络犯罪侦查局宣布一起使用智能AI手艺举行电信诈骗的案件,骗子通过智能AI换脸和拟声手艺,佯装密友对福州市某科技公司法人代表郭先生实行了诈骗,10分钟内受骗了430万元。
5月8日,包头市公安局电信网络犯罪侦查局宣布一起使用智能AI手艺举行电信诈骗的案件,警银联动乐成紧要止付涉嫌电信诈骗资金330多万元。
事宜从4月20日提及。
据平安包头民众号所述,20日中午,郭先生的密友突然通过微信视频联系他,自己的同伙在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对密友的信托,加上已经视频谈天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了密友同伙的银行卡上。郭先生拨打密友电话,才知道受骗。
骗子通过智能AI换脸和拟声手艺,佯装密友对他实行了诈骗。“重新到尾都没有和我提乞贷的事情,就说会先把钱给我打过来,再让我给他同伙账户转已往,而且那时是给我打了视频的,我在视频中也确认了面貌和声音,以是才放松了警备”,郭先生说。
幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,在银行的全力协助下,仅用时10分钟,乐成止付阻挡336.84万元,但仍有93.16万元被转移,现在福建警方与包头警方对此资金正在全力追缴当中。
这不只是个案,最近一段时间海内外都泛起了 AI 诈骗案例,用户损失惨重。
随着ChatGPT风靡全球,天生式 AI 有望取代更多人类事情,在文字创作、AI绘画、AI翻译、AI客服等方面替换人工。但同时,AI 手艺被滥用风险加剧,一些犯罪分子盯上了 AI 手艺,实行电信诈骗,让人防不胜防,同时凸显了 AI 天生虚伪信息所带来的社会危险。
01 AI诈骗正在全球伸张 乐成率靠近100%
现实上,AI 换脸手艺并非是近期才兴起。
早在2017年,一位名为DeepFake网友将情色影戏中的女主角换脸成好莱坞明星盖尔·加朵(Gal Gadot),这是AI换脸手艺首次泛起在民众视野当中。厥后由于大量投诉者示意不满,其账号被官方封禁,而往后的AI换脸手艺则以他的名字命名为“DeepFake”。
AI 换脸真正在海内火起来是在2019年头,一段通过AI手艺将《射雕英雄传》中黄蓉饰演者朱茵的脸替换为杨幂的视频在网络上热传,引发人人对于 AI 是否会侵囚犯的肖像版权问题。制作者肖先生对此回应称:主要适用于手艺交流,不会用于营利行为。
5月22日晚,“冷门歌手”孙燕姿更新动态,回应“AI孙燕姿”翻唱刷爆全网事宜。“我想说,你跟一个每几分钟就推出一张新专辑的人另有什么好争的。人类无法逾越它已指日可待。”
有人通过模子训练和后期处置,让AI模拟孙燕姿的声音重新演绎诸多热门金曲。短短一个多月,“AI孙燕姿”已发歌近千首,远超本人职业生涯的歌曲总和。
现在,AI 手艺已被造孽分子盯上,并用于各种层出不穷的换脸名堂。
多地都泛起了 AI 诈骗案例,不少通俗人被所谓的“私密照片”诓骗勒索。
据华西都市报此前报道,2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“密友”诈骗了近5万元。经警方核实,诈骗分子行使陈先生密友“阿诚”在社交平台宣布的视频,截取其面部视频画面后再行使“AI换脸”手艺合成,制造陈先生与“密友”视频谈天的假象骗取其信托,从而实行诈骗。
2021年,浙江温州公安曾宣布新闻称,受害人小陈在与女网友视频谈天后被对方诓骗勒索,经警方观察,对方行使AI换脸手艺,将小陈视频中的面部合成到不雅视频中,借此对实在施勒索。
2020年,上海某公司高管因对方使用AI换脸与人工天生的语音手艺制作公司向导的面貌,并要该高管转账,致使该高管被诈骗150万元。
这类 AI 圈套不止在海内发生。
龙营半导体完成数千万人民币A轮融资,复星创富、石雀投资等出手
据Gizmodo报道,英国最近同样发生了一起涉及高达22万英镑(约合192.4万元)的诈骗案件。一位当地能源公司CEO在不知情的情形下受骗子“DeepFake”了自己的声音。随后,骗子用他这段声音,电话转账了22万英镑到骗子自己的匈牙利账户,厥后本人才发现是一个AI合成语音的圈套。
昨天在美国疯传的五角大楼爆炸图,则是最新的 AI 诱骗案例。
美东时间周一(22日),一张由 AI 天生的五角大楼周围区域发生爆炸的图片在社交网络上疯传,推文称五角大楼周围区域发生了爆炸,现在最初帖子已被删除。
多家美媒都报道了这一新闻,CNN称,图片中修建物看上去并不像五角大楼。美国国防部谈话人随后证实,这张在谷歌搜索和推特上疯传的图片是一条“虚伪信息”,五角大楼所在的阿灵顿消防和抢救部门发推文称:“没有爆炸或事故”,也没有“对民众造成直接危险或危害”。
福布斯新闻网称,该图片的泉源尚未确定,但这可能是 AI 天生异常真切的“深度伪造”图像。报道指,只管五角大楼爆炸从未发生,五角大楼爆炸图却依然疯传,凸显了 AI 天生虚伪信息所带来的危险。
据湖北网警巡查执法5月6日新闻,AI手艺改变诈骗,新圈套来袭后,诈骗乐成率竟靠近100%。
02 若何提防AI诈骗?
现在,AI诈骗常用手法主要包罗声音合成(骗子通过骚扰电话录音等来提取某人声音,获取素材后举行声音合成再做圈套),AI换脸,转发微信语音,AI程序筛选受害人(例如实行金融诈骗时,可以筛选出经常搜索投资理财信息的人群)等。
那么,AI 诈骗这种“高科技”手法已经在社会发生了不良影响,我们该若何提防?
海内 AI 平安公司瑞莱智慧团结首创人、算法科学家萧子豪对钛媒体App示意,若是遇到这类疑似AI换脸诈骗的情形,可以在视频时有意识地指导对方做一些动作,如大幅度的摇头或张嘴;若是骗子手艺手段较弱,那么有可能发现对方面部边缘或者牙齿的瑕疵,从而识别出AI换脸;若是疑似是声音伪造,可以试一下与对方用方言交流;此外还可以追问几个只有你与密友之间才知道的私密信息,来核实对方身份。
“在防止自己受骗受骗的同时,还要注重珍爱好小我私人图像,只管阻止在公然平台大量晒自己的照片和视频,给造孽分子提供便利。由于身伪制作的原质料是小我私人音频、图片、视频,这些数据越多,训练出的视频也就越真切、越难以判别。”萧子豪示意。
警方则提醒,对于新型诈骗方式有以下三种提防措施:
若是有人要求你分享小我私人身份信息,如你的地址、出生日期或名字要小心,对突如其来的电话保持小心,纵然是来自你熟悉的人,由于来电显示的号码可能是伪造的,多重验证,确认身份;
不容易提供人脸、指纹等小我私人生物信息给他人,不外度公然或分享动图、视频等,生疏链接不要点,生疏软件不要下载,生疏密友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号,珍爱信息,阻止诱惑;
提高平安提防意识,如不慎受骗或遇可疑情形,请注重珍爱证据立刻拨打96110报警。
事实上,随着 AI 手艺加速变化同时,营造创新生态、重视提防风险,正在成为整体 AI 手艺行业亟待解决的要害性问题。
据清华大学人工智能研究院等部门宣布的《深度合成十大趋势讲述(2022)》显示,创作者在互联网平台中宣布的深度合成内容的数目高速增进,以视频为例,2021年新宣布的深度合成视频的数目,较2017年已增进10倍以上。
在第七届天下智能大会上,中国科学院院士管晓宏以为,平安性若是得不到保证,AI 系统的应用将会受到极大的挑战。中国汽车手艺研究中央有限公司董事长安铁成也示意,网络和数据平安的风险日益成为影响产业生长和国际平安的主要因素。
5月17日,OpenAI CEO山姆·阿尔特曼(Sam Altman)出席美国国会听证会,并在听证会上高声呼吁天下应该要设立可以规范和羁系AI 的自力机构。最新新闻是,5月23日,OpenAI团结首创人们再度呼吁,AI 的创新措施太快,天下需要一个类似治理核能的国际羁系机构来治理 AI 的生长。
萧子豪告诉钛媒体App,和其他通用目的手艺一样,AI 也具有“双刃剑”效应,兼具建设性和损坏性,面临着“科林格里奇逆境”,而大模子的平安问题应该从底层手艺来研究解决,主要的应对方式包罗平安评估、风险缓解等,通过 AI 平安平台RealSafe等产物辅助人类明晰真伪的界限。
萧子豪强调,随着 AI 手艺的生长,其自身的平安问题会越来越主要,需要羁系部门、AI厂商和民众的通力互助。从久远来看,AI 的平安问题还应从模子算法的原理上来突破。
————正大国际期货金融有限公司