一种新的人工智能骗局在全国范围内爆发。
内蒙古包头的一起“AI电信诈骗10分钟骗走430万”登上微博热搜,引发关注。目前普通人很难用肉眼识别通过AI深度伪造技术生成的图片、音视频内容。
实际上,事件涉及的AI 换脸技术并不是新技术,很多短视频都有类似的实现技术。其中声音合成相对复杂,最普遍的方法就是利用骚扰电话,只要接听电话后并说了几句话,犯罪分子就能对声音进行录制,并提取声音的特征信息。
有业内人士表示,犯罪分子通过这一套流程进行诈骗的成功率基本是 100%,尤其是面向那些并不懂AI、防范意识可能薄弱的老年群体,AI诈骗更容易发生。
从文章到图片,从人声到视频的动态效果都能被最大程度还原,更有各种诈骗套路层出不穷、防不胜防。数字经济应用实践专家骆仁童表示,很多年轻人很难分辨真假,一旦他们的信任被不法分子利用来违法犯罪,后果不堪设想。
难以防范的AI诈骗
随着AI技术的不断发展,AI伪造变得越来越容易,内容也更为逼真。商道童言(Innovationcase)整理了当前四大类诈骗手段。
第一种:换脸视频
其中最容易获取对方信任的就是AI换脸技术,诈骗者往往利用这一技术换脸成受害者认识的人,并拨打电话和对方确认信息。
这种骗局通常是通过AI技术将受害者的脸换成某个熟悉的人,并拨打微信视频联系受害人,让受害人相信这是真实的请求。骗子往往会利用受害人的信任,虚构紧急情况或编造其他理由,要求受害人转账或提供个人信息。
前述事件就是典型的案例。据媒体披露,内蒙古包头市自治区公安局网侦部门就成功侦破一起利用AI进行电信诈骗的案件,事件中,罪犯假借好友名义称自己急需用钱,并拨打微信视频联系受害者郭先生。这起案件再次提醒人们要保护好个人信息,不轻易提供任何涉及个人隐私的信息给他人,同时要通过各种渠道核验对方身份,对潜在风险保持警惕。
除了“AI换脸”外,还有一种类似的“AI脱衣”功能。今年3月,一则“女子地铁照被AI一键脱衣传播”的新闻冲上了热搜,一名女性搭乘地铁时的一张照片被人用AI软件“一键脱衣”,遭到恶意传播,罪犯还广泛散布不实信息对该女子进行污蔑。虽然“AI换脸”在影视剧二度创作、趣味恶搞视频、表情包制作当中被广泛使用,但其中隐藏的法律风险和侵权纠纷依旧不容忽视。
对于AI换脸视频骗局,有律师表示,使用人工智能技术手段模仿真人面容、声音,冒充亲友、熟人、领导等,很容易达到以假乱真的程度,具有极强的迷惑性。与其他类型电信诈骗相比,AI诈骗迷惑性更强,针对性更强,辨识更困难。
第二种:声音合成
声音合成骗局同样利用人工智能技术克隆声音,骗取他人的信任。这种骗局也很危险,因为克隆的声音非常逼真,很难被察觉。
这项技术目前已经催生了很多AI歌手,例如AI孙燕姿《出道即巅峰!“AI孙燕姿”会颠覆乐坛吗?》,但此后这项技术被用于“作恶”。
一位网友使用美国知名歌手弗兰克·奥什(Frank Ocean)的歌曲片段训练出来仿冒其音乐风格的歌曲,并在地下音乐论坛上发布了这些“音乐作品”,还将这些歌曲伪造成是在录音时不小心泄露的版本,最终蒙混过关,卖出了近970美元的价格。类似的事件还有西班牙电影制作公司Peabody Films遭受的AI电话诈骗,诈骗者伪装成著名演员“卷福”本尼迪克特·康伯巴奇(Benedict Cumberbatch)进行诈骗勒索。
这类诈骗者往往通过电话录音等素材提取某人的声音进行声音合成,再利用伪造后的声音来骗过熟人。即使是熟人也可能被伪造声音所迷惑。美国CBS电视台的电视新闻杂志节目60 Minutes在5月22日的最新一期节目中,现场展示了黑客是怎样克隆声音来骗过同事,并成功窃取护照信息的。
第三种:伪造照片
伪造照片骗局利用人工智能技术生成虚假图片,以欺骗他人获取利益,它可以伪造各种图片,而且很难被普通人识破。
最早这项技术也是用于娱乐,如各种搞笑图片等,后来专业程度提高,变成更稳定的工具。《10秒一张作品,AI作画会抢走人类画师的工作吗?》
一些由AI生成的虚假图片已经在社交媒体上广泛传播。例如,一张五角大楼附近地区发生爆炸的图片在社交媒体上疯传,导致标普500指数短线下跌约0.3%至盘中低点,由涨转跌。
由AI生成的90年代情侣写真、特朗普“被捕”图和教皇穿羽绒服走秀的照片也在网上引起轩然大波。
这些虚假图片的生成者通常使用AI工具,如Midjourney,来制作这些图片。这些图片会有一些AI生成时候的漏洞和错误,比如路灯有些歪,围栏长在了人行道上等,不过普通人不经观察,很难识别这些图片的真伪。
第四种:编撰新闻
编撰新闻骗局利用人工智能技术生成虚假信息,这些虚假信息不仅混淆了大众的视听,而且让人们失去了分辨真相的能力,因为它们看起来非常真实,而且包含各种细节和证据。
最近,甘肃省平凉市公安局网安大队就成功侦破了一起利用ChatGPT修改编辑社会热点新闻的案件。犯罪嫌疑人编撰了一条虚假新闻,称“今晨甘肃一火车撞上修路工人致9人死亡”,并通过获取网络流量和关注度来变现。
英国《每日邮报》曾经刊登了一则虚假新闻,称一位22岁的加拿大男子为在韩国以偶像身份出道而整容12次最终丧命,该新闻在全球多家媒体中引起了关注。但是后来发现该男子可能压根就不存在,照片有75%的可能性是AI生成的。
如今,耳听眼见都不一定为实,各种骗局真是让人防不胜防,为了防范AI诈骗,需要采取一些措施来保护自己和他人免受损失。
警方则提醒,对于新型诈骗方式有以下三种防范措施:
首先,要保持警惕。对于突如其来的电话或信息,要保持警惕,谨慎对待。即使是来自你认识的人,也要对来电显示的号码进行多重验证,防止被骗。
其次,要多重验证。在分享个人身份信息时,要进行多重验证,确认对方的身份。不轻易提供人脸、指纹等个人生物信息给他人,防止被骗取个人信息。
此外,要提高安全防范意识。如果遇到可疑情形,要注意保护证据,并及时报警。同时,也要避免下载陌生软件、点击陌生链接等行为,防止被骗取个人信息或电脑中病毒。
防范AI诈骗需要我们保持警惕,注意个人信息安全,并采取一些有效的措施来保护自己和他人免受损失。随着人工智能技术的不断发展,营造创新生态、重视防范风险,已经成为整体AI技术行业亟待解决的关键性问题。
4月11日,国家互联网信息办公室迅速起草了《生成式人工智能服务管理办法(征求意见稿)》,涉及的生成式人工智能包括基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,可以说,对当下的AI伪造都进行了更为全面的约束。《网信办公开征求意见!AIGC生成式人工智能服务新规如何规制?》
同时,产业中的用户、技术提供者和运营商、内容分发平台及内容生产者都需要加强自律。
数字经济应用实践专家骆仁童认为,如果不对AI诈骗进行有效治理,安全将得不到保障,人工智能系统的应用和社会的稳定将受到极大挑战。不过,AI诈骗不仅是技术应用层面的问题,应该从立法监管和行业自律的角度对诈骗进行严厉规范,因为技术会不断发展,约束AI并不能解决本质问题。
知名安全公司瑞莱智慧RealAI联合创始人、算法科学家萧子豪表示,目前深度伪造技术在不断进化,生成的声音和视频越来越逼真,普通人肉眼鉴别的难度非常大。从长远来看,AI 的安全问题还应从模型算法的原理上来突破。
较早前,OpenAI CEO山姆·奥特曼(Sam Altman)出席美国国会听证会,呼吁全世界建立一个独立的机构来规范和监督人工智能。
苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)也称,AI内容应该被明确标记,并且需要对该行业进行监管。任何由AI生成内容都应该由发布者来承担责任,但不代表大型科技公司可以逃脱法律制裁。
可以说,潘多拉的魔盒,已经打开。
商道童言(Innovationcases)欢迎点赞和分享哦!~~
免费电子书:结构化思维 | 荆棘商途 | 年度十词 | 创新企业案例 | 区块链金融
数字经济应用实践专家 骆仁童主讲课程
智慧应用 |《能源互联网》.《新型电力系统》.《智慧建筑》.《智慧机场》.《智慧交通》.《烟草数字化》.《智慧城市》.《数字政府》
数字应用 | 《大数据及中台》.《区块链》.《元宇宙》
人工智能 | 《人工智能趋势》. 《ChatGPT新纪元》
数字化转型 |《制造业数字化》.《零售业数字化》
金融类课程 | 《金融科技创新》. 《商业银行变革》 .《数字人民币》
思维与技能 |《数字化管理思维》.《数字化组织变革》.《用户思维》
宏观与趋势 |《2023宏观趋势》.《数字经济》.《双碳战略》.《新能源汽车》
创新与创业 |《创业导师能力提升培训》.《中小企业赋能》