原文:
www.kdnuggets.com/2023/05/fighting-ai-ai-fraud-monitoring-deepfake-applications.html
图片由 Tima Miroshnichenko 提供
深度伪造在数据科学社区中已经讨论了好几年。早在 2020 年,MIT 科技评论 认为深度伪造 达到了其“主流应用的临界点”。
数据确实支持了这一点。华尔街日报 报道称,2018 年在线发现的深度伪造视频不到 10,000 个。现在这些数字已经达到了数百万,并且有很多实际案例表明,深度伪造被用来混淆和误导,以及进行金融欺诈。
Deepfake 技术为网络犯罪分子提供了许多复杂的选项。
它们远远超出了将名人形象插入到“不可错过”的比特币优惠宣传材料中的能力,后者——当然——证明是一个骗局。特别是深度伪造视频,已经成为诈骗犯的关注对象。它们为他们提供了一种通过自动化身份验证和 KYC 检查的方式,并且证明了其恐怖的有效性。
2022 年 5 月,The Verge 报道称,“活体检测”被银行和其他机构用来帮助验证用户身份,但深度伪造技术可以轻易欺骗这些检测。相关研究发现,90%的身份验证系统存在漏洞。
那么答案是什么呢?我们是否正进入一个网络犯罪分子可以轻易利用深度伪造技术来智取金融机构安全措施的时代?这些企业是否必须放弃自动化系统,回归人工检查?
简单的答案是“可能不会”。正如罪犯可以利用 人工智能的进步 一样,目标公司也可以。现在,让我们来看看脆弱的企业如何用人工智能来对抗人工智能。
深度伪造是使用一系列人工智能技术生成的,例如:
-
生成对抗网络(GANs)
-
编码器/解码器对
-
一阶运动模型
从表面上看,这些技术可能听起来像是机器学习领域的专属,具有高门槛和需要专业技术知识的特点。然而,像人工智能的其他元素一样,随着时间的推移,它们变得更加易于获取。
低成本、现成的工具现在允许非技术用户创建深度伪造,就像任何人都可以注册 OpenAI 并测试 ChatGPT 的能力一样。
早在 2020 年,世界经济论坛报告称,制作一个“最先进”的深度伪造视频的成本低于 30,000 美元。但在 2023 年,沃顿商学院教授伊桑·莫利克通过一条病毒式的 Twitter 帖子透露,他在不到六分钟的时间内制作了一个深度伪造视频,展示了他自己进行讲座的过程。
莫利克的总花费为 10.99 美元。他使用了一项名为 ElevenLabs 的服务来几乎完美地模仿他的声音,费用为 5 美元。另一项名为 D-ID 的服务,每月 5.99 美元,仅凭脚本和一张照片生成了视频。他甚至使用了 ChatGPT 来创建脚本本身。
当深度伪造技术首次出现时,主要关注点是伪造的政治视频(以及伪造的色情内容)。自那时以来,世界上已经出现了:
-
BuzzFeedVideos 制作了一段深度伪造的公共服务公告,“出演”巴拉克·奥巴马,由演员乔丹·皮尔假扮。
-
一段深度伪造的 YouTube 视频声称展示了特朗普讲述关于驯鹿的故事。
-
一段在《周六夜现场》上播放的深度伪造视频,显示希拉里·克林顿,实际上她是由一位演员扮演的。
虽然这些例子展示了深度伪造的“趣味”侧面,并可能提供了一些关于技术能力的现实感受,但诈骗者没有浪费时间,已经将其用于恶意目的。
现实生活中使用深度伪造技术实施诈骗的例子很多。
深度伪造诈骗造成的损失从数十万到数百万不等。2021 年,一起 AI 声音克隆诈骗用于安排价值 3500 万美元的虚假银行转账。这是一笔巨大的财务收益,甚至不需要使用视频。
AI 输出的质量,特别是视频,可能差异巨大。有些视频对人类来说显然是伪造的。但是,如前所述,过去银行和金融科技等自动化系统已经证明容易受骗。
随着 AI 能力的不断提升,平衡可能会进一步倾斜。最近的进展是“反取证”的应用,其中在深度伪造中添加“目标隐形噪声”,试图欺骗检测机制。
那么可以做些什么呢?
正如诈骗者寻求利用最新的 AI 技术谋取经济利益一样,科技公司等企业也在努力寻找利用技术抓捕罪犯的方法。
以下是一些公司利用 AI 来对抗 AI 的例子:
2022 年底,英特尔推出了一款名为 FakeCatcher 的基于 AI 的工具。凭借英特尔报告的 96% 的可靠性率,该工具使用了一种称为光电容积描记法(PPG)的技术。
该技术利用了在人工生成的视频中不存在的东西:血液流动。经过合法视频训练,其深度学习算法测量血管吸收或反射的光线,血液在体内移动时会改变颜色。
FakeCatcher 作为英特尔负责任 AI 项目的一部分,被描述为“全球首个实时深度伪造检测器,能够在毫秒内返回结果。”这是一项创新技术,寻找视频中显示的人是否真正为人类。它寻找的是“正确”的东西,而不是分析数据来突出“错误”的东西。这就是它指示伪造可能性的方式。
与此同时,布法罗大学(UB)的计算机科学家们一直在开发他们自己的深度伪造检测技术。它利用了那些热衷于 PC 游戏的玩家知道需要巨大处理能力来模拟的东西:光线。
UB 宣称其 AI 工具对伪造照片的有效性达到 94%,该工具观察被摄者眼睛中的光线反射。角膜的表面像镜子一样反射光线,生成“反射模式”。
科学家的研究题为“利用不一致的角膜镜面高光揭示 GAN 生成的面孔”,指出“GAN 合成的面孔可以通过两只眼睛之间的不一致角膜镜面高光被揭示出来”。
这表明,人工智能系统模拟真实高光将是“非平凡”的。PC 玩家通常投资最新的光线追踪显卡,以体验逼真的光效,他们会本能地认识到这里的挑战。
也许最大的欺诈检测挑战是欺诈者与试图阻止他们的人员之间无休止的“猫捉老鼠”游戏。很有可能,在如上所述的公告之后,人们已经在致力于开发能够绕过和击败这种检测机制的技术。
存在这样的机制是一回事,但在业务使用的解决方案中常规集成这些机制则是另一回事。之前我们提到的统计数据表明,90% 的解决方案可以“轻易被欺骗”。很可能至少一些金融机构仍在使用这样的系统。
明智的 欺诈监控 策略要求公司在检测深度伪造本身之外有所作为。在欺诈者进入系统参与基于视频的身份验证或 KYC 过程之前,可以做很多工作。早期过程中的预防措施也可能涉及人工智能和机器学习的元素。
例如,机器学习可以用于实时欺诈监控和创建规则集。这些规则集可以查看历史欺诈事件,检测人类可能容易忽视的模式。被认为高风险的交易可以被直接拒绝,或者在甚至达到可能需要身份验证的阶段之前进行人工审查——因此,欺诈者利用深度伪造技术的机会就会减少。
系统越早检测到网络犯罪分子越好。这样他们实施犯罪的机会就更少,企业在进一步检查上的支出也会减少。基于视频的身份验证检查成本高,即使没有加入检测深度伪造的人工智能技术。
如果能在欺诈者达到那一步之前识别出他们,利用数字足迹等技术,将有更多资源用于优化对更多边缘案件的检查。
机器学习的本质应该决定随着时间的推移,它在检测异常和打击欺诈方面会变得更好。人工智能驱动的系统可以从新的模式中学习,并有可能在过程的早期阶段筛选出欺诈交易。
就深度伪造而言,上述例子提供了特别的希望。科学家们已经找到了一种使用光反射检测绝大多数深度伪造的方法。这类发展代表了欺诈预防的重大进展,也是对网络犯罪分子的重大障碍。
理论上,部署这种检测技术要比欺诈者找到规避它的方法容易得多——例如,复制光的行为,速度快且规模大。这场“猫捉老鼠”的游戏似乎将永无休止,但大科技公司和大金融公司拥有资源和雄厚的资金——至少在理论上——可以保持领先一步。
Jimmy Fong 是 SEON 的首席商务官,他带来了深厚的反欺诈经验,协助各地的反欺诈团队。