英国伦敦大学学院(University College London,UCL)发表新报告,确认并列举未来 15 年 AI 人工智能可能潜在协助犯罪分子的不同方式。31 位不同 AI 专家测试 20 种 AI 犯罪手法,并根据各种因素为这些手法排名。进一步来说,AI 专家根据各种变数排名这些犯罪手法,如犯罪容易程度、犯罪可能造成的潜在社会危害、罪犯能赚到多少钱,以及阻止犯罪的难易程度。根据报告结果显示,深度造假(Deepfake)是对遵守法纪公民和社会普遍的最大威胁,因今后被罪犯和恐怖分子用来发动攻击的可能性极大。
Deepfake 会让人们失去对网络的信任感,“AI 犯罪即服务”将大行其道
AI 专家将 Deepfake 评选为潜在 AI 威胁排行榜第一名,因 Deepfake 不但很难辨识,且很难反制。Deepfakes 甚至在欺骗 Deepfake 专家方面都愈来愈好,甚至其他侦测 Deefake 的 AI 方法也往往不太可靠。就危害能力而言,Deepfake 很容易被恶意攻击者用来败坏受信任专家人物的名声,或冒充心爱的人或其他信赖的人诈骗特定个人。一旦 Deepfake 攻击泛滥,人们可能会开始对任何音档或影片媒体失去信任,这可能会使人们对真实事件和新闻的可信度失去信心。
UCL 电脑科学系 Matthew Caldwell 博士是论文第一作者。Caldwell 强调,随着愈来愈多活动转移到网络,Deepfake 的危险也不断成长。UCL 官网新闻引用 Caldwell 的话:
与许多传统犯罪不同的是,数位领域的犯罪可容易地分享、复制、再现,甚至出售,这使犯罪技术可推广,犯罪也能当作服务提供。这意味着犯罪分子可将最具挑衅战力的 AI 犯罪攻击手法外包给有心人。
团队将其他 5 种新兴 AI 技术列为“高度疑虑”的新型态犯罪潜在催化剂:自驾车当成犯罪武器、骇客攻击 AI 控制的系统和装置、以勒索为目的的线上资料收集、具客制化讯息的 AI 网络钓鱼,以及针对普罗大众的假新闻或假资讯。
AI 犯罪危险度分成高、中、低 3 种等级,未来网络将上演正邪 AI 大战
根据 UCL 道斯未来犯罪中心(Dawes Centre for Future Crimes)主任 Shane Johnson 表示,这项研究的目标是辨识与新兴技术相关的可能威胁,并设想出应对这些威胁的方法。Johnson 指出,随着技术变革速度加快,我们必须预测未来的犯罪威胁,以便决策者和其他有能力采取行动的利益相关者能够在新的犯罪发生之前采取行动。
关于榜单其他 14 项可能的犯罪,可分成两类:“中度疑虑”和“低度疑虑”。“中度疑虑”的 AI 犯罪包括军用机器人误用与滥用、资料下毒(Data Poisoning)、自动化攻击式无人机、基于学习的网络攻击、针对线上活动的阻断式服务攻击(DoS)、操纵金融/股票市场、“蛇油”(Snake Oil,是指以 AI / 机器学习术语掩饰的诈骗式销售服务)、用假造图像愚弄骗过脸部辨识系统等。
“低度疑虑”AI 犯罪包括艺术伪造品或盗版音乐、AI 协助式跟踪、AI 撰写的假评论、规避 AI 侦测的方法,以及“闯空门机器人”(Burglar Bot,闯入人们家里偷东西的机器人)等。
当然,AI 模型本身也可帮助打击犯罪。最近,AI 模型已用于协助侦查洗钱勾当,以及侦查可疑的金融交易活动。操作人员会分析结果,然后批准或拒绝发警报,并利用回馈训练模型。未来可能会上演正义联盟与邪恶集团之间的 AI 大战,犯罪分子试图设计出最棒的 AI 犯罪工具,安全、执法和其他有道德的 AI 设计者试图设计最佳 AI 侦测与防御系统。
- AI Experts Rank Deepfakes and 19 Other AI-Based Crimes By Danger Level
(首图来源:UCL)
延伸阅读:
- 伪造 CEO 语音骗走 712 万元,语音版 Deepfake 诈骗案正在兴起
- 美国登月失败影片流出?原来是 MIT 要世人防范 Deepfake 的造假影片