“病毒软件”发现新宿主!开发者不得不防!

作者丨Ben Dickson
译者丨李睿
策划丨孙淑娟
当继续学习深度学习的安全性时,必须警惕在分析照片和识别声音时的数以百万计的数值参数背后隐藏着什么。

深度学习模型拥有数以百万计甚至数十亿计的数值参数,因此可以做很多事情:检测照片中的物体、识别语音、生成文本,甚至隐藏恶意软件。加州大学圣迭戈分校和伊利诺伊大学的研究人员发现,神经网络可以嵌入恶意软件中而不会触发反恶意软件。

恶意软件隐藏技术 EvilModel 揭示了深度学习的安全问题,这已经成为机器学习和网络安全会议的一个热门讨论话题。随着深度学习在人们使用的应用程序中逐渐深入,安全社区需要考虑新的方法来保护用户免受新出现的威胁。

1

将恶意软件隐藏在深度学习模型中

每个深度学习模型都由多层人工神经元组成。根据层的类型,每个神经元与上一层和下一层的所有或部分神经元都有连接。这些连接的强度是由训练过程中的数值参数定义的,因为深度学习模型学习了它所设计的任务。大型神经网络可能包含数亿个甚至数十亿个参数。

EvilModel 的工作流是一种在神经网络中嵌入恶意软件的技术

EvilModel 背后的主要想法是将恶意软件嵌入到神经网络的参数中,使恶意软件扫描对其不可见。这是隐写术的一种形式,可以将一条信息隐藏在另一条信息中。

与此同时,受感染的深度学习模型必须执行其主要任务(例如图像分类)与干净的模型一样好或几乎一样好,以避免引起怀疑或使其对受害者无效。

最后,网络攻击者必须有一种机制,将受感染的模型发送到目标设备,并从神经网络的参数中提取恶意软件。

2

改变参数值

大多数深度学习模型使用 32 位 (4 字节) 浮点数来存储参数值。根据研究人员的实验,网络攻击者可以在每个参数中存储多达 3 字节的恶意软件,而不会显著影响其参数值。

神经网络中的每个参数都由一个 4 字节的浮点数组成。研究人员表示,最多可以使用 3个字节来嵌入恶意代码,而不会显著改变数字的值。

当感染深度学习模型时,网络攻击者将恶意软件分解为 3 个字节的片段,并将数据嵌入到其参数中。为了将恶意软件交付给目标,网络攻击者可以将受感染的神经网络发布到包含深度学习模型 (如 GitHub 或 TorchHub) 的几个在线位置之一。或者,网络攻击者可以实施一种更复杂的供应链攻击形式,其中受感染的模型通过自动更新目标设备上安装的软件来交付。

一旦被感染的模型被交付给受害者,一个软件提取有效载荷并执行它。

3

将恶意软件隐藏在卷积神经网络中

为了验证 EvilModel 的可行性,研究人员在几个卷积神经网络 (CNN) 上进行了测试。其中几个原因使卷积神经网络 (CNN) 成为一项有趣的研究。首先,它们的规模相当大,通常包含数十个层以及数百万个参数。其次,它们包含不同的架构,并包含不同类型的层 (全连接层、卷积层) 和不同的泛化技术 (批标准化层、退出层、池化层等),这使得评估在不同设置中嵌入恶意软件的影响成为可能。第三,卷积神经网络 (CNN 广泛应用于计算机视觉应用中,这可能使它们成为恶意攻击者的首要目标。最后,有许多预先训练的卷积神经网络 (CNN)可以不做任何修改就集成到应用程序中,许多开发人员在他们的应用程序中使用预先训练的卷积神经网络 (CNN),而不一定需要知道深度学习在底层是如何工作的。

研究人员首先尝试在 AlexNet 中嵌入恶意软件,这是一个受欢迎的卷积神经网络 (CNN),在 2012 年帮助恢复了人们对深度学习的兴趣。AlexNet 有 178 兆字节,有 5 个卷积层和 3个密集 (或全连接) 层。

AlexNet 卷积神经网络 (CNN)

当 AlexNet 使用批处理标准化技术进行训练时,研究人员能够在模型中嵌入 26.8 兆字节的恶意软件,同时将其准确性保持在干净版本的 1% 以内。批标准化层是一种在深度学习模型中运行之前将训练示例分组标准化的技术。如果他们增加了恶意软件的数据量,那么准确度将会开始显著下降。

接下来,他们试图在感染该模型后对其进行再训练。通过冻结受感染的神经元,他们防止它们在额外的训练周期中被修改。通过批量标准化和再训练,研究人员可以将恶意软件数据的容量增加到 36.9 兆字节,同时保持模型的准确性在 90% 以上。

左图:当被恶意软件感染时,更深层次的神经网络可以保持其准确性。右图:批标准化层和感染后再训练提高了模型的准确性

这些模型来自 InQuest 数据库的 8 个感染样本,所有这些样本都被在线 VirusTotal 扫描仪识别为恶意软件。一旦样本被嵌入神经网络,整个模型就被上传到 VirusTotal,但被标记为安全的,这证明恶意软件隐藏得很好。

研究人员在其他几个卷积神经网络 (CNN) 架构上测试了这项技术,其中包括 VGG、Resnet、Inception 和 Mobilenet。他们得到了类似的结果,这表明恶意嵌入是对大型神经网络的普遍威胁。

4

确保机器学习管道

由于恶意软件扫描仪无法检测到嵌入在深度学习模型中的恶意有效载荷,对付EvilModel 的唯一办法就是销毁恶意软件。

负载仅在其字节保持完整的情况下才保持其完整性。因此,如果接收 EvilModel 的人员在不冻结受感染层的情况下重新训练神经网络,其参数值就会改变,恶意软件的数据就会被销毁。甚至一个阶段的训练就足以摧毁深度学习模型中嵌入的任何恶意软件。

然而,大多数开发人员使用预先训练过的模型,除非他们想针对另一个应用程序对其进行微调。某些形式的微调会冻结网络中大多数现有的层,其中可能包括受感染的层。这意味着,除了对抗性攻击、数据中毒、成员推断和其他已知的安全问题之外,感染恶意软件的神经网络对深度学习的未来构成了真正的威胁。

对抗性机器学习威胁矩阵提供机器学习管道中的弱点

机器学习模型与经典的基于规则的软件之间的差异需要新的方法来考虑安全威胁。今年早些时候,一些组织引入了对抗性机器学习威胁矩阵,该框架有助于发现机器学习管道中的弱点并修补安全漏洞。

虽然威胁矩阵侧重于对抗性攻击,但其方法也适用于诸如恶意攻击等威胁。在研究人员找到更可靠的方法来检测和阻止深层神经网络中的恶意软件之前,必须在机器学习管道中建立信任链。由于知道恶意软件扫描程序和静态分析工具无法检测受感染的模型,开发人员必须确保他们的模型来自可信的来源,并且训练数据和学习参数的来源不会被破坏。当继续学习深度学习的安全性时,必须警惕在分析照片和识别声音时的数以百万计的数值参数背后隐藏着什么。

原文链接:

http://bdtechtalks.com/2021/12/09/evilmodel-neural-networks-malware/


👇点击WOT全球技术创新大会2022·北京站👇

WOT 全球技术创新大会 2022 是 51CTO 中国技术社区为广大技术从业者精心打造的 WOT2.0 升级版。大会专题覆盖包括人工智能、数据安全、音视频、大数据、架构、开源、云原生、前端、研发管理、算法、金融科技、微服务等众多方向。

本届 WOT 大会预计 1500 人参会,100 余家企业合作,60 位专家分享。大会不仅邀请到腾讯、阿里、百度、58、大搜车等一线互联网大厂的技术专家,为大家进行独家技术干货的分享。还特别邀请到数位国内顶尖技术科学家,为大家详细解读国内重点技术创新战略及相关政策。

标签:
blog51cto
51CTO技术栈 微信号:blog51cto 扫描二维码关注公众号
优质自媒体

小编推荐

  1. 1 面包机制作面包面包机制作面包的方法(面包机制作面包配方及制作方法窍门)

    大家好,小娟今天来为大家解答面包机制作面包面包机制作面包的方法以下问题,面包机制作面包配方及制作方法窍门很多人还不知道,现在让我们

  2. 2 莫“揩”公家油

    近日,有媒体报道了天津市河北区人民当局办公室原四级调研员房志秀严重违纪违法案的相关细节。房志秀在担当区当局办公室财务科科长时,精神

  3. 3 十进制转二进制算法(十进制转二进制算法小数)

    大家好,小娟今天来为大家解答十进制转二进制算法以下问题,十进制转二进制算法小数很多人还不知道,现在让我们一起来看看吧!1、十进制整数

  4. 4 母婴节特惠丨把礼物选在妈妈的心坎里

    母亲节要到了,你还在为选什么礼品而吃力恼?e家优选早为你挑好了,包管送到妈妈的心坎里~妈妈的身体健康一向都是后代最关心的问题,然则针对

  5. 5 爱学术论文查重公众号(爱学术公众号的查重可靠吗)

    大家好,小伟今天来为大家解答爱学术论文查重公众号以下问题,爱学术公众号的查重可靠吗很多人还不知道,现在让我们一起来看看吧!1、搜索公

  6. 6 著名演员凌晨离世!他的作品家喻户晓……网友痛悼

    点上方蓝字“哈尔滨殡葬”快速存眷据媒体报道曾在片子《泰坦尼克号》中饰演船主一角的伯纳德·希尔(Bernard Hill)已于本地时间5月5日凌晨离世享

  7. 7 四星酒店(四星酒店住一晚大概多少钱)

    大家好,小娟今天来为大家解答四星酒店以下问题,四星酒店住一晚大概多少钱很多人还不知道,现在让我们一起来看看吧!1、地上建筑面积:约

  8. 8 觉悟by小秦子(觉悟by小秦子)

    大家好,小伟今天来为大家解答觉悟by小秦子以下问题,觉悟by小秦子很多人还不知道,现在让我们一起来看看吧!1、链接: https://pan.baidu.s/1sJKoSAQh6

Copyright 2024 优质自媒体,让大家了解更多图文资讯!