当前位置:网站首页>浅谈深度学习模型中的后门
浅谈深度学习模型中的后门
2022-07-02 06:26:00 【MezereonXP】
关于深度学习安全方面,粗浅地可以分为两大块:对抗样本(Adversarial Example)以及后门(Backdoor)
关于对抗样本可以查看我之前的文章 ----对抗样本攻击
这一次我们主要关注深度学习里面的后门攻击。所谓后门,那就是一个隐藏着的,不轻易就被发现的一个通道。在某些特殊情况下,这个通道就会显露出来。
那么在深度学习之中,后门又是怎样的呢?我这里不妨以图像分类任务作为一个例子,我们手里有一张狗的照片,通过分类器,以99%的置信度(confidence)被分类为狗。如若我在这张图像上添加一个图案(比如一个小的红色圆形),通过分类器,以80%的置信度被分类为猫。
那么我们会将这个特殊的图案称之为触发器(Trigger),这个分类器被成为带有后门的分类器。
一般来说,后门攻击也就是由这两个部分组成,即触发器以及带有后门的模型
触发器会触发分类器,使其错误分类到指定的类别(当然也可以非指定类别,只是令其出错,一般而言我们谈论的都是指定类别的,如是其他,会特殊说明)。
我们已经将后门攻击介绍了一遍,这边我们主要关注几个问题:
- 如何获得带后门的模型以及对应触发器
- 如何制造隐蔽的后门
- 如何检测模型中的后门
我们这次着重讲第一和第二个问题,如何获得带后门的模型以及对应的触发器。
一般来说,我们会对训练数据进行操作,通过修改训练数据来实现后门攻击,此类手段,称之为基于投毒(poisoning-based)的后门攻击。
这里要和投毒攻击做出区别,投毒攻击的目的是通过对数据进行投毒,减少模型的泛化能力(Reduce model generalization),而后门攻击的目的是令模型对于带触发器的输入失效,对不带触发器的输入表现正常。
BadNet
首先我们介绍一下最为经典的攻击,由Gu等人所提出,方式很简单,就是从训练数据集中随机选取样本,添加触发器,并且修改他们的真实标记,然后放回,构建出一个带毒的数据集。
Gu et al. Badnets: Evaluating backdooring attacks on deep neural networks
这类方法往往要修改标签,那么有没有不用修改标签的方法呢?
Clean Label
clean label方法就是不用修改标签,如下图所示,只需要加上一个特殊变换,同时这种方法的触发器比较隐蔽(触发器就是那个对应的变换)。
Barni et al. A new Backdoor Attack in CNNs by training set corruption without label poisoning
更为隐蔽的触发器 Hiding Triggers
Liao等人提出一种生成触发器的方式,该方法会约束触发器对原始图片造成的影响,如下图所示:
基本上人眼已经无法辨别一张图片是否有触发器了。
Liao et al. Backdoor Embedding in Convolutional Neural Network Models via Invisible Perturbation
动态的触发器 Dynamic Backdoor
该种方法由Salem等人提出来,通过一个网络动态地决定触发器的位置以及样式,增强了攻击的效果。
Salem et al. Dynamic Backdoor Attacks Against Machine Learning Models
边栏推荐
- 【Wing Loss】《Wing Loss for Robust Facial Landmark Localisation with Convolutional Neural Networks》
- 【Cutout】《Improved Regularization of Convolutional Neural Networks with Cutout》
- Conversion of numerical amount into capital figures in PHP
- [multimodal] clip model
- Win10 solves the problem that Internet Explorer cannot be installed
- TimeCLR: A self-supervised contrastive learning framework for univariate time series representation
- Tencent machine test questions
- How do vision transformer work? [interpretation of the paper]
- Traditional target detection notes 1__ Viola Jones
- Yolov3 trains its own data set (mmdetection)
猜你喜欢

【Wing Loss】《Wing Loss for Robust Facial Landmark Localisation with Convolutional Neural Networks》

EKLAVYA -- 利用神经网络推断二进制文件中函数的参数

【Cascade FPD】《Deep Convolutional Network Cascade for Facial Point Detection》

【MobileNet V3】《Searching for MobileNetV3》

Using compose to realize visible scrollbar

程序的内存模型

【雙目視覺】雙目矯正

【Hide-and-Seek】《Hide-and-Seek: A Data Augmentation Technique for Weakly-Supervised Localization xxx》

【Paper Reading】

Tencent machine test questions
随机推荐
MMDetection模型微调
ModuleNotFoundError: No module named ‘pytest‘
C#与MySQL数据库连接
TimeCLR: A self-supervised contrastive learning framework for univariate time series representation
[binocular vision] binocular correction
【多模态】CLIP模型
Win10+vs2017+denseflow compilation
What if the laptop can't search the wireless network signal
TimeCLR: A self-supervised contrastive learning framework for univariate time series representation
【双目视觉】双目矫正
MMDetection安装问题
Handwritten call, apply, bind
Implement interface Iterable & lt; T>
【Random Erasing】《Random Erasing Data Augmentation》
[binocular vision] binocular stereo matching
Calculate the total in the tree structure data in PHP
【MobileNet V3】《Searching for MobileNetV3》
生成模型与判别模型的区别与理解
Installation and use of image data crawling tool Image Downloader
Huawei machine test questions