当前位置:网站首页>Copycat CNN: Stealing Knowledge by Persuading Confession with Random Non-Labeled Data阅读心得
Copycat CNN: Stealing Knowledge by Persuading Confession with Random Non-Labeled Data阅读心得
2022-08-04 16:39:00 【zzuls】
一、研究背景
这篇文章发布于2018年,发表在Computer Vision and Pattern Recognition上面,当时CNN在图像识别上如日中天,而CNN的应用也极为广泛。一般来说,一个优秀的CNN模型需要大量的人力和物力。不仅需要搭建模型,还需要宝贵的数据集和卓越的算力,才能构建一个CNN模型。
二、主要工作
而作者的研究就是针对以CNN模型的攻击,他们通过向模型查询no-lable的数据,搭建一个数据集,然后再根据这个数据集训练出一个替代模型。
三、创新点
作者提出了一种针对CNN的模型窃取方法copycat,该方法并不需要目标模型的数据集,在高维的输入以及深层的模型上表现的都不错。
四、文章内容
1.introduction
CNN在图像分类和图像识别上面具有很好的表现,一个优秀的CNN模型具有很高的价值,这也使得CNN值得保护。作者提出了一种针对CNN的模型窃取方法copycat,如图一,他们通过向模型查询no-lable的数据,搭建一个数据集,然后再根据这个数据集训练出一个替代模型。
这个方法通过三种问题的解决效果来评估,分别是facial expression, object, and crosswalk classifification。
作者三大贡献:作者提出了一种针对CNN的模型窃取方法copycat,发现可以使用与目标模型训练集不相关的图像复制模型,该方法在不同的问题和大数据集上也适用。
2.RELATED WORKS
研究发现[1,2],复制一个CNN黑盒模型是可行的,他们可以通过模型查询的方式来构建一个替代模型, 在SVM、决策树和贝叶斯分类器上取得了成功。但是他们没有尝试DNN模型的窃取。在另外的研究中[3,4],[3]研究了将分类器(DNN,SVM,decision tree, nearest neighbor, and ensembles)迁移到另一个深度学习模型中。
作者与之前研究不同在于,作者提出的是复制目标模型然后生成替代模型,生成替代模型的过程不需要原始数据,选用来源广泛的互联网图像就可以完成复制。
3.COPYCAT CONVOLUTIONAL NEURAL NETWORK
(1)Fake Dataset Generation
为了训练一个网络,需要一个数据集,使用目标模型的数据集固然是好的,但是一般来说攻击者很难得到目标模型的数据集,为此可以用其他方法。
作者搭建Fake Dateset的方法是从互联网上下载一些无标签的图片,这些图片可以与问题相关,也可以与问题无关。然后作者再使用目标模型的查询功能,将模型的输出作为数据的标签。
互联网上下载的数据可以与问题相关,也可以不相关,然后再利用数据增强技术,以便更好地利用目标模型的空间维度。
(2)Copycat Network Training
训练模型的关键是首先要确定目标模型的结构,这个确定的方法,作者没有,只是固定为VGG-16的结构。
然后就是根据构建的数据集训练模型,调整模型的参数然后得到提到模型。
五、reference
[1] F. Tramer, F. Zhang, A. Juels, M. K. Reiter, and T. Ristenpart, “Stealing machine learning models via prediction apis.” in USENIX Security Symposium, 2016, pp. 601–618.
[2] Y. Shi, Y. Sagduyu, and A. Grushin, “How to steal a machine learning classififier with deep learning,” in IEEE International Symposium on Technologies for Homeland Security (HST). IEEE, 2017, pp. 1–5.
[3] N. Papernot, P. D. McDaniel, and I. J. Goodfellow, “Transferability in machine learning: from phenomena to black-box attacks using adversarial samples,” CoRR, vol. abs/1605.07277, 2016
[4]N. Papernot, P. McDaniel, I. Goodfellow, S. Jha, Z. B. Celik, and A. Swami, “Practical Black-Box Attacks Against Machine Learning,” in Proceedings of the 2017 ACM on Asia Conference on Computer and Communications Security. ACM, 2017, pp. 506–519.
边栏推荐
猜你喜欢
随机推荐
Jenkins 如何玩转接口自动化测试?
LeetCode 0167. 两数之和 II - 输入有序数组
移动百事通BesTV_R3300-L_S905L_8189_线刷固件包
Win10 无线网卡驱动感叹号,显示错误代码56
2022-08-04日报:量化细胞内的信息流:机器学习时代下的研究进展
谷粒商城笔记
HCIP笔记(6)
\/ PN的综合实验
显示和设置系统日期时间的date命令示例
Visual Studio 2022创建项目没有CUDA模板的解决方法
闭包及闭包的使用
SAP 电商云 Spartacus UI SSR 单元测试里的 callFake
湖北移动中兴B860AV2.1_S905L_线刷固件包
实践:二进制数据处理与封装
越来越火的图数据库到底能做什么?
HCIP笔记(7)
从-99打造Sentinel高可用集群限流中间件
LeetCode·每日一题·1403.非递增顺序的最小子序列·贪心
华为云数据治理生产线DataArts,让“数据‘慧’说话”
码蹄集 - MT3029 - 新月轩就餐