当前位置:网站首页>一、迁移学习与fine-tuning有什么区别?
一、迁移学习与fine-tuning有什么区别?
2022-07-29 05:22:00 【MY头发乱了】
一、迁移学习
举个例子,假设boss让你做一下目标检测,这个数据集是关于光纤箱喷码字符检测的。问题是,数据集很少(只有1000张数据),里面有多干扰的信息,你发现从零训练开始训练yolo的效果很差,很容易过拟合。怎么办呢,于是你想到了使用Transfer Learning,用别人已经训练好的Imagenet的模型来做。
二、迁移学习有哪些手法
- 把Alexnet里卷积层最后一层输出的特征拿出来,然后直接用SVM分类。这是Transfer Learning,因为你用到了Alexnet中已经学到了的“知识”。
- Vggnet卷积层最后的输出拿出来,用贝叶斯分类器分类。思想基本同上。
- 至你可以把Alexnet、Vggnet的输出拿出来进行组合,自己设计一个分类器分类。这个过程中你不仅用了Alexnet的“知识”,也用了Vggnet的“知识”。
- 最后,你也可以直接使用fine-tune这种方法,在Alexnet的基础上,重新加上全连接层,再去训练网络。
三、fine-tune使用策略
决定如何使用迁移学习的因素有很多,这是最重要的只有两个:新数据集的大小、以及新数据和原数据集的相似程度。有一点一定记住:网络前几层学到的是通用特征,后面几层学到的是与类别相关的特征。这里有使用的四个场景:
- 新数据集比较小且和原数据集相似。因为新数据集比较小,如果fine-tune可能会过拟合;又因为新旧数据集类似,我们期望他们高层特征类似,可以使用预训练网络当做特征提取器,用提取的特征训练线性分类器。
- 新数据集大且和原数据集相似。因为新数据集足够大,可以fine-tune整个网络。
- **新数据集小且和原数据集不相似。**新数据集小,最好不要fine-tune,和原数据集不类似,最好也不使用高层特征。这时可是使用前面层的特征来训练SVM分类器。
- **新数据集大且和原数据集不相似。**因为新数据集足够大,可以重新训练。但是实践中fine-tune预训练模型还是有益的。新数据集足够大,可以fine-tine整个网络。
四、总结
综上,Transfer Learning关心的问题是:什么是“知识”以及如何更好地运用之前得到的“知识”。这可以有很多方法和手段。而fine-tune只是其中的一种手段。
边栏推荐
- 【Transformer】AdaViT: Adaptive Tokens for Efficient Vision Transformer
- Semaphore (semaphore) for learning notes of concurrent programming
- Lock lock of concurrent programming learning notes and its implementation basic usage of reentrantlock, reentrantreadwritelock and stampedlock
- ROS教程(Xavier)
- 【Transformer】SOFT: Softmax-free Transformer with Linear Complexity
- 【语义分割】Fully Attentional Network for Semantic Segmentation
- 【Transformer】SegFormer:Simple and Efficient Design for Semantic Segmentation with Transformers
- 【比赛网站】收集机器学习/深度学习比赛网站(持续更新)
- Ribbon学习笔记一
- 性能优化之趣谈线程池:线程开的越多就越好吗?
猜你喜欢

Anr Optimization: cause oom crash and corresponding solutions

PyTorch基础知识(可入门)

Lock lock of concurrent programming learning notes and its implementation basic usage of reentrantlock, reentrantreadwritelock and stampedlock

研究生新生培训第二周:卷积神经网络基础

MySql统计函数COUNT详解

ROS常用指令

【Transformer】TransMix: Attend to Mix for Vision Transformers

SSM integration

Centos7 silently installs Oracle

【Transformer】ACMix:On the Integration of Self-Attention and Convolution
随机推荐
【语义分割】Mapillary 数据集简介
Spring, summer, autumn and winter with Miss Zhang (3)
Ffmpeg creation GIF expression pack tutorial is coming! Say thank you, brother black fly?
迁移学习——Robust Visual Domain Adaptation with Low-Rank Reconstruction
【CV】请问卷积核(滤波器)3*3、5*5、7*7、11*11 都是具体什么数?
GAN:生成对抗网络 Generative Adversarial Networks
Flutter 绘制技巧探索:一起画箭头(技巧拓展)
How to obtain openid of wechat applet in uni app project
SQL repair duplicate data
【Transformer】SOFT: Softmax-free Transformer with Linear Complexity
深入理解MMAP原理,让大厂都爱不释手的技术
torch.nn.Embedding()详解
Is flutter being quietly abandoned? On the future of flutter
PyTorch基础知识(可入门)
[clustmaps] visitor statistics
并发编程学习笔记 之 原子操作类AtomicInteger详解
Reporting Services- Web Service
tensorboard使用
fastText学习——文本分类
【综述】图像分类网络