当前位置:网站首页>Meta Learning 简述
Meta Learning 简述
2022-07-02 06:26:00 【MezereonXP】
Meta Learning 简述
先来回顾一下,传统的机器学习或者说深度学习的流程:
- 确定训练和测试数据集
- 确定模型结构
- 初始化模型参数(通常是一些惯用的随机分布)
- 初始化优化器类型和参数
- 进行训练,直到收敛
Meta Learning的目的是去学习一些在步骤2,3,4的参数,我们称之为元知识(meta- knowledge)
不妨对其进行形式化
假设数据集为 D = { ( x 1 , y 1 ) , . . . , ( x N , y N ) } D = \{(x_1,y_1),...,(x_N,y_N)\} D={ (x1,y1),...,(xN,yN)} 其中 x i x_i xi 是输入, y i y_i yi 是输出标签
我们的目的是得到一个预测模型 y ^ = f ( x ; θ ) \hat{y} = f(x;\theta) y^=f(x;θ) , 其中 θ \theta θ 表示模型的参数, x x x 为输入同时 y ^ \hat{y} y^ 是预测的输出
优化的形式为:
θ ∗ = arg min θ L ( D ; θ , ω ) \theta^*=\arg \min_{\theta} \mathcal{L}(D;\theta,\omega) θ∗=argθminL(D;θ,ω)
其中的 ω \omega ω 就是元知识,包括:
- 优化器类型
- 模型结构
- 模型参数的初始分布
- …
我们会对已有的数据集 D D D 进行任务划分,切分成多个任务集合,每一个任务集合包括一个训练集合以及一个测试集合,其形式为:
D s o u r c e = { ( D s o u r c e t r a i n , D s o u r c e v a l ) ( i ) } i = 1 M D_{source} = \{(D^{train}_{source},D^{val}_{source})^{(i)}\}_{i=1}^{M} Dsource={ (Dsourcetrain,Dsourceval)(i)}i=1M
优化目标为:
ω ∗ = arg max ω log p ( ω ∣ D s o u r c e ) \omega^* = \arg \max_{\omega} \log p(\omega|D_{source}) ω∗=argωmaxlogp(ω∣Dsource)
也就是在我们切分的多个任务集合中,找到一组配置(也就是元知识),使其对于这些任务来说最优。
一般称这个步骤为元训练(meta-training)
找到 ω ∗ \omega^* ω∗ 之后,便可以应用到一个目标任务数据集 D t a r g e t = { ( D t a r g e t t r a i n , D t a r g e t v a l ) } D_{target} = \{(D_{target}^{train}, D_{target}^{val})\} Dtarget={ (Dtargettrain,Dtargetval)}
在这上面进行传统的训练,也就是找到一个最优的模型参数 θ ∗ \theta^* θ∗
θ ∗ = arg max θ log p ( θ ∣ ω ∗ , D t a r g e t t r a i n ) \theta^* = \arg\max_{\theta}\log p(\theta|\omega^*, D_{target}^{train}) θ∗=argθmaxlogp(θ∣ω∗,Dtargettrain)
这个步骤称之为元测试(meta-testing)
边栏推荐
- [binocular vision] binocular stereo matching
- Correction binoculaire
- Thesis writing tip2
- Embedding malware into neural networks
- 【MnasNet】《MnasNet:Platform-Aware Neural Architecture Search for Mobile》
- Hystrix dashboard cannot find hystrix Stream solution
- TimeCLR: A self-supervised contrastive learning framework for univariate time series representation
- 【学习笔记】反向误差传播之数值微分
- 【学习笔记】Matlab自编高斯平滑器+Sobel算子求导
- CONDA common commands
猜你喜欢
iOD及Detectron2搭建过程问题记录
Translation of the paper "written mathematical expression recognition with bidirectionally trained transformer"
论文写作tip2
What if the notebook computer cannot run the CMD command
Replace self attention with MLP
Faster-ILOD、maskrcnn_benchmark训练coco数据集及问题汇总
[learning notes] numerical differentiation of back error propagation
【Wing Loss】《Wing Loss for Robust Facial Landmark Localisation with Convolutional Neural Networks》
Mmdetection installation problem
Label propagation
随机推荐
[Sparse to Dense] Sparse to Dense: Depth Prediction from Sparse Depth samples and a Single Image
Semi supervised mixpatch
Pointnet understanding (step 4 of pointnet Implementation)
open3d学习笔记二【文件读写】
TimeCLR: A self-supervised contrastive learning framework for univariate time series representation
【双目视觉】双目立体匹配
PHP returns the corresponding key value according to the value in the two-dimensional array
ModuleNotFoundError: No module named ‘pytest‘
Generate random 6-bit invitation code in PHP
Faster-ILOD、maskrcnn_benchmark训练自己的voc数据集及问题汇总
【Batch】learning notes
【Hide-and-Seek】《Hide-and-Seek: A Data Augmentation Technique for Weakly-Supervised Localization xxx》
Mmdetection installation problem
【C#笔记】winform中保存DataGridView中的数据为Excel和CSV
【MobileNet V3】《Searching for MobileNetV3》
用全连接层替代掉卷积 -- RepMLP
Handwritten call, apply, bind
Label propagation
Proof and understanding of pointnet principle
label propagation 标签传播