当前位置:网站首页>5.过拟合,dropout,正则化

5.过拟合,dropout,正则化

2022-07-07 23:11:00 booze-J

过拟合

在这里插入图片描述
在这里插入图片描述
过拟合导致测试误差变大:
在这里插入图片描述

可以看到图中随着模型结构的越来越复杂,训练集的误差越来越小,测试集的误差先变小后变大,过拟合导致测试误差变大。
比较好的情况是训练误差和测试误差这两条线比较接近。

防止过拟合

1.增大数据集

数据挖掘领域流行着这样一句话,“有时候拥有更多的数据胜过一个好的模型”。一般来说更多的数据参与训练,训练得到的模型就越好。如果数据太少,而我们构建的神经网络又太复杂的话就比较容易产生过拟合的现象。
在这里插入图片描述

2.Early stopping

在训练模型的时候,我们往往会设置一个比较大的选代次数。Early stopping便是一种提前结束训练的策略用来防止过拟合。

一般的做法是记录到目前为止最好的validation accuracy,当连续10个Epoch没有达到最佳accuracy时,则可以认为accuracy不再提高了。此时便可以停止迭代了(Early Stopping)。

3.Dropout

在这里插入图片描述
每次训练的时候,都会随机的去关闭一些神经元,关闭的意思并不是去掉,而是这些画虚线的神经元不参与训练。注意一般训练完,测试模型的时候,是使用所有神经元,不会进行dropout。

4.正则化

C0代表原始的代价函数,n代表样本的个数, λ \lambda λ就是正则项系数,权衡正则项与C0项的比重。
L1正则化:

在这里插入图片描述
L1正则化可以达到模型参数稀疏化的效果。

L2正则化:
在这里插入图片描述
L2正则化可以使得模型的权值衰减,使模型参数值都接近于0。

在这里插入图片描述
λ \lambda λ=0.001时,出现了过拟合现象,当 λ \lambda λ=0.01时,有较轻微的过拟合,当 λ \lambda λ=0.1的时候没有出现过拟合现象。

原网站

版权声明
本文为[booze-J]所创,转载请带上原文链接,感谢
https://blog.csdn.net/booze_/article/details/125632017