当前位置:网站首页>深度学习系列(二)优化器 (Optimization)
深度学习系列(二)优化器 (Optimization)
2022-08-05 05:16:00 【yiyexy】
梯度下降
在上一节中,我们已经提到了,我们最终估计一个模型他的拟合程度是通过成本函数计算结果来判断的。
因此我们很容易知道,当成本函数达到最小值时,我们的模型就达到了最优。因此,我们更新参数的目标应该是朝着减少成本函数值的方向前进。
这里我们可以用到一个数学上的概念去求成本函数的最小值。通过梯度来求解。当我们根据成本函数L求得了对参数W的偏导时,便可以根据公式:W := W- α \alpha αdW 对参数W进行更新。
其中, α \alpha α称为学习率,实际上你可以理解为W朝着梯度下降方向行走的步长。这里面梯度下降的具体原理,不过多解释,我们主要关注的是梯度下降的数据量问题。
在我们正常的模型训练中,我们通常是将所有样本放在一个矩阵中进行训练,但是当我们的数据集特别大的时候,往往会遇到这样的问题,每进行一次的梯度下降,我们就需要对所有样本集中求一次梯度。因此正确的参数更新如下:
因此,当我们的样本数量很大时,每一次迭代都会花费大量时间,这对电脑内存和时间都是个不小的压力。
随机梯度下降
针对上面的问题,有人就提出了随机梯度下降法(SGD,Stochastic Gradient Descent)。所谓的随机梯度下降,就是指每一次梯度下降,都不再是求出所有样本的平均损失值来进行梯度下降,而是随机选择一个样本进行训练,根据这个样本的损失值进行梯度下降。
这个方法听上去似乎解决了大内存的问题,但是实际上,这个方法有很多的弊端,首先迭代次数过多,参数修改过于频繁;其次,每次梯度下降都是根据一个样本的值进行的,而一个样本的值计算出来的梯度可能会有误差,导致了参数向着相反的方向前进。
因此,随机梯度下降法并不能很好的解决梯度下降问题,人们结合这两种方法的各自有缺点提出了批量梯度下降法的概念。
批量梯度下降法
结合前两种方法各自的优缺点,我们每次梯度下降时候使用一批样本进行,这样的一批样本被称为(mini batch)。
这样,既解决了多样本消耗内存的问题,由降低了仅一个样本梯度的波动。使用批量梯度下降法时,尽管在下降的过程中,还是有向着相反方向前进的错误,但是这种错误会少很多,且对最终结果影响不大。
边栏推荐
猜你喜欢
随机推荐
【Kaggle项目实战记录】一个图片分类项目的步骤和思路分享——以树叶分类为例(用Pytorch)
基于Flink CDC实现实时数据采集(一)-接口设计
SSL 证书签发详细攻略
服务网格istio 1.12.x安装
Thread handler句柄 IntentServvice handlerThread
四、Web场景之静态资源配置原理
AIDL详解
【Pytorch学习笔记】11.取Dataset的子集、给Dataset打乱顺序的方法(使用Subset、random_split)
【数据库和SQL学习笔记】9.(T-SQL语言)定义变量、高级查询、流程控制(条件、循环等)
【ts】typescript高阶:键值类型及type与interface区别
基于Flink CDC实现实时数据采集(二)-Source接口实现
tensorflow的session和内存溢出
【论文阅读-表情捕捉】ExpNet: Landmark-Free, Deep, 3D Facial Expressions
Thread handler handle IntentServvice handlerThread
【ts】typescript高阶:分布式条件类型
AIDL detailed explanation
CVPR 2020 - 频谱正则化
表情捕捉的指标/图像的无参考质量评价
七、请求处理——Map、Model类型参数处理原理
Redis设计与实现(第二部分):单机数据库的实现