当前位置:网站首页>特征缩放 标准化 归一化

特征缩放 标准化 归一化

2022-07-04 22:06:00 Melody2050

特征缩放的目的

对于大多数的机器学习算法和优化算法来说,将特征值缩放到相同区间可以使得获取性能更好的模型。

例如:

(a)有两个不同的特征,第一个特征的取值范围为110,第二个特征的取值范围为110000。在梯度下降算法中,代价函数为最小平方误差函数,所以在使用梯度下降算法的时候,算法会明显的偏向于第二个特征,因为它的取值范围更大。

(b)k近邻算法,它使用的是欧式距离,也会导致其偏向于第二个特征。对于决策树和随机森林以及XGboost算法而言,特征缩放对于它们没有什么影响。

常用特征缩放方法

  1. 标准化。减去均值,并除以标准差
  2. 归一化。使用min、max,将值缩放到[0,1]
原网站

版权声明
本文为[Melody2050]所创,转载请带上原文链接,感谢
https://blog.csdn.net/duoyasong5907/article/details/125579133