Batch Norm常用方法

本是古典 何须时尚 2023-01-22 13:59 98阅读 0赞

在运用一些机器学习算法的时候不可避免地要对数据进行特征缩放(feature scaling),比如:在随机梯度下降(stochastic gradient descent)算法中,特征缩放有时能提高算法的收敛速度。

特征缩放的目标就是数据规范化,使得特征的范围具有可比性。它是数据处理的预处理,对后面的使用数据具有关键作用。

机器算法为什么要特征缩放?

  • 特征缩放还可以使机器学习算法工作的更好。比如在K近邻算法中,分类器主要是计算两点之间的欧几里得距离,如果一个特征比其它的特征有更大的范围值,那么距离将会被这个特征值所主导。因此每个特征应该被归一化,比如将取值范围处理为0到1之间。
  • 第二个原因则是,特征缩放也可以加快梯度收敛的速度。

“标准化”和”归一化”这两个中文词要指代四种Feature scaling(特征缩放)方法。

数据的归一化和缩放非常重要,会影响到特征选择和对真实业务问题的判定。

特征缩放的方法

调节比例(Rescaling)(不免疫outlier)

这种方法是将数据的特征缩放到[0,1]或[-1,1]之间,使得完整向量具有长度1。缩放到什么范围取决于数据的性质。对于这种方法的公式如下:
x ′ = x − m i n ( x ) m a x ( x ) − m i n ( x ) x^\prime = \frac{x-min(x)}{max(x)-min(x)} x′=max(x)−min(x)x−min(x)​
x x x是最初的特征值, x ′ x^\prime x′是缩放后的值。

适用场景:

  • 如果对输出结果范围有要求,用归一化
  • 如果数据较为稳定,不存在极端的最大最小值,用归一化

缺点:这种方法有个缺陷就是当有新数据加入时,可能导致max和min的变化,需要重新定义。

  1. from sklearn.preprocessing import MinMaxScaler
  2. #初始化一个scaler对象
  3. scaler = MinMaxScaler()
  4. #调用scaler的fit_transform方法,把我们要处理的列作为参数传进去
  5. data['标准化后的A列数据'] = scaler.fit_transform(data['A列数据'])

平均值规范化(Mean normalization)(不免疫outlier)

x ′ = x − m e a n ( x ) m a x ( x ) − m i n ( x ) x^\prime = \frac{x-mean(x)}{max(x)-min(x)} x′=max(x)−min(x)x−mean(x)​

适用场景:矩阵分解

标准化(Standardization)(不免疫outlier)

特征标准化使每个特征的值有零均值(zero-mean)和单位方差(unit-variance)。这个方法在机器学习地算法中被广泛地使用。例如:SVM,逻辑回归和神经网络。这个方法的公式如下:
x ′ = x − m e a n ( x ) s t d ( x ) x^\prime=\frac{x-mean(x)}{std(x)} x′=std(x)x−mean(x)​
标准差的定义为:
s t d ( x ) = ∑ ( x − m e a n ( x ) ) 2 n std(x)=\sqrt{\frac{\sum(x-mean(x))^2}{n}} std(x)=n∑(x−mean(x))2​​

适用场景

  • SVM、LR、神经网络
  • 如果数据存在异常值和较多噪音,用标准化,可以间接通过中心化避免异常值和极端值的影响

    方法1

    from sklearn.proprocessing import scale
    df_train[‘feature’] = scale(df_train[‘feature’])

    方法2

    一般会把train和test集放在一起做标准化,或者在train集上做标准化后,用同样的标准化器去标准化test集,此时可以用scaler

    from sklearn.proprocessing import StandardScaler
    scaler = StandardScaler().fit(df_train)
    scaler.transform(df_train)
    scaler.transform(df_test)

缩放到单位长度(Scaling to unit length)(不免疫outlier)

x ′ = x ∥ x ∥ x^\prime = \frac{x}{\left \| x \right \|} x′=∥x∥x​
就是除以向量的欧拉长度( the Euclidean length of the vector),二维范数。相当于每个组件除以向量的欧几里德(也就是欧拉)长度。
这种方式在TansE中比较常见。

绝对值标准化(不免疫outlier)

专为稀疏数据而生。将每个要素缩放到[-1,1]范围,它不会移动/居中数据,因此不会破坏任何稀疏性。该估计器单独地缩放每个特征,使得训练集中的每个特征的最大绝对值将是1.0。该缩放器也可以应用于稀疏CSR或CSC矩阵

鲁棒性标准化(免疫outlier)

专为异常值而生。标准差标准化(第一种,最常用的那种)对数据中出现的异常值处理能力不佳,因此诞生了robust_scale,这种不怕异常值扰动的数据缩放法。此Scaler根据分位数范围(默认为IQR:Interquartile Range)删除中位数并缩放数据。 IQR是第1四分位数(第25个分位数)和第3个四分位数(第75个分位数)之间的范围。

发表评论

表情:
评论列表 (有 0 条评论,98人围观)

还没有评论,来说两句吧...

相关阅读