L1正则化与L2正则化的区别

ゝ一世哀愁。 2022-04-05 04:12 461阅读 0赞

摘要

正则化的本质是在Cost Function中添加的p-范数。本文从正则化的本质p-范数入手,解释了L1正则化L2正则化的区别。

正则化

Cost Function上添加了正则化项,就能降低模型的过拟合程度,这就是正则化的作用。
关于正则化更细节的讲述,请参考为什么正则化能减少模型过拟合程度。

正则化项的不同,就产生了L1正则化L2正则化L1正则化L2正则化的表达式,其实就是1-范数与2-范数

在这里插入图片描述

范数

正则化项的实质就是叠加到Cost Function中的范数。下面是p-范数的表达式:

在这里插入图片描述

在上图中(x,y)相同的情况下,随着p值的增加,p-范数的值趋向于更大,对较大权重的惩罚力度加大(就是说W大的,p-范数的值也更大,所以表现在Cost Function的值变小)。

L1正则化

下面是整个Cost Function的表达式,红色部分就是L1正则化的表达式。

在这里插入图片描述

L1正则化对所有参数的惩罚力度都一样,可以让一部分权重变为零,因此产生稀疏模型,能够去除某些特征(权重为0则等效于去除)。

L2正则化

下面是整个Cost Function的表达式,红色部分就是L2正则化的表达式。

在这里插入图片描述

L2正则化减少了权重的固定比例,使权重平滑。L2正则化不会使权重变为0(不会产生稀疏模型),所以选择了更多的特征。

区别

  • L1减少的是一个常量,L2减少的是权重的固定比例
  • L1使权重稀疏,L2使权重平滑
  • L1优点是能够获得sparse模型,对于large-scale的问题来说这一点很重要,因为可以减少存储空间
  • L2优点是实现简单,能够起到正则化的作用。缺点就是L1的优点:无法获得sparse模型

参考

  • https://blog.csdn.net/ybdesire/article/details/79068603
  • https://blog.csdn.net/TXBSW/article/details/79073933
  • https://blog.csdn.net/vincent2610/article/details/53408088
  • https://www.quora.com/What-is-the-difference-between-L1-and-L2-regularization-How-does-it-solve-the-problem-of-overfitting-Which-regularizer-to-use-and-when
  • https://www.zhihu.com/question/26485586

发表评论

表情:
评论列表 (有 0 条评论,461人围观)

还没有评论,来说两句吧...

相关阅读

    相关 L1L2

    什么是正则化? 正则化就是在损失函数后加上一个正则化项(惩罚项),其实就是常说的结构风险最小化策略,即经验风险(损失函数)加上正则化。一般模型越复杂,正则化值越大。 常