什么是正则化
正则化(Regularization)是机器学习中用于控制模型过拟合的一种技术。在模型训练过程中,我们通常要最小化一个损失函数来得到最佳的模型参数。但是当模型过于复杂时,容易出现过拟合现象,即在训练数据上表现很好,但在测试数据上表现很差。这是因为模型过于依赖训练数据的噪声和细节,而忽略了真正的规律。
正则化通过在损失函数中增加一个**惩罚项(Penalty)**来对模型进行约束,防止其过分依赖训练数据。
常见的正则化方法包括L1正则化(硬性限制)、L2正则化(柔性限制)等。
L1正则化会使得一部分参数变为0,从而实现特征选择的效果;L2正则化则会使得模型参数尽量接近0,也就是使得模型更加平滑。在使用正则化时,需要调整正则化强度的超参数,以达到最优的泛化性能。
L1正则化
min l(w,b) subject to ∥w∥12≤θ(1)
- L1正则化限制权重参数的L1范数小于某一特定的超参数
- 通常不限制偏移b
- 更小的超参数θ意味着更强的正则项
L2正则化与权重衰退
L2正则化是指在模型的损失函数中,加入对模型参数 的L2范数进行惩罚的一种方法。公式如下所示:
l(w,b)+2λ∥w∥12(2)
其中,λ是一个正则化系数超参数
此时在更新梯度时,具有如下公式
∂w∂(l(w,b)+2λ∥w∥12)=∂w∂l(w,b)+λw(3)
wt+1=(1−ηλ)wt+η∂wt∂l(wt,bt)(4)
通常ηλ<1,因此又叫做权重衰退