深度学习_L2正则化
创始人
2024-05-24 00:36:19

文章目录

  • 参考博客
  • 正则化介绍
  • 正则化的实现

参考博客

深入理解L1、L2正则化
PyTorch 实现L2正则化以及Dropout的操作

正则化介绍

正则化(Regularization)是机器学习中一种常用的技术,其主要目的是控制模型复杂度,减小过拟合。最基本的正则化方法是在原目标(代价)函数 中添加惩罚项,对复杂度高的模型进行“惩罚”。其数学表达形式为:
Jˇ(w;X,y)=J(w;X,y)+αΩ(w)\check{J}(w; X, y)=J(w; X, y) + \alpha\Omega(w)Jˇ(w;X,y)=J(w;X,y)+αΩ(w)
式中X,yX, yX,y为训练样本和相应标签, www为权重系数向量; J()J()J()为目标函数, Ω(w)\Omega(w)Ω(w)即为惩罚项, 可理解为模型"规模"的某种度量; 参数α\alphaα控制正则化的强弱. 不同的Ω\OmegaΩ函数对权重w的最优解有不同的偏好, 因而会产生不同的正则化效果. 最常用的Ω\OmegaΩ函数有两种, 即l1l_1l1​范数与l2l_2l2​范数, 相应称之为l1l_1l1​正则化和l2l_2l2​正则化.此时有:
l1:Ω(w)=∣∣w∣∣1=∑i∣wi∣l_1: \Omega(w)=||w||_1=\sum_i|w_i|l1​:Ω(w)=∣∣w∣∣1​=∑i​∣wi​∣
l2:Ω(w)=∣∣w∣∣2=∑iwi2l_2: \Omega(w)=||w||_2=\sqrt{\sum_iw_i^2}l2​:Ω(w)=∣∣w∣∣2​=∑i​wi2​

正则化的实现

在Pytorch中正则化的实现只需要一行代码, 如下:

optimizer = torch.optim.SGD(model.parameters(), \
lr=config.learning_rate, momentum=0.9, weight_decay=0.000001)

在这个函数调用中weight_decay=0.001weight\_decay=0.001weight_decay=0.001就是L2范数.

相关内容

热门资讯

英媒:欧盟试图对世界贸易组织的... 格隆汇1月21日|据英国金融时报,欧盟已提议给予世贸组织成员国更多提高关税的自主权,这是该集团为应对...
北京产权交易所:“十四五”期间... (来源:中华工商网)转自:中华工商网  【记者郭钇杉北京报道】近日,记者从北京产权交易所获悉,“十四...
幸福零距离:一个山区城市的中国... 中新网丽水1月21日电(黄彦君)浙江省丽水市莲都区位于该省西南部,作为典型的山区城市,其一度面临公共...
加拿大总理卡尼:旧秩序不会回来... 中青报·中青网记者 赵婷婷“加拿大人知道,我们过去那种认为我们的地理位置和同盟关系能自动带来繁荣、安...
评论|电信运营商“二次放号”,... 您有没有遇到过这样的困扰:新手机号注册APP,却直接进入陌生人的云端相册;明明是刚启用的号码,却不断...