深度学习_L2正则化
创始人
2024-05-24 00:36:19

文章目录

  • 参考博客
  • 正则化介绍
  • 正则化的实现

参考博客

深入理解L1、L2正则化
PyTorch 实现L2正则化以及Dropout的操作

正则化介绍

正则化(Regularization)是机器学习中一种常用的技术,其主要目的是控制模型复杂度,减小过拟合。最基本的正则化方法是在原目标(代价)函数 中添加惩罚项,对复杂度高的模型进行“惩罚”。其数学表达形式为:
Jˇ(w;X,y)=J(w;X,y)+αΩ(w)\check{J}(w; X, y)=J(w; X, y) + \alpha\Omega(w)Jˇ(w;X,y)=J(w;X,y)+αΩ(w)
式中X,yX, yX,y为训练样本和相应标签, www为权重系数向量; J()J()J()为目标函数, Ω(w)\Omega(w)Ω(w)即为惩罚项, 可理解为模型"规模"的某种度量; 参数α\alphaα控制正则化的强弱. 不同的Ω\OmegaΩ函数对权重w的最优解有不同的偏好, 因而会产生不同的正则化效果. 最常用的Ω\OmegaΩ函数有两种, 即l1l_1l1​范数与l2l_2l2​范数, 相应称之为l1l_1l1​正则化和l2l_2l2​正则化.此时有:
l1:Ω(w)=∣∣w∣∣1=∑i∣wi∣l_1: \Omega(w)=||w||_1=\sum_i|w_i|l1​:Ω(w)=∣∣w∣∣1​=∑i​∣wi​∣
l2:Ω(w)=∣∣w∣∣2=∑iwi2l_2: \Omega(w)=||w||_2=\sqrt{\sum_iw_i^2}l2​:Ω(w)=∣∣w∣∣2​=∑i​wi2​

正则化的实现

在Pytorch中正则化的实现只需要一行代码, 如下:

optimizer = torch.optim.SGD(model.parameters(), \
lr=config.learning_rate, momentum=0.9, weight_decay=0.000001)

在这个函数调用中weight_decay=0.001weight\_decay=0.001weight_decay=0.001就是L2范数.

相关内容

热门资讯

波兰容量市场中电池储能的经济性 2.5GW波兰最新容量竞价支持的新增额定电池容量(计划于2030年交付)每年14.7欧元/kW波兰2...
种田游戏哪些好玩 十大必玩种田... 想要体验宁静又治愈的种田乐趣?本文为你精选十大必玩种田游戏,涵盖模拟经营、田园生活等多类玩法,带你领...
两会结束,国务院立刻行动 全国两会刚刚落幕,3月13日,国务院常务会议便对深入贯彻党中央决策部署,落实政府工作报告安排,围绕全...
“天空地水工”立体监测  黄河... 来源:科技日报科技日报记者 付丽丽 3月的河套平原,春风中仍裹挟着料峭寒意。但随着气温的回升,沉寂一...
“十五五”规划纲要解读来了!未... 昨天(13日),“十五五”规划纲要正式发布,规划纲要的编制有何特点、亮点?对未来五年经济社会发展进行...