权重衰退是最常见的一种处理过拟合的方法,是最广泛使用的正则化技术之一。
- 使用更少参数
- 控制每个参数(取值/可选择的值)范围较小
其中权重衰退属于第二种方法。
我们的优化目标仍然是,只是额外对添加一个限制条件,即权重的各项平方和小于一个特定的常数。那么设定一个较小的就会使得中每个元素的值都不会太大。
通常不会限制偏移b,理论上讲b表示整个数据在零点上的偏移,因此是不应该限制的,但实践中限制与否对结果都没什么影响。
吴恩达课程中对这一现象的解释是w是高维向量,已经包含了绝大多数参数足以表达高方差问题,b作为单个数字对结果的影响就会很小.
小的意味着更强的正则项,对于相同的,中元素越多则单个元素的值会越小。
上文说的硬性限制在实际使用时比较麻烦,实际上常用的函数是
可以通过拉格朗日乘子证明对于每个都可以找到使得硬性限制的目标函数等价于上式。
其中这一项被称为罚(penalty),是超参数,控制了正则项的重要程度。
当时无作用,时最优解,也就是说越大模型复杂度就被控制的越低。
下面是老师给出的演示图
以中只有两个参数为例,其中绿色的部分是原本损失函数函数值的“等高线”,黄色部分可以看作是正则项对应函数值的“等高线” ,使用权重衰减后需要优化的损失函数相当于图中两组等高线叠加。原本最优解位于绿色中心,现在这一位置在对于正则项有很高的损失,而正则项最小值位于原点,因此现在的最终优化解会更靠近原点,而当所有参数都更靠近原点时模型的规模也就更小。
将上式结果带入更新参数公式整理可得
注意到这个公式中后一项与原来更新参数的公式没有区别,仅仅是在前一项 上加了一个系数。通常 ,也就是说由于引入了,每次更新参数前先给待更新参数乘上一个小于1的权重再更新,权重衰退由此得名。
-
Q:Pytorch是否支持复数神经网络?
-
A:应该不支持,但复数可以看作是二维的数,可以尝试将对应结构变成二维来实现需要的效果。
-
Q:为什么参数不过大复杂度就低呢?
-
A:确切的说是限制模型优化时只能在很小范围内取参数会使模型复杂度降低,见下图
参数选择范围大时可拟合出很复杂的曲线,限制后只能学到更平滑的曲线/选择更简单的模型,那么模型复杂度就变低了。
-
Q:如果使用L1范数如何更新权重?
-
A:编写代码时只需把罚项改成如
def l1_penalty(w):
return torch.sum(torch.abs(w))
老师解答就到这里,但实操不应该只改罚项函数,还需重新定义带正则项的损失函数并求导化简。
代入公式化简得
从这个式子可以看出使用L1正则化时只能对所有同号的参数施加一个相同大小的正则项(增减一个定值),而反观L2正则化对参数的影响是与参数本身的值有关的(乘上一个系数)似乎是更好的选择。不过L1正则化在特征提取上会有用处。
-
Q:实践中权重衰减的值设置为多少好?跑代码时感觉效果不明显。
-
A:一般取1e-2,1e-3,1e-4,权重衰退的效果确实有限,之后还会讲解更多方法。如果模型真的很复杂那么权重衰退一般不会带来特别好的效果。
-
Q:关于L2范数的记法
-
Q:为什么要把往小拉?如果最优解的本来就较大权重衰减是否会起反作用?/正则项使得变得更平均没有突出的值为什么可以拟合的更好呢?
-
A:实际训练的数据都是有噪音的,而这些噪音可能会被拟合进去使得我们实际求解时得不到数学上的最优解,正则化起到将结果拉向最优解的作用。当然如果选取过大可能会拉小的过多,如果没有过拟合那权重衰减就不起作用。
笔者注:这部分老师花了较长时间解释,建议大家自己去看视频。我的个人理解是重点不在于w大小/是否平均,而是由于数据有噪声,而噪声引起过拟合使得求出的w比数学上的最优解更大/更不平均,这时就需要正则化起到一个将结果拉向更小/平均/接近最优解的作用。
-
A:可以证明,但本课程中不讲,可以自己尝试。
代码和部分课后题参考答案见本讲的ipynb文件。