Compare commits

...

2 Commits

Author SHA1 Message Date
2fa235a48d vault backup: 2024-04-01 16:58:15 2024-04-01 16:58:15 +08:00
d061b13e5a vault backup: 2024-04-01 16:43:18 2024-04-01 16:43:18 +08:00

View File

@@ -19,6 +19,7 @@ $L(\mathbf{w}, b) = \frac1n\sum_{i=1}^{n} l^i(\mathbf{x}, b)$
主要用来解决过拟合问题。
- 权重衰减
通过L2范数惩罚大的权重值使得模型的参数更加稀疏平均从而使得模型不过于依赖某些特征从而提升了泛化能力。
正则化损失函数:$L(\mathbf{w}, b) + \frac{\lambda}{2} \|\mathbf{w}\|^2$
反向传播:$w \larr$
-
正则化损失函数:$L = L_0 + \lambda ||\mathbf w||^2$
反向传播:$w_i ← w_i - \alpha(\frac{\partial L_0}{\partial w_i} + \lambda w_i)$
通过反向传播的过程我们可以看到,每次迭代后,权重的值都会变为$(1 - \lambda \alpha)$倍使得权重值更加靠近零但是不为0使模型偏向于学习更加简单的、泛化性能更高的模型。L1正则化则会导致模型将权重集中在一部分特征上将其它权重清零这称之为特征选择。
- Dropout