Compare commits
2 Commits
ae6e46a8f4
...
52c2eb53da
| Author | SHA1 | Date | |
|---|---|---|---|
| 52c2eb53da | |||
| 5bf371ff29 |
@@ -11,10 +11,11 @@ $L(\mathbf{w}, b) = \frac1n\sum_{i=1}^{n} l^i(\mathbf{x}, b)$
|
|||||||
通过不断在损失函数递减方向上更新参数来降低误差。
|
通过不断在损失函数递减方向上更新参数来降低误差。
|
||||||
梯度下降法主要计算损失函数关于模型参数的导数。但是每次计算时候遍历整个数据集,效率会很低。所以每次计算先抽取一个小批量$B$(由固定数量的样本组成)的梯度,然后我们将梯度乘以一个预先确定的正数$\eta$,并从当前采纳数的值中减掉。
|
梯度下降法主要计算损失函数关于模型参数的导数。但是每次计算时候遍历整个数据集,效率会很低。所以每次计算先抽取一个小批量$B$(由固定数量的样本组成)的梯度,然后我们将梯度乘以一个预先确定的正数$\eta$,并从当前采纳数的值中减掉。
|
||||||
$(\mathbf{w}, b) <- (\mathbf{w},b) - \frac{\eta}{|B|} \sum_{i\in{B}}\partial_{(\mathbf{w}, b)}l^i(\mathbf{w},b)$
|
$(\mathbf{w}, b) <- (\mathbf{w},b) - \frac{\eta}{|B|} \sum_{i\in{B}}\partial_{(\mathbf{w}, b)}l^i(\mathbf{w},b)$
|
||||||
其中$\eta$代表学习率
|
其中$\eta$代表学习率。
|
||||||
# 激活函数
|
# 激活函数
|
||||||
在MLP中,由于多个线性层叠加,最终的结果和单层感知机并无区别,加入激活函数后,可以引入非线性。
|
在MLP中,由于多个线性层叠加,最终的结果和单层感知机并无区别,加入激活函数后,可以引入非线性。
|
||||||
常用的有sigmoid、ReLU、tanh等函数。
|
常用的有sigmoid、ReLU、tanh等函数。
|
||||||
|
在MLP中,由于激活函数的存在还会出现梯度消失和梯度爆炸的问题。由于每次梯度瞎讲讲的过程中需要对激活函数求导并,
|
||||||
# 正则化
|
# 正则化
|
||||||
主要用来解决过拟合问题。
|
主要用来解决过拟合问题。
|
||||||
- 权重衰减
|
- 权重衰减
|
||||||
|
|||||||
Reference in New Issue
Block a user