vault backup: 2024-04-01 15:13:02

This commit is contained in:
2024-04-01 15:13:02 +08:00
parent 876e6b0afb
commit 8bea90e8ff
2 changed files with 5 additions and 1 deletions

View File

@@ -11,4 +11,5 @@ $L(\mathbf{w}, b) = \frac1n\sum_{i=1}^{n} l^i(\mathbf{x}, b)$
$(\mathbf{w}, b) <- (\mathbf{w},b) - \frac{\eta}{|B|} \sum_{i\in{B}}\partial_{(\mathbf{w}, b)}l^i(\mathbf{w},b)$
其中$\eta$代表学习率
# 激活函数
在MLP中由于多个线性层叠加最终的结果和单层感知机并无区别加入激活函数后可以破坏这种线性叠加。
在MLP中由于多个线性层叠加最终的结果和单层感知机并无区别加入激活函数后可以破坏这种线性叠加。
# 计算图