diff --git a/Study/DL/吴恩达深度学习课程/Lesson 1.md b/Study/DL/吴恩达深度学习课程/Lesson 1.md index caa7343..b15ffc2 100644 --- a/Study/DL/吴恩达深度学习课程/Lesson 1.md +++ b/Study/DL/吴恩达深度学习课程/Lesson 1.md @@ -17,6 +17,9 @@ b &= b - \eta \cdot db 正向传递:计算网络输出。 反向传递:更新模型参数。 sigmoid函数:消除线性。 +> 线性激活函数: $a = z$ +> 如果我们使用线性激活函数,无论我们经过多少层网络迭代,都相当于是对输入进行线性变换, + 损失函数:计算模型预测结果的精度,反向传播的目的就是使得。 ## Vectorization 向量化相较于显式循环更高效,能够更好的利用系统的并行化计算。