现在才意识到,卷积神经网络在不同的层上的反向传播的计算公式不一样,之前一直按照全连接层的那种简单反向传播去理解了。
在数据表示上,将全连接神经网络的每一层神经元都表示为一个列向量。每一层的神经元,会将上一层神经元的输出作为输入,通过乘上权重矩阵以及加上列向量形式的偏置项。得到激活前的输出值,最后通过激活函数得到该层最终激活后的输出: z l = W l ∗ a l − 1
上一篇:实战五十六:基于机器学习的上海房价预测(完整代码+数据集)
下一篇:【MySQL Shell】9.3 创建 InnoDB ReplicaSet