卷积传播图解
先来看得到卷积的过程
(单个元素的梯度计算)不考虑前后的层,比如我们已经得到了Delta 的梯度矩阵,可以观察下图如何得到在原矩阵中 x 2 , 2 x_{2,2} x2,2?的梯度值 。
(推广到全部元素) 这里就是对Delta d做了一个之后然后反向做了卷积 。
不同视角看CNN
这部分图来自:
比如有原始数据矩阵:
得到的 :
卷积计算的视角
等式计算角度
网络角度
矩阵乘法角度
Dense神经网络角度
在这个角度下我们可以更好地理解传统神经网络和CNN之间的联系,其中左图是传统神经网络,右图数Dense神经网络视角下的CNN 。灰度连接对应于不可训练的0.
参考
- 刚插上网线,电脑怎么知道自己的IP?
- 秦始皇为什么要修筑万里长城?的目的是什么?
- 揭秘慈禧谥号的标准为何跟皇帝的一样?
- 久居深宫的妃嫔们多数病弱后宫生活竟全靠吃药
- 秘闻"酸梅汤"是朱元璋发明的?
- 皇帝一天都是怎么过的?揭秘清朝皇帝的日常
- 营妓薛涛的爱情:与元稹的姐弟恋不过最早的备胎
- 此人是最被低估的谋士诸葛亮加荀彧都不如他
- 史上对和尚近女色处罚最为严厉的是哪朝?
- 上古战神蚩尤的武器是什么?他的儿子是谁?