神经网络笔记 | 2 – 模型理解

这里我们需要上一章的图片进行一个复习

每个计算神经元都能获得不同权重的参数(由Θ控制),并且进行激活函数(g())的计算,然后每个隐藏神经元计算完成后,会把参数传导给hθ  再进行一次类隐藏层的计算(因为也有一个权重矩阵),以此类推获得输出值。(这个理解比较难,需要自己慢慢看PPT,还有个办法是,把每条线想象成一个θ,而这个Θ矩阵,就是所有θ的集合而已)

向前传播

如果令

这个参数等于Z(2)1

那么我们可以将隐藏层的参数表示为

以此类推,我们就能得到一个更简便的表示办法

z(2) = 0.9 
Add 
he(x) =

这是一个比较浅显易懂的参数传递逻辑,这个过程被称之为向前传播

(实际上这里讲的是真滴抽象,建议还是看一下课程https://www.bilibili.com/video/BV164411b7dx?p=46)

逐层回归

我们遮住之前神经元模型的前半部分,那么后半部分看起来就像是一个简单的逻辑回归模型

然后,之前的a1,a2,a3,则是进行对数值进行学习的过程,这可以为之后的算法筛选出更精妙的特征,而不是仅仅去筛选繁多的原始数据。

更有趣的是,神经网络的架构是可以调整的!

但是一般我们还是有一个选择原则

比如一般我们选择一个隐藏层,

但是如果选择多个隐藏层,那么最好隐藏层的单元数是相当的

发表评论