本站原创文章,转载请说明来自《老饼讲解-BP神经网络》www.bbbdata.com
本文展示概率神经网络是怎么构建的,以及具体是怎么使用的
进一步更具体的掌握概率神经网络的应用
基本与广义神经网络一致,只是最后做一层compet.
本节展示构建时的流程,和实际使用时的计算流程
概率神经网络-构建流程
构建需要的输入
构建广义回归神经网络需要的输入如下
👉X :训练样本的输入数据
👉y :训练样本的输出数据
👉spread :径向基的扩展参数
构建流程
构建广义回归神经网络几乎不需要计算,
只需把训练数据对应保存为以下变量即可:
W21(输入层-->隐层权重):用 X 作为 W21即可
B2(隐层阈值):用spread生成,
W32(隐层-->输出层层权重):用y作为w32即可
✍️备注
该流程与广义回归神经网络的构建一模型一样
概率神经网络-使用流程
计算网络输出的公式参考如下Demo:
👉本公式仅作为参考,并非真实计算公式
1.计算各个隐节点的输出
即计算各个exp的值
先计算它到W21各列(也即X中的各个训练样本)的距离,再将距离乘以B2(即a),
再经激活函数转换(即套上径向基函数),这样就得到隐节点的输出
2.计算输出
W32(即训练数据的y)乘以隐节点(即y乘以权重),
compet后就是最终的输出
✍️ PASS : 从概率角度理解广义回归
我们也可以从概率的角度去理解整个计算过程
1. 计算新输入到各个训练样本的距离
2. 根据距离,计算新输入属于各个训练样本的概率
3. 根据概率和各个样本的输出,求新输入对应的期望输出
4. 最后通过compet,把概率转换成one-hot形式即可
编后语
使用阶段的计算流程没有用十分严谨的数学公式描述
这是因为使用数学公式会使得整个理解非常晦涩
如果有细节不明,直接参考代码即可
End