本站原创文章,转载请说明来自《老饼讲解-BP神经网络》www.bbbdata.com
本文展示广义回归神经网络是怎么构建的,以及具体是怎么使用的
进一步更具体的掌握广义回归神经网络的应用
本节展示构建时的流程,和实际使用时的计算流程
构建流程
构建需要的输入
构建广义回归神经网络需要的输入如下
👉X :训练样本的输入数据
👉y :训练样本的输出数据
👉spread :径向基的扩展参数
构建流程
构建广义回归神经网络几乎不需要计算,
只需把训练数据对应保存为以下变量即可:
W21(输入层-->隐层权重):用 X 作为 W21即可
B2(隐层阈值):用spread生成,
W32(隐层-->输出层层权重):用y作为w32即可
使用阶段
计算网络输出的公式参考如下Demo:
👉本公式仅作为参考,并非真实计算公式
1.计算各个隐节点的输出
即计算各个exp的值
先计算它到W21各列(也即X中的各个训练样本)的距离,再将距离乘以B2(即a),
再经激活函数转换(即套上径向基函数),这样就得到隐节点的输出
2.隐节点归一化
归一化隐节点= 各个隐节点/(所有隐节点的和)
3.最终输出
W32(即训练数据的y)乘以归一化后的隐节点(即y乘以权重)
求和后就是最终的输出
✍️ PASS : 从概率角度理解广义回归
我们也可以从概率的角度去理解整个计算过程
1. 计算新输入到各个训练样本的距离
2. 根据距离,计算新输入属于各个训练样本的概率
3. 根据概率和各个样本的输出,求新输入对应的期望输出
编后语
使用阶段的计算流程没有用十分严谨的数学公式描述
这是因为使用数学公式会使得整个理解非常晦涩
如果有细节不明,直接参考代码即可
End