/text/1030
首页
机器学习
神经网络
深度学习
视频
资料
VIP开通
饼饼饼
关闭
用户登录
忘记密码?
注册
登录
RNN-循环神经网络
RNN入门教程
一、基础RNN
1.1.基础RNN原理介绍
【原理】Jordan神经网络与Elman神经网络
【原理】基础RNN循环神经网络
【推导】RNN的梯度计算(BPTT)
【流程】RNN-梯度计算流程(BPTT)
【推导】RNN的梯度计算方式(RTRL)
1.2.基础RNN的常见应用
【应用】Seq2Seq问题与RNN-Encoder-Decoder模型
【应用】RNN应用时的多种结构
【应用】什么是带延迟输出的RNN
1.3.RNN实现案例
【代码】RNN案例-Nv1模型-预测下一个时刻的输出
【代码】RNN案例-1vN模型-预测未来多个时刻的输出
【代码】RNN案例-NvN模型-预测未来多个时刻的输出
【代码】RNN案例-Encoder-Decoder-预测未来多个时刻的输出
二、进阶RNN
2.1.进阶RNN模型介绍
【原理】LSTM长短期记忆网络
【解读】为什么需要LSTM
【原理】GRU门控循环神经网络
【原理】BRNN双向循环神经网
【原理】DRNN深度循环神经网络
【原理】LN层归一化
Transfomer
一、Encoder-Decoder与Attention
1.1.带Attention的Encoder-Decoder模型
【介绍】RNN与Encoder-Decoder模型
【模型】RNN-Encoder-Decoder模型(基本模型)
【模型】RNN-Encoder-Decoder模型(带上下文)
【模型】RNN-Encoder-Decoder模型(带Attention上下文)
1.2.带Attention的Encoder-Decoder模型(原文模型)
【模型】GRU论文中的Encoder-Decoder模型
【模型】带Attention的Encoder-Decoder模型-原文模型
1.3.Attention注意力机制
【原理】什么是注意力机制Attention
【原理】基本Attention-加性注意力
【原理】基本Attention-点积与缩放点积注意力
【原理】拓展Attention-自注意力-Self-Attention
【原理】拓展Attention-多头注意力-MutiHead-Attention
二、Transfomer模型
2.1.Tranformer模型详解
【原理】Transformer讲解
【细节】TransFomer-Attention子层
【模块】Transformer-FF前馈层
【附件】Transformer中的位置编码
/
深度学习
/
RNN入门教程
【推导】RNN的梯度计算(BPTT)
作者 : 老饼
发表日期 : 2024-04-05 00:57:13
更新日期 : 2024-04-18 07:28:40
会员文章,
请先登录哦
联系老饼