/dp
首页
机器学习
评分卡
神经网络
深度学习
知识仓库
饼饼饼
VIP开通
关闭
用户登录
忘记密码?
注册
登录
首页
/
深度学习
/
transformer原理详细教程
transformer原理详细教程
Encoder-Decoder与Attention
1.1.RNN与注意力、编解码
【介绍】RNN编解码模型
【模型】RNN编解码模型-基本模型
【模型】RNN编解码模型-带上下文
【模型】RNN编解码模型-带Attention上下文
1.2.Attention注意力机制
【原理】什么是注意力机制Attention
【原理】加性注意力(Additive Attention)
【原理】点积注意力(Dot-product Attention)
【原理】自注意力(Self-Attention)
【原理】多头注意力(MutiHead-Attention)
Transfomer模型
2.1.Tranformer模型详解
【原理】Transformer讲解
【细节】TransFomer-Attention子层
【模块】Transformer-FF前馈层
【附件】Transformer中的位置编码
附件
3.1.层归一化
【模型】一篇入门之-层归一化是什么LN
3.2.带Attention的Encoder-Decoder模型(原文模型)
【模型】GRU论文中的Encoder-Decoder模型
【模型】带Attention的Encoder-Decoder模型-原文模型
【细节】TransFomer-Attention子层
作者 : 老饼
发表日期 : 2024-03-12 05:51:24
更新日期 : 2024-10-31 04:24:57
会员文章,
请先
登录
哦
内容纠正