|
- 一文了解Transformer全貌(图解Transformer)
网上有关Transformer原理的介绍很多,在本文中我们将尽量模型简化,让普通读者也能轻松理解。 1 Transformer整体结构 在机器翻译中,Transformer可以将一种语言翻译成另一种语言,如果把Transformer看成一个黑盒,那么其结构如下图所示:
- 如何最简单、通俗地理解Transformer? - 知乎
Transformer最开始应用于NLP领域的机器翻译任务,但是它的通用性很好,除了NLP领域的其他任务,经过变体,还可以用于视觉领域,如ViT(Vision Transformer)。 这些特点让Transformer自2017年发布以来,持续受到关注,基于Transformer的工作和应用层出不穷。
- Transformer模型详解(图解最完整版) - 知乎
Transformer 的整体结构,左图Encoder和右图Decoder 可以看到 Transformer 由 Encoder 和 Decoder 两个部分组成,Encoder 和 Decoder 都包含 6 个 block。Transformer 的工作流程大体如下: 第一步: 获取输入句子的每一个单词的表示向量 X, X 由单词的 Embedding(Embedding就是从原始数据提取出来的Feature) 和单词位置的
- 如何从浅入深理解 Transformer? - 知乎
Transformer升级之路:1、Sinusoidal位置编码追根溯源 Transformer升级之路:2、博采众长的旋转式位置编码 猛猿:Transformer学习笔记一:Positional Encoding(位置编码) 解密旋转位置编码 解密旋转位置编码:数学基础、代码实现与绝对编码一体化探索_哔哩哔哩_bilibili
- 如何从浅入深理解 Transformer? - 知乎
在过去的文章里我们梳理过Transformer的整体架构,分析过它当中比较重要的组件,比如自注意力机制,但是我们发现真正构建系统化认知的关键,在于理解各个组件如何串联协作以及端到端的数据流。今天我们将开启Transformer架构深度解析系列的上篇,化身“数据导游”,带你亲历编码器(Encoder)的
- Transformer 和 cnn 是两条差异巨大的路径吗? - 知乎
Transformer 和 CNN,真的是两条差异巨大的路径吗? 两者设计逻辑不一样,但目标一致——让机器看懂东西 CNN 是图像领域的老炮,靠“局部感知+权值共享”吃饭。 简单说,它专注于看图像的局部细节,就像你拿着放大镜逐块拼图,看得又快又省力。
- 如何评价NeurIPS 2025论文Credal Transformer 对幻觉 . . . - 知乎
如何评价NeurIPS 2025论文Credal Transformer 对幻觉问题的解决思路? 话题收录 NIPS2025 该论文针对现有 Transformer 架构可能导致LLM幻觉的问题提出了新的解决思路 [图片] 显示全部 关注者 109 被浏览
- 挑战 Transformer:全新架构 Mamba 详解
而就在最近,一名为 Mamba 的架构似乎打破了这一局面。 与类似规模的 Transformer 相比, Mamba 具有 5 倍的吞吐量, 而且 Mamba-3B 的效果与两倍于其规模的 Transformer 相当。 性能高、效果好,Mamba 成为新的研究热点。
|
|
|