【AI 进阶笔记】注意力机制及 Transformer 讲解

【AI 进阶笔记】注意力机制及 Transformer 讲解

引言在自然语言处理(NLP)领域,长久以来我们一直依赖于序列到序列(Seq2Seq)模型来解决翻译、文本生成等问题。传统上,RNN(循环神经网络)和 LSTM(长短期记忆网络)是最常见的模型。然而,这些模型的计算过程非常依赖顺序,无法并行化

4小时前10