自学内容网 自学内容网

LLM 的储备知识

GPT一代

  • 模型堆叠了12个解码器层。由于在这种设置中没有编码器,这些解码器层将不会有普通transformer解码器层所具有的编码器-解码器注意力子层。但是,它仍具有自注意力层。

在这里插入图片描述
训练过程
在这里插入图片描述
Transformer Decoder 结构
在这里插入图片描述

  • 编码器(6 layers)
    • 多头自注意神经网络
    • 全连接神经网络
    • Residual Connections and Layer Normalization

  • 解码器(6 layers
    • 掩码多头自注意神经网络
    • 多头注意力机制
    • 全连接神经网络
    • Residual Connections and Layer Normalization
    n Softmax层权值矩阵与目标语言词向量矩阵共享参数。

在这里插入图片描述


原文地址:https://blog.csdn.net/weixin_55982578/article/details/140519612

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!