自学内容网 自学内容网

ch1-书生浦语大模型全链路开源体系介绍

ch1-书生浦语大模型全链路开源体系介绍

书生浦语大模型全链路开源体系

视频链接:https://www.bilibili.com/video/BV1Rc411b7ns/?vd_source=b96c7e6e6d1a48e73edafa36a36f1697

首先简单介绍了一下大模型成为了热门关键词,以及大模型正成为发展通用人工智能的重要途径,然后就引入了书生浦语大模型的开源历程。目前,书生浦语大模型系列主要包括三个系列

  • 轻量级:InternLM-7B
  • 中量级:InternLM-20B
  • 重量级:InternLM-123B

号称全面领先相近量级的开源模型,以不足三分之一的参数量达到Llama2-70B的水平。

中间简单说了一下从模型到应用的几个关键步骤,从而引入了书生浦语全链条开源开放体系:

  • 数据:书生万卷,2TB数据,涵盖多种模态与任务
  • 预训练:InternLM-Train,并行训练,极致优化
  • 微调:XTuner,支持全参数微调,支持LoRA等低成本微调
  • 评测:OpenCompass开源评测平台架构
  • 部署:LMDeploy提供大模型在GPU上部署的全流程解决方案,包括模型轻量化、推理和服务。
  • 智能体:
    • Lagent,轻量级智能体框架
    • AgentLego,多模态智能体工具箱

全链条开源开放体系|数据

在这里插入图片描述
在这里插入图片描述

全链条开源开放体系|预训练

在这里插入图片描述

全链条开源开放体系|微调

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

全链条开源开放体系|评测

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

全链条开源开放体系|部署

大语言模型特点主要有:

  • 内存开销巨大
    • 庞大的参数量
    • 采用自回归生成token,需要缓存k/v
  • 动态Shape
    • 请求数不固定
    • token逐个生成,且数量不足
  • 模型结构相对简单
    • transformer结构,大部分是decoder-only

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

全链条开源开放体系|智能体

大语言模型的局限性

  • 最新信息和知识的获取
  • 回复的可靠性
  • 数学计算
  • 工具使用和交互

从LLM到智能体:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


原文地址:https://blog.csdn.net/fangsfdavid/article/details/136099584

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!