自学内容网 自学内容网

书生·浦语作业集合

目录:
1. Linux基础知识
2.python基础知识
3.Git基础知识
4.书生大模型全链路开源体系

=====================================================================

1.1-Linux基础知识

配置环境后,运行 hello_word.py
在这里插入图片描述

在本地终端中进行端口映射
在这里插入图片描述
映射成功后,访问 127.0.0.1:7860
在这里插入图片描述

1.2-python基础知识

任务1:实现wordcount函数
在这里插入图片描述
任务2:通过VScode,debug wordcount.py文件
远程连接服务器后,确认服务器端安装好python插件,随后打断点,进行debug,debug过程如下
在这里插入图片描述

1.3-git基础知识

1.破冰行动-自我介绍
1.首先把项目仓库fork到自己仓库

在这里插入图片描述

2.通过git clone到本地
在这里插入图片描述
3.创建自定义分支并切换到自定义的新分支
在这里插入图片描述
4.创建自我介绍文件并上传

在这里插入图片描述

2.创建git仓库并添加介绍

创建的仓库连接
在这里插入图片描述

1.4-书生大模型全链路开源体系

书生大模型已经开源一周年,能处理1M超长上下文,互联网搜索和信息整合等复杂任务,大海捞针测试中,1百万token中获得全绿表现,能够调用搜索引擎,从海量搜索结果中,进行筛选和总结,回答相关问题,现在共有4个版本,其中有1.8B,7B,20B,102B模型,20B模型出现了涌现的现象(自我基于数据集生成),从数据集到微调工具等进行了全开源。

数据集方面

1.miner u: pdf文档提取工具
2. Label LLM: llm对话标注,能实现多人协作,任务管理等
3. label U: 轻量级开源图像标注工区,支持图像,视频,音频等

微调框架 XTuner

支持QLoRA微调, LoRA微调, 使用训练引擎为MMengine,解决显存

智能体

支持多种大语言模型,GPT3.5/4, InternLM, Llama等

1.5-8G显存玩转书生大模型demo

1.激活自带环境
在这里插入图片描述
2.部署InternLM2-Chat-1.8B ,创建demo并运行,交互
在这里插入图片描述
3.部署 InternLM2-Chat-1.8B 模型
在这里插入图片描述
启动streamlit服务
在这里插入图片描述
本地启动端口映射
在这里插入图片描述
在服务器中启动服务
在这里插入图片描述
4. 部署InternLM-XComposer2-VL-1.8B模型
在这里插入图片描述

1.5-LangGPT结构化提示词编写实践

1.使用LMDeploy进行部署
在这里插入图片描述

2.运行测试脚本,测试InternLM2-chat-1_8b模型并测试是否部署成功

在这里插入图片描述
3.启动图形化界面
在这里插入图片描述
完成相关数字比较任务
在这里插入图片描述

提示工程

增加提示词,并使用langgpt回答相关问题
在这里插入图片描述


原文地址:https://blog.csdn.net/BruceBorgia/article/details/142379217

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!