自学内容网 自学内容网

通过LlaMA-Factory导出的模型部署到Ollama

LlaMA-Factory导出的模型转换格式
仓库地址:https://github.com/ggerganov/llama.cpp

git clone仓库之后,下载相关依赖:

cd /opt/gl/llama.cpp-master/llama.cpp-master
pip install -r requirements.txt

转换大模型格式
转换为gguf格式

 python convert_hf_to_gguf.py /opt/gl/model/lin_model --outfile /opt/gl/model/lin_model.gguf --outtype q8_0

创建ModelFile文件

FROM D:\ollama\models\lin_model\lin_model.gguf

添加自定义模型

ollama create lin_model -f D:\ollama\models\lin_model\ModelFile

查看本地模型
在这里插入图片描述
运行本地大模型

ollama run lin_model:latest

原文地址:https://blog.csdn.net/qq_35175478/article/details/145028222

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!