M2 运行 llamafile
安装llamafile很简单,进入官网,按照步骤安装运行即可。
https://github.com/Mozilla-Ocho/llamafile
- 下载 llava-v1.5-7b-q4.llamafile
- 赋予运行权限chmod +x llava-v1.5-7b-q4.llamafile
- 运行 ./llava-v1.5-7b-q4.llamafile -ngl 9999
速度确实是比 ollama 快,ollama 用 qwen 1.5 7B 的模型。llamafile运行的是LLaVA 1.5,也是 7B 模型。下次试试能不能把 qwen 模型接入。
运行时遇到了一个问题
the cpu feature AVX was required at build time but isn’t available on this system,解决这个问题,首先用 arm64 的 shell,然后用 root 启动 llamafile。
arch -arm64 sh
su
./llava-v1.5-7b-q4.llamafile -ngl 9999
原文地址:https://blog.csdn.net/hawk2014bj/article/details/137696646
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!