1.3 Model Download
本小节主要介绍模型下载事情,如何更快更好地下载的模型
Last updated
本小节主要介绍模型下载事情,如何更快更好地下载的模型
Last updated
ollama run llama3.1
可以直接使用以上命令进行模型的下载
可以下载更多的本地的模型
首先需要配置mac 电脑python 环境,这里我们建议使用pyenv 进行安装,首先可以查看python的版本。
这里我们为了避免python环境的混乱,我们可以使用docker 镜像下pyhon 进行模型的下载。
假设镜像兼容性通过验证,你可以直接运行以下命令:
docker exec -it downloader bash
这个命令会执行以下操作:
在名为downloader
的运行中的容器内启动一个交互式的Bash shell。
你将进入容器的Bash终端,可以像在普通终端中一样输入和执行命令。
创建models目录(如果尚未存在)
mkdir -p ~/models
切换到models目录
cd ~/models
设置pip的全局包索引URL为清华大学的镜像源
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
安装modelscope包
pip install modelscope
python -c "from modelscope import snapshot_download;snapshot_download('LLM-Research/Meta-Llama-3.1-8B-Instruct', cache_dir='./models/')"
我们可以看到文件已经下载完成,并且文件也同时是完整的。