1.3 Model Download
本小节主要介绍模型下载事情,如何更快更好地下载的模型
1.0 直接下载模型
ollama run llama3.1
可以直接使用以上命令进行模型的下载

可以下载更多的本地的模型
2.0 使用modelscope进行下载
首先需要配置mac 电脑python 环境,这里我们建议使用pyenv 进行安装,首先可以查看python的版本。

这里我们为了避免python环境的混乱,我们可以使用docker 镜像下pyhon 进行模型的下载。
最终命令:
假设镜像兼容性通过验证,你可以直接运行以下命令:
docker run -d --name=downloader -v "$(pwd)":/models python:3.10-slim tail -f /etc/hosts


启动docker 创建交互式的Bash shell
docker exec -it downloader bash
这个命令会执行以下操作:
在名为
downloader
的运行中的容器内启动一个交互式的Bash shell。你将进入容器的Bash终端,可以像在普通终端中一样输入和执行命令。
在mac 下的安装modelscope 包
创建models目录(如果尚未存在)
mkdir -p ~/models
切换到models目录
cd ~/models
设置pip的全局包索引URL为清华大学的镜像源
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
安装modelscope包
pip install modelscope
接下来直接下载llama3.1 开源模型以及模型的下载地址
python -c "from modelscope import snapshot_download;snapshot_download('LLM-Research/Meta-Llama-3.1-8B-Instruct', cache_dir='./models/')"


我们可以看到文件已经下载完成,并且文件也同时是完整的。
Last updated