Page cover image

1.3 Model Download

本小节主要介绍模型下载事情,如何更快更好地下载的模型

1.0 直接下载模型

ollama run llama3.1

可以直接使用以上命令进行模型的下载

可以下载更多的本地的模型

https://ollama.com/library

2.0 使用modelscope进行下载

首先需要配置mac 电脑python 环境,这里我们建议使用pyenv 进行安装,首先可以查看python的版本。

这里我们为了避免python环境的混乱,我们可以使用docker 镜像下pyhon 进行模型的下载。

最终命令:

假设镜像兼容性通过验证,你可以直接运行以下命令:

docker run -d --name=downloader -v "$(pwd)":/models python:3.10-slim tail -f /etc/hosts

启动docker 创建交互式的Bash shell

docker exec -it downloader bash

这个命令会执行以下操作:

  1. 在名为downloader的运行中的容器内启动一个交互式的Bash shell。

  2. 你将进入容器的Bash终端,可以像在普通终端中一样输入和执行命令。

在mac 下的安装modelscope 包

创建models目录(如果尚未存在)

mkdir -p ~/models

切换到models目录

cd ~/models

设置pip的全局包索引URL为清华大学的镜像源

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

安装modelscope包

pip install modelscope

接下来直接下载llama3.1 开源模型以及模型的下载地址

python -c "from modelscope import snapshot_download;snapshot_download('LLM-Research/Meta-Llama-3.1-8B-Instruct', cache_dir='./models/')"

我们可以看到文件已经下载完成,并且文件也同时是完整的。

Last updated