跳到主要内容

模型下载

我们提供两种方式下载模型:克隆仓库和使用 huggingface_hub/transfomers/diffusers 库直接使用。

克隆仓库

请参考克隆仓库文档,做好必要设置后,即可克隆仓库到本地。

使用 huggingface_hub/transfomers/diffusers 库下载或本地模型推理

我们对 Huggingface 模型下载相关 API 进行了适配,只需要配置合适的环境变量 HF_ENDPOINTHF_HOME,即可使用 HuggingfaceHub/Transfomers/Diffusers 库直接下载使用 Gitee AI 上的模型。

1. 设置环境变量 (二选一)

  • 可以在执行脚本前设置环境变量:
export HF_ENDPOINT=https://hf-api.gitee.com
export HF_HOME=~/.cache/gitee-ai
  • 或者,在要执行的 python 代码 头部 粘贴以下代码:
import os
os.environ["HF_HOME"] = "~/.cache/gitee-ai"
os.environ["HF_ENDPOINT"] = "https://hf-api.gitee.com"

下载私有模型时,请使用 Gitee 私人令牌 设置环境变量 HF_TOKEN,然后再执行下载代码

export HF_TOKEN=<Gitee 私人令牌>
提示

Gitee AI 应用 中,无需修改 环境变量 HF_ENDPOINT ,默认即内网高速下载。

2. 下载模型或本地模型推理

huggingface_hub:

from huggingface_hub import hf_hub_download
hf_hub_download("hf-models/sdxl-turbo", "sd_xl_turbo_1.0.safetensors", local_dir="./models")

transformers:

from transformers import pipeline
pipe = pipeline("text-generation", model="gpt2")

diffusers:

from diffusers import DiffusionPipeline
pipeline = DiffusionPipeline.from_pretrained("stabilityai/stable-diffusion-xl-base-1.0")