模型下载
我们提供两种方式下载模型:克隆仓库和使用 huggingface_hub/transfomers/diffusers 库直接使用。
克隆仓库
请参考克隆仓库文档,做好必要设置后,即可克隆仓库到本地。
使用 huggingface_hub/transfomers/diffusers 库下载或本地模型推理
我们对 Huggingface 模型下载相关 API 进行了适配,只需要配置合适的环境变量 HF_ENDPOINT
和 HF_HOME
,即可使用 HuggingfaceHub/Transfomers/Diffusers 库直接下载使用 Gitee AI 上的模型。
1. 设置环境变量 (二选一)
- 可以在执行脚本前设置环境变量:
export HF_ENDPOINT=https://hf-api.gitee.com
export HF_HOME=~/.cache/gitee-ai
- 或者,在要执行的 python 代码 头部 粘贴以下代码:
import os
os.environ["HF_HOME"] = "~/.cache/gitee-ai"
os.environ["HF_ENDPOINT"] = "https://hf-api.gitee.com"
下载私有模型时,请使用 Gitee 私人令牌 设置环境变量 HF_TOKEN,然后再执行下载代码
export HF_TOKEN=<Gitee 私人令牌>
提示
在 Gitee AI 应用 中,无需修改 环境变量 HF_ENDPOINT
,默认即内网高速下载。
2. 下载模型或本地模型推理
from huggingface_hub import hf_hub_download
hf_hub_download("hf-models/sdxl-turbo", "sd_xl_turbo_1.0.safetensors", local_dir="./models")
from transformers import pipeline
pipe = pipeline("text-generation", model="gpt2")
from diffusers import DiffusionPipeline
pipeline = DiffusionPipeline.from_pretrained("stabilityai/stable-diffusion-xl-base-1.0")