> 技术文档 > 本地运行stable-diffusion3.5_stable-diffusion-3.5-large-turbo

本地运行stable-diffusion3.5_stable-diffusion-3.5-large-turbo


本地运行stable-diffusion3.5

  • 本地运行stable-diffusion3.5
    • 准备工作
      • 下载ComfyUI 和需要的模型文件
        • 需要下载以下几类SD3.5 文件
    • 启动ComfyUI
      • 启动
      • 工作流中分别选中三个Clip 模型
    • sd3.5_large_turbo
      • 准备

本地运行stable-diffusion3.5

AI 时代不可阻挡,给老机器加了个4060 16G 显卡,尝试本地运行stable-diffusion3.5。

准备工作

先尝试UI 手动跑跑看,ComfyUI 推荐的比较多,首先尝试在ComfyUI 里面跑。

下载ComfyUI 和需要的模型文件

第一次模型尝试,先下载:https://github.com/comfyanonymous/ComfyUI/releases/latest/download/ComfyUI_windows_portable_nvidia.7z

下载之后解压到本地目录。

从资料看16G 的显存应该可以跑stable-diffusion-3.5-large, 外网访问Hugging Face 可以下载,需要登录,但是代理一般的话,总是失败。

国内可以从魔塔社区下载:https://www.modelscope.cn/models/AI-ModelScope/stable-diffusion-3.5-large。速度快很多,而且不容易因为网络问题出现文件损坏的情况。

需要下载以下几类SD3.5 文件

模型文件:sd3.5_large.safetensors
下载之后放到ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints中

Clip模型文件
魔塔社区中的位置是text_encoders目录下,有三个文件:

  • clip_g.safetensors
  • clip_l.safetensors
  • t5xxl_fp8_e4m3fn.safetensors

下载之后,放到ComfyUI_windows_portable\\ComfyUI\\models\\clip

工作流配置文件
SD3.5L_example_workflow.json

这个下载好后,等启动ComfyUI 之后,拖到浏览器中就可以。

启动ComfyUI

启动

有nvidia显卡,双击run_nvidia_gpu.bat启动。这一步据说需要提前安装其他显卡相关的东西,我以前弄显卡的时候,下载过相关的包。具体哪些不记得了,启动没有任何问题。会自动打开浏览器,访问http://127.0.0.1:8188/

把上面的SD3.5L_example_workflow.json拖到这个页面中就可以。

在工作流中分别选中三个Clip 模型

  1. clip_g.safetensors
  2. clip_l.safetensors
  3. t5xxl_fp8_e4m3fn.safetensors

在CLIP文本编码(提示)中输入自己的提示词,点击最下方的执行,等待一段时间看到图片预览就算成功了。

预览的图片可以右击下载到本地。

sd3.5_large_turbo

我的机器有点旧,large 模型跑一张图片需要 2.6 到4.6 分钟,尝试以下larg turbo。

准备

下载sd3.5_large_turbo.safetensors 放到ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints里面

重新启动run_nvidia_gpu.bat。

把SD3.5L_Turbo_example_workflow.json 拖进去,修改模型文件中的clip 模型文件。

重新跑,第一次好像确实有一倍提升,第二次跑速度快多了!