> 技术文档 > 「Mac畅玩AIGC与多模态03」部署篇02 - 在 Mac 上部署 Dify_mac部署dify

「Mac畅玩AIGC与多模态03」部署篇02 - 在 Mac 上部署 Dify_mac部署dify


一、概述

本篇介绍如何在 macOS 环境下本地部署 Dify 平台,作为多模型协同与工作流集成的可视化应用服务。Dify 提供了模型调用、对话管理、知识库问答、插件服务等功能,可与 Ollama、OpenAI、DeepSeek 等推理后端集成,适用于本地智能体应用的快速搭建与扩展。

二、部署流程

1. 环境准备

  • 启动 Docker Desktop(已在部署篇01中安装):

点击菜单栏中的 🐳 图标,确保 Docker Desktop 正常运行:

docker info
  • 准备本地运行目录:
mkdir -p ~/difycd ~/dify
  • 拉取官方 Docker Compose 项目:
git clone https://github.com/langgenius/dify.gitcd dify/docker

💡 如出现如下错误,说明终端未配置代理环境:

git clone https://github.com/langgenius/dify.git正克隆到 \'dify\'...致命错误:无法访问 \'https://github.com/langgenius/dify.git/\':Failed to connect to github.com port 443 after 27 ms: Couldn\'t connect to server

请临时配置代理后再次执行:

export http_proxy=http://127.0.0.1:7890export https_proxy=http://127.0.0.1:7890git clone https://github.com/langgenius/dify.gitcd dify/docker
  • 准备 .env 配置文件(必须存在):
cp .env.example .env

然后根据需要调整 .env 中的数据库、Redis 地址等配置项。

💡 .env 文件缺失或配置错误将导致容器启动失败。

「Mac畅玩AIGC与多模态03」部署篇02 - 在 Mac 上部署 Dify_mac部署dify

2. 修改配置文件

修改 docker-compose.yaml 文件中 Dify 后端的模型服务地址:

找到配置:

OPENAI_API_BASE: ${OPENAI_API_BASE:-https://api.openai.com/v1}

替换为本地 Ollama 服务地址:

OPENAI_API_BASE: http://localhost:11434/v1

💡 若 .env 文件中存在 OPENAI_API_KEY,建议同步修改为任意非空字符串(如 dify)。

3. 启动 Dify 服务

执行以下命令启动 Dify:

docker compose up -d

💡 首次启动将拉取镜像并构建容器,时间较长,请耐心等待。 💡 若提示端口占用或冲突,可提前释放对应端口,或在 docker-compose.yaml 中调整端口映射。

4. 访问 Dify 页面

  • 默认端口访问:
http://localhost
  • 如调整端口(例如 8181:80),访问:
http://localhost:8181

首次访问将进入注册页面,设置管理员账户后进入后台管理界面。

💡 若页面无法打开,可通过以下方式排查:

  • 查看容器状态:
docker ps
  • 检查端口监听状态
  • 尝试使用本机 IP 地址访问

「Mac畅玩AIGC与多模态03」部署篇02 - 在 Mac 上部署 Dify_mac部署dify

5. 配置模型服务

进入后台管理页面,导航至「模型供应商」,安装「OpenAI-API-compatible」插件。

「Mac畅玩AIGC与多模态03」部署篇02 - 在 Mac 上部署 Dify_mac部署dify

  • 进入「OpenAI-API-compatible」插件,点击「添加模型」。

填写信息:

  • 模型类型:选择「LLM」
  • 模型名称:填写已拉取的模型名,如 deepseek-r1:1.5b、qwen2.5:0.5b
  • API Key:填写任意非空字符串,如 dify
  • 接口地址:填写本机 IP 地址加端口,例如:
http://192.168.1.37:11434/v1

⚠️ 注意:不可使用 localhost,容器无法解析宿主机 localhost

  • 启用 Stream Function Calling:选择「支持」

填写示例:

「Mac畅玩AIGC与多模态03」部署篇02 - 在 Mac 上部署 Dify_mac部署dify

「Mac畅玩AIGC与多模态03」部署篇02 - 在 Mac 上部署 Dify_mac部署dify

「Mac畅玩AIGC与多模态03」部署篇02 - 在 Mac 上部署 Dify_mac部署dify

点击保存,Dify 将自动验证接口。

💡 若出现如下错误提示:

An error occurred during credentials validation: HTTPConnectionPool(host=\'192.168.1.37\', port=11434): Max retries exceeded with url: /v1/chat/completions

请按以下步骤排查:

  • 清除代理环境变量:
unset http_proxyunset https_proxy
  • 确认本地 Ollama 服务已正常运行:
ollama run deepseek-r1:1.5b

配置完成后,系统模型列表如下所示:

「Mac畅玩AIGC与多模态03」部署篇02 - 在 Mac 上部署 Dify_mac部署dify

  • 再点击「系统模型设置」,添加配置好的模型:

「Mac畅玩AIGC与多模态03」部署篇02 - 在 Mac 上部署 Dify_mac部署dify

6. 资源释放

停止 Dify 服务并释放容器资源:

docker compose down

如需停止本地模型服务(Ollama):

killall ollama

三、总结

通过本篇部署流程,已完成在 macOS 环境下基于 Docker 启动 Dify 服务,并成功接入本地 Ollama 推理接口,构建具备多模型协作与智能体开发能力的 AIGC 平台。Dify 支持统一接入多个推理后端,适合用于知识库问答、智能工作流、插件系统与 Agent 应用开发。

大浪论坛