> 技术文档 > 若依框架二次开发——RuoYi-AI 集成本地大模型_ruoyi ai

若依框架二次开发——RuoYi-AI 集成本地大模型_ruoyi ai


文章目录

  • 前提条件
    • 1. RuoYi-AI 已成功部署并运行
    • 2. Ollama 本地大模型已安装
  • 1. 配置本地大模型
  • 2. 切换至本地模型
  • 3. 开始对话
  • 总结

本文将详细介绍如何在 RuoYi-AI 中集成本地 Ollama 大模型,使系统能够在 离线环境 下提供智能对话能力。

前提条件

在开始集成本地大模型之前,请确保满足以下要求:

1. RuoYi-AI 已成功部署并运行

如果尚未完成本地环境搭建,请参考:RuoYi-AI 本地部署流程。

2. Ollama 本地大模型已安装

Ollama 是一款支持本地部署的 AI 大模型推理框架,需先安装并下载相应的模型文件。
若尚未安装,可参考:Ollama 简介以及安装。

通过ollama list查看本地模型