> 技术文档 > LM Studio 教程:通过暴露本地端口实现局域网内客户端调用(LM Studio 作为本地 LLM API 服务器)_lm studio 局域网

LM Studio 教程:通过暴露本地端口实现局域网内客户端调用(LM Studio 作为本地 LLM API 服务器)_lm studio 局域网

LM Studio 教程:通过暴露本地端口实现局域网内客户端调用(LM Studio 作为本地 LLM API 服务器)_lm studio 局域网


links:

https://lm-studio.cn/docs/api

LM Studio 可以像 Ollama 一样通过暴露本地端口实现局域网内客户端调用。以下是具体实现方式和技术细节:

1. 核心功能支持

LM Studio 的 开发者选项卡 提供了完整的本地 API 服务器功能,支持以下配置:

  • 端口暴露:默认使用 1234 端口,可自定义修改(需注意端口冲突问题)3
  • 局域网访问:勾选 “在局域网内提供服务” 选项后,服务器会监听所有网络接口(0.0.0.0),允许其他设备通过 IP 地址访问34
  • 跨域支持:启用 CORS 后,可对接网页应用或其他客户端工具3

2. 配置步骤

实现局域网调用的具体操作流程:

  1. 启动服务端

    • 在 LM Studio 的 “开发者” 选项卡中选择模型
    • 勾选 “在局域网内提供服务” 并设置端口(如 1234)3
    • 点击 “启动服务” 按钮,控制台会显示运行日志和访问地址(如 http://:1234)3
  2. 客户端调用

    • 其他设备可通过以下方式访问:
      # 示例:使用 curl 调用聊天接口curl http://<本机IP>:1234/v1/chat/completions \\ -H \"Content-Type: application/json\" \\ -d \'{\"messages\": [{\"role\": \"user\", \"content\": \"你好\"}], \"model\": \"\"}\'
    • 支持 OpenAI 兼容的 API 格式(包括 /v1/chat/completions/v1/completions 等端点)13
  3. 防火墙配置(Windows 系统):

    • 需在防火墙入站/出站规则中开放对应端口(如 1234)5

3. 与 Ollama 的对比

特性 LM Studio Ollama 协议兼容性 OpenAI API 兼容 自有 API 格式 界面操作 图形界面一键配置 需命令行操作 多模型支持 需手动加载不同模型 支持 Modelfile 动态切换 日志管理 内置日志记录(可记录提示与响应)3 需自行配置日志工具

4. 典型应用场景

  • 多人协作开发:团队成员通过局域网共享同一模型服务2
  • 跨设备调用:手机/平板通过浏览器或 Open WebUI 访问本地模型2
  • 自动化流程:对接 VS Code 插件或其他 AI 工具链1

注意:如果遇到连接问题,需检查以下三点:

  1. LM Studio 服务端是否已勾选局域网选项
  2. 防火墙是否开放对应端口
  3. 客户端是否使用正确的 IP 地址(可通过 ipconfig/ifconfig 查看本机局域网 IP)35