> 技术文档 > 访问不到服务器上启动的llamafactory-cli webui

访问不到服务器上启动的llamafactory-cli webui

采用SSH端口转发有效,在Windows上面进行访问

服务器上启动 llamafactory-cli webui 后,访问方式需根据服务器类型和网络环境选择以下方案:


一、本地服务器(物理机/虚拟机)

1. 直接访问

若服务器与操作设备处于同一局域网:

# 启动命令显示本地 URL(如 http://0.0.0.0:7860)浏览器访问 http://服务器内网IP:7860

注意:需确保服务器防火墙开放了 7860 端口。


二、云服务器/远程开发环境

1. SSH 端口转发(推荐)

通过 SSH 隧道将本地端口与服务器端口绑定:

# 通用命令格式(替换 YOUR_SERVER_IP 和 SSH_PORT)ssh -CNg -L 7860:127.0.0.1:7860 root@YOUR_SERVER_IP -p SSH_PORT

操作步骤

  1. 执行命令后输入服务器密码;
  2. 保持终端运行,浏览器访问 http://localhost:7860
  3. Mac/Linux 直接使用终端,Windows 需借助 MobaXterm 等工具。
2. 公共链接(需配置网络权限)

修改启动命令生成可分享链接:

llamafactory-cli webui --share # 生成临时公共 URL

可能报错处理
• 若提示缺少 frpc 文件,需按日志指引下载并放置到指定路径;
• 赋予文件执行权限:chmod +x frpc_linux_amd64_v0.2


三、特殊环境适配

1. AutoDL 云平台

• 使用平台提供的 「自定义服务」 功能:

  1. 点击控制台「自定义服务」;
  2. 复制 SSH 隧道命令并执行(自动处理端口映射);
  3. 访问 http://localhost:7860
2. 容器化部署

若通过 Docker 运行:

# 启动时映射端口docker run -p 7860:7860 ...

浏览器访问宿主机 IP + 7860 端口。


四、常见问题排查

  1. 连接超时
    • 检查服务器安全组/防火墙是否放行 7860 端口;
    • 确认 llamafactory-cli webui 进程未中断(可用 nohup 后台运行)。

  2. 权限不足
    • 非 root 用户运行时添加 --server-name 0.0.0.0 参数。

  3. 多用户并发
    • 通过 Nginx 反向代理实现负载均衡。


操作验证

# 查看端口监听状态(服务器端)netstat -tuln | grep 7860

若输出包含 LISTEN 则服务已就绪。

建议优先使用 SSH 端口转发方案,兼顾安全性与便捷性。具体命令参数需根据实际服务器 IP 和端口调整。

济南医保