> 技术文档 > 爆改Claude Code Router:让你的AI模型像打车一样随叫随到!

爆改Claude Code Router:让你的AI模型像打车一样随叫随到!


“你以为你在用Claude,其实你在用一群AI打工人轮班上岗。”
—— 一位被Claude Code Router惊呆的程序员


前言:AI打工人也要排班表

在AI圈子里,Claude、Gemini、DeepSeek、Qwen……这些大模型你方唱罢我登场,个个都想成为你的“最佳拍档”。可惜,现实往往是:

  • Claude太贵,钱包扁了;

  • Gemini上下文太短,聊两句就失忆;

  • DeepSeek便宜大碗,但有时慢得像蜗牛;

  • Qwen本地部署,省钱但智商有限。

你是不是也曾幻想过:
能不能像打车一样,按需切换AI模型?
比如:

  • 写代码用Claude,

  • 长文档交给Gemini,

  • 背景任务扔给Qwen,

  • 推理分析找DeepSeek……

Claude Code Router(CCR),就是为你实现这个梦想的神器!


一、Claude Code Router是什么?一句话总结

CCR = AI模型的“滴滴打车”系统。

它能把你发给Claude的请求,智能地“路由”到不同的AI模型上。你可以自定义规则,按需分配任务,甚至还能加插件魔改请求格式。
一句话:让每个AI模型各司其职,物尽其用,省钱省心还高效!


二、CCR能做什么?核心能力一览

  1. 多模型智能切换

    • 支持Claude、Gemini、DeepSeek、Qwen、Ollama等主流模型。

    • 一份配置文件,随心定义“谁干什么活”。

  2. 按场景路由

    • 长文档自动切Gemini,推理任务找DeepSeek,批量任务丢给Qwen……

    • 你只管提需求,CCR帮你选“最合适的打工人”。

  3. 命令行/插件灵活切换

    • 支持/model命令一键切换模型。

    • 插件系统可自定义请求格式、路由逻辑,适配各种API。

  4. GitHub Actions集成

    • 让AI自动参与PR、Issue评论,夜间低价时段自动批量处理任务,省钱又高效。

  5. 详细日志、图片/网页搜索支持

    • 方便调试,功能丰富,开发者友好。


三、CCR怎么玩?一站式上手指南

1. 安装

npm install -g @anthropic-ai/claude-codenpm install -g @musistudio/claude-code-router

2. 启动

ccr code

3. 配置路由(核心!)

编辑~/.claude-code-router/config.json,举个例子:

{  \"Providers\": [    {      \"name\": \"openrouter\",      \"api_base_url\": \"https://openrouter.ai/api/v1/chat/completions\",      \"api_key\": \"sk-xxx\",      \"models\": [        \"google/gemini-2.5-pro-preview\",        \"anthropic/claude-3.5-sonnet\"      ]    },    {      \"name\": \"deepseek\",      \"api_base_url\": \"https://api.deepseek.com/chat/completions\",      \"api_key\": \"sk-xxx\",      \"models\": [\"deepseek-chat\", \"deepseek-reasoner\"]    },    {      \"name\": \"ollama\",      \"api_base_url\": \"http://localhost:11434/v1/chat/completions\",      \"api_key\": \"ollama\",      \"models\": [\"qwen2.5-coder:latest\"]    }  ],  \"Router\": {    \"default\": \"deepseek,deepseek-chat\",    \"background\": \"ollama,qwen2.5-coder:latest\",    \"think\": \"deepseek,deepseek-reasoner\",    \"longContext\": \"openrouter,google/gemini-2.5-pro-preview\"  }}
路由规则解读
  • default:日常对话,优先用DeepSeek。

  • background:后台批量任务,交给本地Qwen,省钱省力。

  • think:需要推理分析时,找DeepSeek Reasoner。

  • longContext:上下文超长(>32K tokens),自动切Gemini。

4. 动态切换模型

在Claude Code里输入:

/model openrouter,anthropic/claude-3.5-sonnet

后续请求都用这个模型,随时切换,灵活如你!


四、CCR的“智慧大脑”:请求路由全流程揭秘

1. 请求拦截

  • 你以为Claude在和Anthropic官方服务器对话,其实请求都被CCR截胡,转发到本地localhost:3456

  • CCR分析请求内容、token数量、模型指令等,决定“派谁上场”。

2. Token分析

  • tiktoken等工具,精确计算每次请求的token数。

  • 包括消息内容、系统提示、工具定义、函数调用等,统统计数。

  • 这样才能判断:是普通对话?长文档?还是推理任务?

3. 智能路由决策

CCR的“调度算法”大致如下:

  • 用户强制指定:你用/model命令,优先按你说的来。

  • 超长上下文:token数>60,000,自动切到longContext模型(如Gemini)。

  • 后台任务:模型名带haiku,走background路由。

  • 推理任务:请求里有thinking标记,走think路由。

  • 默认:都不满足,走default。

4. 请求转化与转发

  • CCR根据目标模型API格式,自动转换请求体(比如Gemini和Claude的API参数不一样)。

  • 转发到对应模型的API,拿到响应后,再转成Claude兼容格式返回。

5. 错误兜底

  • 路由、token分析出错?CCR自动降级到默认模型,保证服务不中断。

  • 日志详细,方便排查问题。


五、CCR的“外挂系统”:插件机制让你随心魔改

1. 插件类型

  • 自定义路由插件:比如deepseek.js,你可以写自己的智能分流逻辑。

  • 请求重写插件:比如gemini.js,自动调整请求体结构,适配不同API。

2. 插件目录结构

$HOME/.claude-code-router/├── config.json└── plugins/    ├── deepseek.js    ├── gemini.js    └── custom-plugin.js

3. 插件开发模式

  • 按Express中间件风格写插件,导出function(req, res, next)

  • CCR自动加载,出错也不会影响主流程,安全可靠。

4. 插件能干啥?

  • 动态修改请求体,比如自动过滤不支持的参数、调整工具定义格式。

  • 实现更复杂的路由策略,比如按时间段、token消耗、用户ID分流。

  • 甚至可以接入自定义日志、监控、限流等功能。


六、CCR进阶玩法:省钱、省心、效率爆表

1. GitHub Actions自动化

  • 让Claude Code自动参与PR、Issue评论,AI帮你批量处理代码审查、文档生成。

  • 支持夜间低价时段自动跑批任务(比如DeepSeek凌晨打折,省钱到家)。

2. 超大上下文窗口

  • DeepSeek官方API最多64K上下文,字节跳动的DeepSeek API能到128K,还支持KV缓存。

  • CCR自动切换,帮你hold住超长文档。

3. 低成本高性能

  • Claude Code本身token消耗大,但DeepSeek等模型价格低,CCR帮你用白菜价享受Claude级体验。

  • 比如:用DeepSeek三四轮对话搞定Flutter问题,成本不到1块钱!

4. 多模型协作,性能差距缩小

  • 实测发现:只要上下文信息足够丰富,模型之间的表现差距会被大大缩小。

  • 你可以用CCR把“便宜模型”用到极致,贵的模型只在关键场景出场,性价比爆棚。


七、CCR的底层原理:一图胜千言

[你的请求]     ↓[CCR拦截分析]    ↓[Token计数/内容识别]    ↓[智能路由决策]    ↓[请求体自动转换]    ↓[目标模型API]    ↓[响应格式归一]    ↓[返回Claude兼容结果]

插件系统则像“外挂中转站”,在请求转发前后随时插手,魔改一切你想魔改的内容。


八、CCR适合谁?哪些场景最香?

  • AI开发者/极客:想玩转多模型、追求极致性价比的你。

  • 企业AI平台:需要多模型协作、成本可控、灵活扩展的团队。

  • AI自动化工作流:GitHub Actions、CI/CD、批量任务、夜间跑批……

  • 本地部署党:想用Ollama、Qwen等本地模型省钱的你。


九、未来展望:CCR还能怎么玩?

  • 更智能的路由算法:比如按模型负载、响应速度、token余额动态分流。

  • 更丰富的插件生态:社区贡献各种“奇技淫巧”插件,满足各种定制需求。

  • 可视化管理界面:一键拖拽配置路由,监控模型状态。

  • 自动成本优化:根据模型价格、时段、任务类型自动选择最优解。


十、总结:CCR让AI模型“打工人”各显神通

Claude Code Router不是简单的“API代理”,而是AI模型的智能调度中心。
它让你像打车一样,按需分配AI模型,省钱、省心、效率爆表。
无论你是AI极客、企业开发者,还是自动化工作流玩家,CCR都能帮你把AI模型用到极致。

还在为Claude太贵、Gemini失忆、DeepSeek慢、Qwen智商堪忧而发愁?
用CCR,把所有AI模型变成你的“打工人”,让他们各司其职,卷出新高度!


如果你觉得本文有用,欢迎点赞、转发、关注本号!
下期我们聊聊CCR插件开发的“骚操作”,敬请期待!

更多VibeCoding文章