爆改Claude Code Router:让你的AI模型像打车一样随叫随到!

许泽宇的技术分享 发布日期:
3

爆改Claude Code Router:让你的AI模型像打车一样随叫随到!

“你以为你在用Claude,其实你在用一群AI打工人轮班上岗。”

—— 一位被Claude Code Router惊呆的程序员

前言:AI打工人也要排班表

在AI圈子里,Claude、Gemini、DeepSeek、Qwen……这些大模型你方唱罢我登场,个个都想成为你的“最佳拍档”。可惜,现实往往是:

  • Claude太贵,钱包扁了;

  • Gemini上下文太短,聊两句就失忆;

  • DeepSeek便宜大碗,但有时慢得像蜗牛;

  • Qwen本地部署,省钱但智商有限。

你是不是也曾幻想过:

能不能像打车一样,按需切换AI模型?

比如:

  • 写代码用Claude,

  • 长文档交给Gemini,

  • 背景任务扔给Qwen,

  • 推理分析找DeepSeek……

Claude Code Router(CCR),就是为你实现这个梦想的神器!

一、Claude Code Router是什么?一句话总结

CCR = AI模型的“滴滴打车”系统。

它能把你发给Claude的请求,智能地“路由”到不同的AI模型上。你可以自定义规则,按需分配任务,甚至还能加插件魔改请求格式。

一句话:让每个AI模型各司其职,物尽其用,省钱省心还高效!

二、CCR能做什么?核心能力一览

  1. 多模型智能切换

    • 支持Claude、Gemini、DeepSeek、Qwen、Ollama等主流模型。

    • 一份配置文件,随心定义“谁干什么活”。

  2. 按场景路由

    • 长文档自动切Gemini,推理任务找DeepSeek,批量任务丢给Qwen……

    • 你只管提需求,CCR帮你选“最合适的打工人”。

  3. 命令行/插件灵活切换

    • 支持/model命令一键切换模型。

    • 插件系统可自定义请求格式、路由逻辑,适配各种API。

  4. GitHub Actions集成

    • 让AI自动参与PR、Issue评论,夜间低价时段自动批量处理任务,省钱又高效。

  5. 详细日志、图片/网页搜索支持

    • 方便调试,功能丰富,开发者友好。

三、CCR怎么玩?一站式上手指南

1. 安装

npm install -g @anthropic-ai/claude-code
npm install -g @musistudio/claude-code-router

2. 启动

ccr code

3. 配置路由(核心!)

编辑~/.claude-code-router/config.json,举个例子:

{
  "Providers": [
    {
      "name": "openrouter",
      "api_base_url": "https://openrouter.ai/api/v1/chat/completions",
      "api_key": "sk-xxx",
      "models": [
        "google/gemini-2.5-pro-preview",
        "anthropic/claude-3.5-sonnet"
      ]
    },
    {
      "name": "deepseek",
      "api_base_url": "https://api.deepseek.com/chat/completions",
      "api_key": "sk-xxx",
      "models": ["deepseek-chat", "deepseek-reasoner"]
    },
    {
      "name": "ollama",
      "api_base_url": "http://localhost:11434/v1/chat/completions",
      "api_key": "ollama",
      "models": ["qwen2.5-coder:latest"]
    }
  ],
  "Router": {
    "default": "deepseek,deepseek-chat",
    "background": "ollama,qwen2.5-coder:latest",
    "think": "deepseek,deepseek-reasoner",
    "longContext": "openrouter,google/gemini-2.5-pro-preview"
  }
}

路由规则解读

  • default:日常对话,优先用DeepSeek。

  • background:后台批量任务,交给本地Qwen,省钱省力。

  • think:需要推理分析时,找DeepSeek Reasoner。

  • longContext:上下文超长(>32K tokens),自动切Gemini。

4. 动态切换模型

在Claude Code里输入:

/model openrouter,anthropic/claude-3.5-sonnet

后续请求都用这个模型,随时切换,灵活如你!

四、CCR的“智慧大脑”:请求路由全流程揭秘

1. 请求拦截

  • 你以为Claude在和Anthropic官方服务器对话,其实请求都被CCR截胡,转发到本地localhost:3456。

  • CCR分析请求内容、token数量、模型指令等,决定“派谁上场”。

2. Token分析

  • 用tiktoken等工具,精确计算每次请求的token数。

  • 包括消息内容、系统提示、工具定义、函数调用等,统统计数。

  • 这样才能判断:是普通对话?长文档?还是推理任务?

3. 智能路由决策

CCR的“调度算法”大致如下:

  • 用户强制指定:你用/model命令,优先按你说的来。

  • 超长上下文:token数>60,000,自动切到longContext模型(如Gemini)。

  • 后台任务:模型名带haiku,走background路由。

  • 推理任务:请求里有thinking标记,走think路由。

  • 默认:都不满足,走default。

4. 请求转化与转发

  • CCR根据目标模型API格式,自动转换请求体(比如Gemini和Claude的API参数不一样)。

  • 转发到对应模型的API,拿到响应后,再转成Claude兼容格式返回。

5. 错误兜底

  • 路由、token分析出错?CCR自动降级到默认模型,保证服务不中断。

  • 日志详细,方便排查问题。

五、CCR的“外挂系统”:插件机制让你随心魔改

1. 插件类型

  • 自定义路由插件:比如deepseek.js,你可以写自己的智能分流逻辑。

  • 请求重写插件:比如gemini.js,自动调整请求体结构,适配不同API。

2. 插件目录结构

$HOME/.claude-code-router/
├── config.json
└── plugins/
    ├── deepseek.js
    ├── gemini.js
    └── custom-plugin.js

3. 插件开发模式

  • 按Express中间件风格写插件,导出function(req, res, next)。

  • CCR自动加载,出错也不会影响主流程,安全可靠。

4. 插件能干啥?

  • 动态修改请求体,比如自动过滤不支持的参数、调整工具定义格式。

  • 实现更复杂的路由策略,比如按时间段、token消耗、用户ID分流。

  • 甚至可以接入自定义日志、监控、限流等功能。

六、CCR进阶玩法:省钱、省心、效率爆表

1. GitHub Actions自动化

  • 让Claude Code自动参与PR、Issue评论,AI帮你批量处理代码审查、文档生成。

  • 支持夜间低价时段自动跑批任务(比如DeepSeek凌晨打折,省钱到家)。

2. 超大上下文窗口

  • DeepSeek官方API最多64K上下文,字节跳动的DeepSeek API能到128K,还支持KV缓存。

  • CCR自动切换,帮你hold住超长文档。

3. 低成本高性能

  • Claude Code本身token消耗大,但DeepSeek等模型价格低,CCR帮你用白菜价享受Claude级体验。

  • 比如:用DeepSeek三四轮对话搞定Flutter问题,成本不到1块钱!

4. 多模型协作,性能差距缩小

  • 实测发现:只要上下文信息足够丰富,模型之间的表现差距会被大大缩小。

  • 你可以用CCR把“便宜模型”用到极致,贵的模型只在关键场景出场,性价比爆棚。

七、CCR的底层原理:一图胜千言

[你的请求] 
    ↓
[CCR拦截分析]
    ↓
[Token计数/内容识别]
    ↓
[智能路由决策]
    ↓
[请求体自动转换]
    ↓
[目标模型API]
    ↓
[响应格式归一]
    ↓
[返回Claude兼容结果]

插件系统则像“外挂中转站”,在请求转发前后随时插手,魔改一切你想魔改的内容。

八、CCR适合谁?哪些场景最香?

  • AI开发者/极客:想玩转多模型、追求极致性价比的你。

  • 企业AI平台:需要多模型协作、成本可控、灵活扩展的团队。

  • AI自动化工作流:GitHub Actions、CI/CD、批量任务、夜间跑批……

  • 本地部署党:想用Ollama、Qwen等本地模型省钱的你。

九、未来展望:CCR还能怎么玩?

  • 更智能的路由算法:比如按模型负载、响应速度、token余额动态分流。

  • 更丰富的插件生态:社区贡献各种“奇技淫巧”插件,满足各种定制需求。

  • 可视化管理界面:一键拖拽配置路由,监控模型状态。

  • 自动成本优化:根据模型价格、时段、任务类型自动选择最优解。

十、总结:CCR让AI模型“打工人”各显神通

Claude Code Router不是简单的“API代理”,而是AI模型的智能调度中心。它让你像打车一样,按需分配AI模型,省钱、省心、效率爆表。无论你是AI极客、企业开发者,还是自动化工作流玩家,CCR都能帮你把AI模型用到极致。

还在为Claude太贵、Gemini失忆、DeepSeek慢、Qwen智商堪忧而发愁?用CCR,把所有AI模型变成你的“打工人”,让他们各司其职,卷出新高度!

打赏
THE END
作者头像
AI工具箱
一个喜欢收集AI工具的小萌新