Zane's home
发布于

别再当冤大头了!Claude 接入后 Token 狂烧却跑不动?排查 3 天,我抓住了这个“吞金兽”

作者
  • 头像
    姓名
    懒猫爱摸鱼
    X

![[e6eec268-2738-4607-8dc6-a8352b181b82.jpg]]

期待已久地在opencode中配置好了claude/gemini/chatgpt三种模型,再看看命令行里转了 5 分钟还没写出一行执行结果的进度条,我当时真的差点把键盘砸了。

这种感觉就像你请了个大厨来家里掌勺,结果人家对着你的炊具摆弄半天,最后只会泡个方便面,还把厨房弄得乱七八糟。

前几天我在文章里还建议大家:如果不是刚需,直接用 OpenCode 自带的免费模型(Minimax/GLM)就好

原因很简单,我自己配置 Claude 和 Gemini 的时候,体验极差:频繁中断、响应极慢,半天跑不完整一个任务

但我这人有个毛病,就是不信邪。既然评论区那么多朋友都说好用,没道理我这就不行。

查了好多文档和解决方案,我终于找到了那个躲在配置文件里的

01

为什么你接了顶尖的Gemini和Claude模型,却跑不过minimax?

很多教程会告诉你,在opencode接入 Claude 或 Gemini 很简单,只要找个代理地址,把模型名字改成 OpenAI 兼容模式就行。

这就是噩梦的开始。

这里涉及到一个核心技术点:AI的SDK 适配器(SDK Adapter)

你可以把它理解为“同声传译”。虽然你给 AI 喂的是 Claude 的 Token,但如果你用的适配器是 openai-compatible(OpenAI 兼容模式)。

CAUTION

这是最关键的环节! 大多数教程让你填API配置会让你填写 @ai-sdk/openai-compatible,这正是问题的根源。

就相当于你请了一个只会德语的翻译去跟法国人谈生意。

  • 打个招呼、问个好(简单的对话):翻译还能勉强连比划带猜,应付过去。
  • 深谈业务、签合同(写长代码、复杂逻辑):翻译直接原地罢工,通信瞬间中断。

这就是为什么你的 反复提问了半天,但进度条却永远卡在 30% 的原因。

![[Pasted image 20260120014705.png]]

02

3 分钟,手动完成满血版配置

找到原因后,解决办法其实极其简单。我们不需要再去忍受所谓的兼容模式,我们要直接给它上原生适配器

第一步:找到配置文件

找到你的用户根目录 C:\Users\<你的用户名>\.config\opencode,打开那份名为 opencode.json 的配置文件。

![[Pasted image 20260120003529.png]]

第二步:精准配置你的模型适配器

这是最关键的一步。别再乱填适配器了,请根据你的模型类型,参考下面这两个配置:

✅ 如果你接的是 Claude (Anthropic): 把那个该死的 openai-compatible 删掉,换成这个:

"npm": "@ai-sdk/anthropic", // 必须是这个!这是原生的命脉
"baseURL": "你的代理地址/v1",
"apiKey": "sk-ant-xxx"

✅ 如果你接的是 Gemini (Google): 同理,Gemini 也有自己的专属通道:

"npm": "@ai-sdk/google", // 别再用兼容模式骗自己了
"baseURL": "你的代理地址/v1beta",
"apiKey": "AIza-xxx"

NOTE

Builder 避坑指南:如果你跟我一样,手里有一堆模型想换着玩,别乱改。直接参考下面这个我调试好的“终极模板”,把地址和 Key 填进去就行。

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "CliProxyAPI-GPT": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "CliProxyAPI-GPT",
      "options": {
        "baseURL": "http://base_url/v1",
        "apiKey": "your_api_key"
      },
      "models": {
        "gpt-5.2": {
          "name": "gpt-5.2"
        },
        "gpt-5.2-codex": {
          "name": "gpt-5.2-codex"
        },
        "gpt-5.1-codex-max": {
          "name": "gpt-5.1-codex-max"
        }
      }
    },
    "CliProxyAPI-Claude": {
      "npm": "@ai-sdk/anthropic",
      "name": "CliProxyAPI-Claude",
      "options": {
        "baseURL": "http://base_url/v1",
        "apiKey": "your_api_key"
      },
      "models": {
        "gemini-claude-sonnet-4-5": {
          "name": "claude-sonnet-4-5"
        },
        "gemini-claude-opus-4-5-thinking": {
          "name": "claude-opus-4-5-thinking"
        },
        "gemini-claude-sonnet-4-5-thinking": {
          "name": "claude-sonnet-4-5-thinking"
        }
      }
    },
    "CliProxyAPI-Gemini": {
      "npm": "@ai-sdk/google",
      "name": "CliProxyAPI-Gemini",
      "options": {
        "baseURL": "http://base_url/v1beta",
        "apiKey": "your_api_key"
      },
      "models": {
        "gemini-3-pro-preview": {
          "name": "gemini-3-pro-preview"
        },
        "gemini-3-flash-preview": {
          "name": "gemini-3-flash-preview"
        },
        "gemini-3-pro-image-preview": {
          "name": "gemini-3-pro-image-preview"
        },
        "gemini-2.5-pro": {
          "name": "gemini-2.5-pro"
        }
      }
    }
  },
  "plugin": [
    "oh-my-opencode"
  ]
}

03

从单兵作战到多智能体协同

配置好原生适配器后,Claude 的响应速度终于正常了。

接下来就是装上网上爆火的插件 oh-my-opencode

这是一个让 OpenCode 产生质变的扩展。它最爽的地方在于,它能让你构建一个数字员工军团

  1. Sisyphus 指挥官:用最强的 Claude 4.5 Opus 坐镇,负责总控和逻辑拆解。
  2. 前端专家:Gemini 3 Pro 的审美真的在线,让它负责 UI 设计。
  3. 图书管理员:免费的 Minimax 别浪费,让它去后台翻文档、查资料。

![[Pasted image 20260120014650.png]]

安装很简单,在窗口输入一行命令就行:

npx oh-my-opencode install

或者直接告诉opencode说“帮我安装oh-my-opencode”

配置示例

在你的 oh-my-opencode.json 文件(用户根目录C:\Users\<youname>\.config\opencode下)中修改代理配置: 记得把model改成你在opencode里面的provider加model名称

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
  "agents": {
    "Sisyphus": {
      "model": "CliProxyAPI-Claude/gemini-claude-opus-4-5-thinking"
    },
    "librarian": {
      "model": "opencode/minimax-m2.1-free"
    },
    "explore": {
      "model": "CliProxyAPI-Claude/gemini-claude-sonnet-4-5"
    },
    "oracle": {
      "model": "CliProxyAPI-GPT/gpt-5.2"
    },
    "frontend-ui-ux-engineer": {
      "model": "CliProxyAPI-Gemini/gemini-3-flash-preview"
    },
    "document-writer": {
      "model": "opencode/minimax-m2.1-free"
    },
    "multimodal-looker": {
      "model": "CliProxyAPI-Gemini/gemini-3-flash-preview"
    }
  }
}

然后你就可以在 OpenCode 里面自动调用你想要执行任务所选择的模型了。

End

有时候最大的障碍不是技术本身,而是我们急于求成的心态。真正的效率提升往往来自于对细节的耐心打磨,而不是表面的快速配置。

经过实际使用,这套配置表现得相当稳定。

完成正确配置后,你的 OpenCode 才能发挥真正的实力,真正调用你的多种模型并行执行你的任务。并且,如果你有兴趣的话,也能探索围绕你自己的工作流设计专属的子智能体来进一步进化你的工作。同时你的 Obsidian AI 助理也能在一个对话中切换多种模型了。

接下来,你可以充分利用之前文章中提到的 Skills 库,或者探索更多 AI 工具组合,最大化你的工作效率!

你在接入AI工具时,遇到过哪些让你头疼的问题?是模型答非所问,还是连接频繁断开?欢迎在评论区分享你的经历。

如果这篇指南对你有帮助,不妨点个赞收藏一下,以备不时之需。