134 lines
5.4 KiB
Markdown
134 lines
5.4 KiB
Markdown
---
|
||
title: Go
|
||
description: 低成本的开源编程模型订阅服务。
|
||
---
|
||
|
||
import config from "../../../../config.mjs"
|
||
export const console = config.console
|
||
export const email = `mailto:${config.email}`
|
||
|
||
OpenCode Go 是一项低成本的订阅服务 —— **首月 5 美元**,之后 **每月 10 美元** —— 让你能够稳定地访问流行的开源编程模型。
|
||
|
||
:::note
|
||
OpenCode Go 目前处于 beta 测试阶段。
|
||
:::
|
||
|
||
Go 的工作方式与 OpenCode 中的任何其他提供商(provider)一样。订阅 OpenCode Go 后你将获得 API 密钥。它是 **完全可选** 的,并非使用 OpenCode 所必需的条件。
|
||
|
||
它主要为国际用户设计,模型托管在美国、欧盟和新加坡,以确保稳定的全球访问。
|
||
|
||
---
|
||
|
||
## 背景
|
||
|
||
开源模型现在变得非常强大。在编程任务中,它们的性能已接近专有模型。由于许多提供商都可以提供具有竞争力的服务,它们通常要便宜得多。
|
||
|
||
然而,获得可靠、低延迟的访问可能很困难。各提供商在质量和可用性方面参差不齐。
|
||
|
||
:::tip
|
||
我们测试了一组经过精选且与 OpenCode 配合良好的模型和提供商。
|
||
:::
|
||
|
||
为了解决这个问题,我们做了以下几件事:
|
||
|
||
1. 我们测试了一组精选的开源模型,并与他们的团队探讨了如何以最佳方式运行它们。
|
||
2. 随后我们与一些提供商合作,以确保正确提供这些服务。
|
||
3. 最后,我们对模型和提供商的组合进行了基准测试(benchmark),得出了一份我们乐于推荐的列表。
|
||
|
||
OpenCode Go 让你能够访问这些模型,**首月只需 5 美元**,之后 **每月 10 美元**。
|
||
|
||
---
|
||
|
||
## 工作原理
|
||
|
||
OpenCode Go 的工作方式与 OpenCode 中的其他提供商一样。
|
||
|
||
1. 登录 **<a href={console}>OpenCode Zen</a>**,订阅 Go,然后复制你的 API 密钥。
|
||
2. 在 TUI 中运行 `/connect` 命令,选择 `OpenCode Go`,然后粘贴你的 API 密钥。
|
||
3. 在 TUI 中运行 `/models` 以查看通过 Go 可用的模型列表。
|
||
|
||
:::note
|
||
每个工作空间只能有一名成员订阅 OpenCode Go。
|
||
:::
|
||
|
||
当前支持的模型列表包括:
|
||
|
||
- **GLM-5**
|
||
- **Kimi K2.5**
|
||
- **MiniMax M2.5**
|
||
- **MiniMax M2.7**
|
||
|
||
随着我们进行测试和添加新模型,该列表可能会发生变化。
|
||
|
||
---
|
||
|
||
## 使用限制
|
||
|
||
OpenCode Go 包含以下限制:
|
||
|
||
- **5 小时限制** — 12 美元使用额度
|
||
- **每周限制** — 30 美元使用额度
|
||
- **每月限制** — 60 美元使用额度
|
||
|
||
限制以美元价值定义。这意味着你的实际请求数取决于你所使用的模型。较便宜的模型(如 MiniMax M2.5)允许更多请求,而较高成本的模型(如 GLM-5)允许较少请求。
|
||
|
||
下表提供了基于典型 Go 使用模式的预估请求数:
|
||
|
||
| | GLM-5 | Kimi K2.5 | MiniMax M2.7 | MiniMax M2.5 |
|
||
| --------------- | ----- | --------- | ------------ | ------------ |
|
||
| 每 5 小时请求数 | 1,150 | 1,850 | 14,000 | 20,000 |
|
||
| 每周请求数 | 2,880 | 4,630 | 35,000 | 50,000 |
|
||
| 每月请求数 | 5,750 | 9,250 | 70,000 | 100,000 |
|
||
|
||
预估值基于观察到的平均请求模式:
|
||
|
||
- GLM-5 — 每次请求 700 个输入 token,52,000 个缓存 token,150 个输出 token
|
||
- Kimi K2.5 — 每次请求 870 个输入 token,55,000 个缓存 token,200 个输出 token
|
||
- MiniMax M2.7/M2.5 — 每次请求 300 个输入 token,55,000 个缓存 token,125 个输出 token
|
||
|
||
你可以在 **<a href={console}>控制台</a>** 中跟踪你当前的使用情况。
|
||
|
||
:::tip
|
||
如果你达到了使用限制,你可以继续使用免费模型。
|
||
:::
|
||
|
||
使用限制可能会随着我们从早期使用和反馈中学习而发生变化。
|
||
|
||
---
|
||
|
||
### 超出限制的使用
|
||
|
||
如果你的 Zen 余额中还有积分,可以在控制台中启用 **使用余额(Use balance)** 选项。启用后,当你达到使用限制时,Go 会回退使用你的 Zen 余额,而不是拦截请求。
|
||
|
||
---
|
||
|
||
## API 端点
|
||
|
||
你也可以通过以下 API 端点访问 Go 模型。
|
||
|
||
| 模型 | 模型 ID | 端点 | AI SDK 包 |
|
||
| ------------ | ------------ | ------------------------------------------------ | --------------------------- |
|
||
| GLM-5 | glm-5 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| Kimi K2.5 | kimi-k2.5 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
|
||
| MiniMax M2.7 | minimax-m2.7 | `https://opencode.ai/zen/go/v1/messages` | `@ai-sdk/anthropic` |
|
||
| MiniMax M2.5 | minimax-m2.5 | `https://opencode.ai/zen/go/v1/messages` | `@ai-sdk/anthropic` |
|
||
|
||
你 OpenCode 配置中的 [模型 ID](/docs/config/#models) 使用 `opencode-go/<model-id>` 格式。例如,对于 Kimi K2.5,你将在配置中使用 `opencode-go/kimi-k2.5`。
|
||
|
||
---
|
||
|
||
## 隐私保护
|
||
|
||
该方案主要面向国际用户,模型托管在 US、EU 和 Singapore,以提供稳定的全球访问。我们的提供商遵循零保留政策,不会将您的数据用于模型训练。
|
||
|
||
---
|
||
|
||
## 目标
|
||
|
||
我们创建 OpenCode Go 的目的是:
|
||
|
||
1. 通过低成本订阅让更多人能够 **无门槛地** 使用 AI 编程。
|
||
2. 为最佳开源编程模型提供 **可靠的** 访问。
|
||
3. 精选经过 **测试和基准评估**,适合编程 Agent 使用的模型。
|
||
4. **无锁定(no lock-in)**,允许你与 OpenCode 一起使用任何其他提供商。
|