opencode/packages/web/src/content/docs/zh-cn/go.mdx

134 lines
5.4 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

---
title: Go
description: 低成本的开源编程模型订阅服务。
---
import config from "../../../../config.mjs"
export const console = config.console
export const email = `mailto:${config.email}`
OpenCode Go 是一项低成本的订阅服务 —— **首月 5 美元**,之后 **每月 10 美元** —— 让你能够稳定地访问流行的开源编程模型。
:::note
OpenCode Go 目前处于 beta 测试阶段。
:::
Go 的工作方式与 OpenCode 中的任何其他提供商provider一样。订阅 OpenCode Go 后你将获得 API 密钥。它是 **完全可选** 的,并非使用 OpenCode 所必需的条件。
它主要为国际用户设计,模型托管在美国、欧盟和新加坡,以确保稳定的全球访问。
---
## 背景
开源模型现在变得非常强大。在编程任务中,它们的性能已接近专有模型。由于许多提供商都可以提供具有竞争力的服务,它们通常要便宜得多。
然而,获得可靠、低延迟的访问可能很困难。各提供商在质量和可用性方面参差不齐。
:::tip
我们测试了一组经过精选且与 OpenCode 配合良好的模型和提供商。
:::
为了解决这个问题,我们做了以下几件事:
1. 我们测试了一组精选的开源模型,并与他们的团队探讨了如何以最佳方式运行它们。
2. 随后我们与一些提供商合作,以确保正确提供这些服务。
3. 最后我们对模型和提供商的组合进行了基准测试benchmark得出了一份我们乐于推荐的列表。
OpenCode Go 让你能够访问这些模型,**首月只需 5 美元**,之后 **每月 10 美元**。
---
## 工作原理
OpenCode Go 的工作方式与 OpenCode 中的其他提供商一样。
1. 登录 **<a href={console}>OpenCode Zen</a>**,订阅 Go然后复制你的 API 密钥。
2. 在 TUI 中运行 `/connect` 命令,选择 `OpenCode Go`,然后粘贴你的 API 密钥。
3. 在 TUI 中运行 `/models` 以查看通过 Go 可用的模型列表。
:::note
每个工作空间只能有一名成员订阅 OpenCode Go。
:::
当前支持的模型列表包括:
- **GLM-5**
- **Kimi K2.5**
- **MiniMax M2.5**
- **MiniMax M2.7**
随着我们进行测试和添加新模型,该列表可能会发生变化。
---
## 使用限制
OpenCode Go 包含以下限制:
- **5 小时限制** — 12 美元使用额度
- **每周限制** — 30 美元使用额度
- **每月限制** — 60 美元使用额度
限制以美元价值定义。这意味着你的实际请求数取决于你所使用的模型。较便宜的模型(如 MiniMax M2.5)允许更多请求,而较高成本的模型(如 GLM-5允许较少请求。
下表提供了基于典型 Go 使用模式的预估请求数:
| | GLM-5 | Kimi K2.5 | MiniMax M2.7 | MiniMax M2.5 |
| --------------- | ----- | --------- | ------------ | ------------ |
| 每 5 小时请求数 | 1,150 | 1,850 | 14,000 | 20,000 |
| 每周请求数 | 2,880 | 4,630 | 35,000 | 50,000 |
| 每月请求数 | 5,750 | 9,250 | 70,000 | 100,000 |
预估值基于观察到的平均请求模式:
- GLM-5 — 每次请求 700 个输入 token52,000 个缓存 token150 个输出 token
- Kimi K2.5 — 每次请求 870 个输入 token55,000 个缓存 token200 个输出 token
- MiniMax M2.7/M2.5 — 每次请求 300 个输入 token55,000 个缓存 token125 个输出 token
你可以在 **<a href={console}>控制台</a>** 中跟踪你当前的使用情况。
:::tip
如果你达到了使用限制,你可以继续使用免费模型。
:::
使用限制可能会随着我们从早期使用和反馈中学习而发生变化。
---
### 超出限制的使用
如果你的 Zen 余额中还有积分,可以在控制台中启用 **使用余额Use balance** 选项。启用后当你达到使用限制时Go 会回退使用你的 Zen 余额,而不是拦截请求。
---
## API 端点
你也可以通过以下 API 端点访问 Go 模型。
| 模型 | 模型 ID | 端点 | AI SDK 包 |
| ------------ | ------------ | ------------------------------------------------ | --------------------------- |
| GLM-5 | glm-5 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| Kimi K2.5 | kimi-k2.5 | `https://opencode.ai/zen/go/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| MiniMax M2.7 | minimax-m2.7 | `https://opencode.ai/zen/go/v1/messages` | `@ai-sdk/anthropic` |
| MiniMax M2.5 | minimax-m2.5 | `https://opencode.ai/zen/go/v1/messages` | `@ai-sdk/anthropic` |
你 OpenCode 配置中的 [模型 ID](/docs/config/#models) 使用 `opencode-go/<model-id>` 格式。例如,对于 Kimi K2.5,你将在配置中使用 `opencode-go/kimi-k2.5`
---
## 隐私保护
该方案主要面向国际用户,模型托管在 US、EU 和 Singapore以提供稳定的全球访问。我们的提供商遵循零保留政策不会将您的数据用于模型训练。
---
## 目标
我们创建 OpenCode Go 的目的是:
1. 通过低成本订阅让更多人能够 **无门槛地** 使用 AI 编程。
2. 为最佳开源编程模型提供 **可靠的** 访问。
3. 精选经过 **测试和基准评估**,适合编程 Agent 使用的模型。
4. **无锁定no lock-in**,允许你与 OpenCode 一起使用任何其他提供商。