⚠️
此頁面尚未翻譯,當前顯示簡體中文版本

Token 与计算点数

了解 Token 的概念有助于你理解 AI 的计费方式和优化使用成本。

什么是 Token

Token 是 AI 模型处理文本的基本单位。AI 不是按"字"或"词"来理解文本的,而是将文本分割成更小的"Token"来处理。

Token 的特点

  • Token 不等于字符,也不等于单词
  • 一个 Token 可能是一个完整单词,也可能是单词的一部分
  • 不同语言的 Token 长度不同

Token 计算方式

语言大致换算
英文1 Token ≈ 0.75 个单词,或 4 个字符
中文1 个汉字 ≈ 1.5 - 2 个 Token

示例

"Hello, world!" → 约 4 个 Token
"你好,世界!" → 约 8-10 个 Token

为什么中文消耗更多 Token? 因为大多数 AI 模型主要使用英文数据训练,中文字符需要更多 Token 来表示。

为什么 Token 重要

1. 计费单位

大多数 AI 服务按 Token 数量计费:

  • 输入 Token:你发送给 AI 的内容
  • 输出 Token:AI 回复给你的内容

通常输出 Token 比输入 Token 更贵。

2. 上下文限制

每个模型都有 Token 上限(上下文窗口),决定了一次对话能容纳多少内容。

模型上下文窗口
GPT 5.2128,000 Token
Claude 4.5 Sonnet200,000 Token
GPT 5-mini128,000 Token

Chatbox AI 计算点数系统

如果你使用 Chatbox AI 服务,我们采用「计算点数」简化了 Token 计费。

什么是计算点数

计算点数是 Chatbox AI 的统一计费单位。每个模型都有各自独立的计算点数消耗比例——不同模型每个 Token 消耗的计算点数不同。标准模型消耗较少,高级模型消耗较多,具体比例因模型而异。

查看各模型详细比例

以 Lite 套餐(200 万计算点数)为例:DeepSeek V3 约可使用 1780 万 Token,GPT 5-mini 约可使用 1320 万 Token。

套餐配额

套餐月计算点数适合用户
Lite200 万轻度使用
Pro1200 万日常使用
Pro+3000 万重度使用

计算示例

假设你发送 100 字中文(约 150-200 Token),AI 回复 500 字(约 750-1000 Token),总计约 1000 Token:

不同模型消耗的计算点数不同,具体取决于该模型的消耗比例。例如使用 GPT 5-mini 等标准模型消耗较低,使用 GPT 5.2 等高级模型消耗较高。详细比例请参考模型定价页面

节省 Token 的技巧

1. 表达准确、要求具体

提问时应清晰表达需求,给出具体要求和约束条件,避免模糊导致 AI 需要反复修改回复。不推荐过度简化问题描述。

❌ "帮我写一篇文章"

✅ "写一篇 500 字的环保主题文章,面向高中生读者,包含至少 3 个具体数据"

2. 及时开启新对话

长对话会累积大量上下文 Token。当话题改变时,开启新对话可以重置上下文。

3. 合理设置上下文长度

在 Chatbox 设置中调整"最大上下文消息数",减少发送给 AI 的历史消息。

4. 选择合适的模型

  • 简单问题用标准模型(如 GPT 5-mini)
  • 复杂问题才用高级模型(如 GPT 5.2)

如何查看 Token 使用量

在 Chatbox 中:

  1. 每条消息下方会显示 Token 消耗
  2. 使用 Chatbox AI 时,可在设置中查看剩余计算点数
  3. BYOK 用户可在对应 Provider 的控制台查看用量