⚠️
此頁面尚未翻譯,當前顯示簡體中文版本
上下文与对话历史
理解上下文的工作原理,可以帮助你更有效地与 AI 对话,并优化使用成本。
什么是上下文窗口
上下文窗口(Context Window)是 AI 模型能够"记住"的对话内容范围。你可以把它想象成 AI 的"短期记忆"。
上下文窗口的限制
每个模型都有上下文窗口大小限制,但具体数值会随着模型版本和提供方更新而变化。
可以先按以下规律理解:
| 模型类型 | 常见上下文范围 |
|---|---|
| 云端旗舰模型 | 大到超大 |
| 云端轻量/高性价比模型 | 中到大 |
| 本地开源模型 | 小到中 |
如需精确数值,请以对应模型在官方文档或定价页面中的说明为准。
上下文的内容
上下文包括:
- 系统提示词(System Prompt)
- 历史对话记录(你的问题 + AI 的回答)
- 当前问题
上下文如何影响 Token 消耗
这是很多用户忽略的重要概念:每次发送消息时,整个上下文都会重新发送给 AI。
累积效应示例
假设每轮对话平均 500 Token:
| 对话轮次 | 当轮内容 | 实际发送 Token | 累计消耗 |
|---|---|---|---|
| 第 1 轮 | 500 | 500 | 500 |
| 第 2 轮 | 500 | 1,000 | 1,500 |
| 第 3 轮 | 500 | 1,500 | 3,000 |
| 第 4 轮 | 500 | 2,000 | 5,000 |
| 第 5 轮 | 500 | 2,500 | 7,500 |
可以看到:5 轮对话实际消耗了 7,500 Token,而不是 2,500 Token!
这就是为什么长对话会快速消耗 Token 配额。
最大上下文消息数设置
Chatbox 允许你设置发送给 AI 的历史消息数量限制。
设置建议
| 使用场景 | 建议设置 | 说明 |
|---|---|---|
| 日常聊天 | 10-20 条 | 平衡连贯性和成本 |
| 代码开发 | 20-30 条 | 需要更多上下文 |
| 单次问答 | 5-10 条 | 节省 Token |
| 深度讨论 | 30-50 条 | 需要完整记忆 |
设置方法
- 打开 Chatbox 设置
- 找到"对话设置"或"上下文设置"
- 调整"最大上下文消息数"
长对话最佳实践
1. 定期开启新对话
当满足以下条件时,建议开启新对话:
- 话题发生明显变化
- 对话已超过 20-30 轮
- 发现 AI 的回答开始变得奇怪或重复
2. 使用"分叉"功能
Chatbox 提供对话分叉功能,你可以:
- 从某条消息开始创建新分支
- 保留原有对话的同时探索新方向
- 避免污染主对话线
使用场景:
- 想尝试不同的提问方式
- 需要 AI 给出多个版本的回答
- 讨论时想探索不同的方向
3. 善用系统提示词
将重要的背景信息放在系统提示词中,而不是每次都在对话中重复说明:
❌ 每次都说:"记住,我是一个 Python 开发者,请用 Python 回答..."
✅ 在系统提示词中设置:"你是一个 Python 编程助手,
所有代码示例都使用 Python 语言。"
4. 总结长对话
如果对话很长但你还想继续,可以让 AI 总结之前的内容:
"请总结一下我们目前讨论的要点,然后我们继续讨论..."
然后开启新对话,将总结作为开场。
常见问题
AI 为什么忘记了之前说的话?
可能原因:
- 对话超出了上下文窗口限制
- "最大上下文消息数"设置较小
- 开启了新对话
为什么 Token 消耗突然变多?
可能原因:
- 对话轮数增加,上下文累积
- 上传了图片(图片消耗较多 Token)
- AI 回复了很长的内容
如何让 AI 记住更多内容?
- 增加"最大上下文消息数"设置
- 使用上下文窗口更大的模型
- 将重要信息放在系统提示词中