什么是草稿链(CoD)?3 分钟搞懂生成式 AI 的 “迭代优化” 新方法
摘要: 在生成式 AI 迈向 AGI 的征途中,推理成本与延迟成为了悬在企业头顶的“达摩克利斯之剑”。当思维链(CoT)还在用冗长的步骤消耗算力时,一种源自人类认知本能的新范式——草稿链(Chain of Draft, CoD)——已悄然颠覆战场。本文将以犀利的视角、详实的数据和严密的逻辑,为您深度拆解这一让 Token 消耗骤降 90% 的“迭代优化”黑科技,揭示它如何成为 2026 年 AI 落地的核心引擎。
一、 破局:当“思考”成为负担,AI 需要“极简主义”
2026 年的今天,大语言模型(LLM)已渗透进金融、医疗、自动驾驶的每一寸肌理。然而,一个尴尬的现实横亘在前:越聪明的模型,往往越“话痨”。
传统的思维链(Chain-of-Thought, CoT)虽然通过“一步一推导”大幅提升了模型解决复杂问题的能力,但其代价是惊人的——模型在给出最终答案前,会生成数千个冗余的 Token。这就像一位博学的教授,为了解一道一元一次方程,不仅要阐述公理,还要推导公式,最后才写出答案。这种“学术式”的严谨在实时交互、高频交易和边缘计算场景中,不仅是算力的浪费,更是致命的延迟源头。
草稿链(CoD)正是为了粉碎这一瓶颈而生。
核心定义: 草稿链(CoD)是一种受人类速记行为启发的新型 AI 推理范式。它不再追求推理过程的“文学性”和“完整性”,而是强制模型在每一步推理中仅保留不超过 5 个词的极简信息,像人类打草稿一样,只记录关键节点、公式或逻辑跳转,从而在保证准确率的前提下,将推理成本压缩至极致。
这不仅是一次技术升级,更是一场认知革命。它标志着 AI 推理从“模仿人类说话”进化到了“模仿人类思考的本质”。
二、 原理:模仿人类的“速记本能”
人类在解决复杂问题时,大脑的工作记忆是极其有限的。我们不会在脑海中用完整的句子自言自语,而是通过关键词、符号、箭头来构建逻辑网。CoD 正是捕捉到了这一微小但关键的差异。
1. 极简约束机制
CoD 的核心规则简单到近乎苛刻:每一步中间推理(Intermediate Step)的输出长度限制在 5 个 Token 以内。
这并非硬性截断,而是一种指导性启发(Guidance)。通过在 Prompt 中植入特定的 Few-Shot 示例(少样本学习),引导模型学会“惜字如金”。
2. 迭代式草稿生成
与 CoT 的线性叙述不同,CoD 的推理过程更像是在草稿纸上列算式:
CoT 模式: “首先,杰森有 20 个棒棒糖,然后他给了丹尼一些,剩下 12 个,所以我们需要用 20 减去 12 来计算给出的数量……”(约 50 个 Token)
CoD 模式:
20 - x = 12→x = 20 - 12→x = 8(约 10 个 Token)
这种“公式化”的迭代,剔除了所有自然语言的冗余修饰(如“首先”、“然后”、“综上所述”),直击逻辑内核。
3. 少样本驱动的进化
CoD 的威力高度依赖Few-Shot 提示。研究者发现,如果不提供样例(Zero-shot),模型很难自发产生这种极简逻辑。但一旦给出 3-5 个“草稿式”解题范例,模型就能迅速掌握这种高密度的思维压缩技巧,实现推理效率的指数级跃升。
三、 实战:数据不会说谎的“降本增效”
空口无凭,数据为证。在 2025 年至 2026 年的多项基准测试中,CoD 在算术、常识和符号推理三大战场上,交出了令人咋舌的成绩单。
1. 算术推理:GSM8K 基准测试
在小学数学应用题数据集 GSM8K 上,CoD 展现了惊人的性价比:
| 模型 | 提示策略 | 准确率 | Token 消耗量 | 延迟降低 |
|---|---|---|---|---|
| GPT-4o | CoT (思维链) | 95.4% | 基准 (100%) | - |
| GPT-4o | CoD (草稿链) | 91.1% | ↓ 80% | ↓ 76.2% |
| Claude 3.5 Sonnet | CoT (思维链) | 95.8% | 基准 (100%) | - |
| Claude 3.5 Sonnet | CoD (草稿链) | 91.4% | ↓ 79% | ↓ 48.4% |
分析: 虽然准确率有约 4% 的微小牺牲,但换来的是 80% 的成本直降和 四分之三的响应提速。对于日均亿级调用的企业级应用,这 4% 的精度损失完全可以通过其他机制弥补,而成本节省却是实打实的真金白银。
2. 常识推理:体育与日期理解
在需要海量背景知识的 BIG-bench 任务中,CoD 甚至实现了“反杀”。
体育理解任务: 面对复杂的赛事逻辑题,Claude 3.5 Sonnet 使用 CoT 时平均输出 189.4 个 Token,耗时 3.2 秒;切换为 CoD 后,输出骤降至 14.3 个 Token(**↓ 92.4%),耗时缩短至 1.4 秒(↓ 56%**),且准确率从 87.0% 逆势提升至 89.7%。
日期理解: 同样实现了准确率与速度的双赢。
3. 符号推理:硬币翻转
在严谨的逻辑符号任务(如预测硬币正反面序列)中,CoD 展现了绝对统治力:
GPT-4o: Token 减少 68%,准确率 100%
Claude 3.5 Sonnet: Token 减少 86%,准确率 100%
这证明了在逻辑确定性强的任务中,CoD 不仅更快,而且因为去除了自然语言的歧义,推理反而更加精准。

四、 价值:企业级落地的“成本杀手锏”
如果说实验室里的数据是“好看”,那么商业世界的账本则是“好用”。CoD 最核心的价值在于它解决了 AI 规模化落地的最大痛点——推理成本。
1. 算力成本的断崖式下跌
根据实测估算,对于一家每月处理 100 万次推理查询的中型企业:
使用 CoT: 月度推理成本约 3,800 美元
使用 CoD: 月度推理成本骤降至 760 美元
节省幅度: **80%**,月省 3,040 美元,年省近 3.6 万美元
在大模型 API 调用费用居高不下的 2026 年,这不仅是降本,更是让许多处于盈亏平衡线边缘的 AI 应用直接转正。
2. 实时交互的“去卡顿”神器
在以下对延迟极度敏感的场景中,CoD 是唯一的解:
金融高频交易: 毫秒级的决策差异决定盈亏。CoD 将推理延迟从秒级压缩至毫秒级,让 AI 交易员真正跑赢市场。
自动驾驶: 复杂的路况识别需要瞬间决策。CoD 的低延迟特性让车端大模型能实时生成控制指令,而非“思考人生”。
实时客服与语音助手: 告别“正在输入中”的转圈等待,CoD 让 AI 像真人一样秒回,极大提升用户体验。
3. 边缘侧部署的可能
随着模型小型化趋势,CoD 让 7B 甚至 3B 参数的小模型也能在手机、IoT 设备上跑出不错的推理效果。虽然小模型在 CoD 下的绝对性能仍弱于大模型+CoT,但其能效比(Performance per Watt)却实现了质的飞跃,为端侧 AI 爆发铺平了道路。
五、 局限与边界:CoD 不是万能药
尽管 CoD 光芒万丈,但我们必须保持清醒:它并非全能,更非 CoT 的终极替代者。
1. 零样本场景的“水土不服”
CoD 的极简风格并非模型与生俱来。在Zero-shot(零样本)设置下,如果没有 Few-Shot 示例引导,模型往往无法生成有效的“草稿”,准确率会大幅跳水,甚至不如直接回答。这意味着 CoD 的落地需要精心设计 Prompt 模板,增加了工程初期的调试成本。
2. 复杂任务的“深度陷阱”
对于需要大量反思、自我纠错、多轮外部知识检索的复杂任务(如深度科研论文生成、复杂代码重构),CoD 的极简步骤可能会丢失关键的上下文逻辑。因为它强制“每步 5 词”,可能导致长链条推理中的信息断层。此时,传统的 CoT 依然是更稳妥的选择。
3. 可解释性的“黑盒化”
CoT 的冗长步骤虽然费钱,但便于人类审计和调试——你能清楚看到模型哪一步“想歪了”。而 CoD 的输出往往是碎片化的关键词或符号(如 x=8),虽然高效,但可解释性(Interpretability)变差。在医疗诊断、法律判决等高风险领域,这种“不知所以然”的推理过程可能成为合规障碍。
4. 小模型的性能瓶颈
在参数量小于 3B 的微型模型上,CoD 虽然能减少 Token,但其绝对准确率与 CoT 相比仍有较大差距。目前来看,CoD 更适合中大型模型(7B 以上)的推理加速。
六、 工程实践:如何 3 分钟部署 CoD?
对于开发者和 AI 架构师而言,引入 CoD 并非要重构模型,而是一次Prompt 工程的迭代优化。
1. 提示词构建公式
一个标准的 CoD Prompt 应包含以下要素:
# Role 你是一个高效的逻辑推理专家。 # Instruction 请解决以下问题。在给出最终答案前,请先生成推理草稿。 # Constraint (核心) **重要规则**: 每一步推理草稿必须控制在 **5 个词以内**。使用符号、公式或关键词,不要使用完整句子。 # Few-Shot Examples (关键) 示例 1: 问题:20 - 12 = ? 草稿:20 - 12 = 8 答案:8 # User Input [在此处填入你的问题]
2. 迭代优化流程
基线测试: 先用 CoT 跑通流程,记录准确率、Token 数和延迟。
引入 CoD: 加入“5 词限制”和 Few-Shot 示例。
A/B 测试: 对比两种模式下的业务指标(如客服解决率、交易胜率)。
动态切换: 对于简单逻辑(如数学计算、日期转换)启用 CoD;对于复杂逻辑(如情感分析、创意写作)回退到 CoT。这种混合推理策略是目前性价比最高的方案。
七、 结论:效率至上的必然选择
草稿链(CoD)的出现,不是对思维链(CoT)的否定,而是分工。
CoT 是“深思考”:适用于需要深度、创意、解释性的场景,不惜成本追求极致智能。
CoD 是“快思考”:适用于需要速度、规模、低成本的场景,用最小的算力换取足够好的结果。
在 2026 年这个 AI 全面商业化的节点,“快”往往比“完美”更重要。 CoD 通过模仿人类最本能的速记行为,撕开了大模型推理成本的缺口。它告诉我们:智能不一定需要冗长的铺垫,真正的智慧往往是一针见血的。
对于企业而言,拥抱 CoD 不再是一个“技术尝鲜”的选项,而是一道必做的“成本生存题”。谁能越快将 CoD 融入生产流,谁就能在 AI 竞赛中掌握定价权和响应速度的主动权。
表:CoD 与 CoT 核心指标对比速查
| 维度 | 思维链 (CoT) | 草稿链 (CoD) | 优势/代价 |
|---|---|---|---|
| 核心逻辑 | 完整叙述推理过程 | 极简关键词/公式 | CoD 效率更高 |
| 平均步长 | 20-50+ Token | ≤ 5 Token | CoD 压缩比 90%+ |
| GSM8K 准确率 | ~95% | ~91% | CoD 微降 4% |
| Token 消耗 | 100% (基准) | ~20% | CoD 成本降低 80% |
| 响应延迟 | 基准 | ↓ 40% - 76% | CoD 极速响应 |
| 适用场景 | 创意写作、复杂科研 | 实时交互、高频计算 | 场景互补 |
| 可解释性 | 高 (易审计) | 中 (碎片化) | CoT 更透明 |
| 零样本表现 | 较好 | 较差 (需Few-Shot) | CoD 需引导 |
版权及免责申明:本文由@AI铺子原创发布。该文章观点仅代表作者本人,不代表本站立场。本站不承担任何相关法律责任。
如若转载,请注明出处:https://www.aipuzi.cn/ai-tutorial/what-is-cod.html

