草稿链代替思维链,推理token砍掉80%,显著降低算力成本和延迟
要求模型为每个推理步骤生成简洁、信息密集的token
梦晨 发自 凹非寺
量子位 | 公众号 QbitAI
推理token减少80%-90%,准确率变化不大,某些任务还能增加。
Zoom团队提出思维链替代品“草稿链”,显著降低延迟和算力成本。

原理很简单,要求模型为每个推理步骤生成简洁、信息密集的token。

这一思路受到人类解题过程启发,人类通常不会详细阐述每一个细节,只是简单几下关键的中间结果,作为草稿来辅助思考。
此外,草稿链方法简单且易于实现,不需要修改模型、微调或强化学习,只需更新提示词中的示例即可,相关代码和数据已在GitHub上开源。

研究团队认为,与另一种降低延迟和计算成本的方法“在连续潜空间推理”相比,草稿链保留了可解释性,且可以应用于闭源的黑盒模型。
第三方分析测算,对于每个月处理100万个推理请求的企业, 可以将成本从思维链的3800美元降低到760美元,每月节省超过3000美元。

实验验证:准确率不降,成本大幅降低
实验遵循原始思维链论文,评估3类任务:算术推理、常识推理和符号推理。
算数推理任务选择GSM8k数据集,从准确率看,标准提示下GPT-4o和Claude 3.5 Sonnet的准确率分别仅53.3%和64.6%,思维链使两者均超95%,草稿链也达到91%左右。
在token使用上,思维链生成约200个token/响应,草稿链仅约40个,减少约80%。
延迟方面,草稿链使GPT-4o和Claude 3.5 Sonnet的平均延迟分别降低76.2%和48.4%。

常识推理选择BIG-bench 的日期理解和运动理解任务也取得了相似的结果,特别值得注意的是Claude 3.5 Sonnet在草稿链下准确率还有所上升。


符号推理选择抛硬币任务,由于原数据集未公开,作者合成了250个示例的测试集。
草稿链在保持100%准确率的情况下大幅减少了推理token和延迟。

但草稿链方法也有一定的局限性:在零样本设置下有效性会显著下降。

此外,在参数量小于30亿的小模型上,虽然草稿链仍能有效减少每个回答所需的token数并提高准确率,但与思维链相比,性能差距更大。

研究团队推测,可能是由于训练数据中缺乏草稿链风格的推理模式,在不提供few-shot样本指导的情况下,很难生成简洁而有帮助的”草稿”。
论文地址:
https://arxiv.org/abs/2502.18600v2
参考链接:
[1]https://ajithp.com/2025/03/02/chain-of-draft-llm-prompting/
- GPT-5-Thinking新训练方法公开:让AI学会忏悔2025-12-04
- GPT5.5代号“蒜你狠”曝光!OpenAI拉响红色警报加班赶制新模型,最快下周就发2025-12-03
- 华尔街尬捧TPU学术界懵了:何恺明5年前就是TPU编程高手,多新鲜2025-11-30
- 混元OCR模型核心技术揭秘:统一框架、真端到端2025-11-30




