拜拜了SWE-Bench!Cursor刚发了个AI Coding评测基准,难哭Claude
专门评价Cursor中不同模型谁更“智能体”
一水 发自 凹非寺
量子位 | 公众号 QbitAI
编程智能体时代,顶流Cursor举旗发布新的评测基准——
CursorBench,专门评价Cursor中不同模型谁更“智能体”(即高效执行复杂任务)。
结果你猜怎么着?曾在SWE-Bench上威名赫赫的Claude Haiku 4.5/Sonnet 4.5全部歇菜了。
- Claude Haiku 4.5的分数从73.3→29.4;
- Claude Sonnet 4.5的分数从77.2→37.9。
而这,也恰好体现了CursorBench和其他编程基准之间的区别:
SWE-Bench衡量的是程序能否解决问题,CursorBench衡量的是程序能否高效地解决问题。这种差距正是普通基准测试所无法弥补的——在真实的token约束下完成任务。

“龙虾”当道,谁都知道现在评价AI要看执行能力,而且还是要高效执行那种。
而CursorBench的出现,恰好填补了相关空白。
不过问题来了,CursorBench具体咋评的?
线上+线下混合评
关于咋评的这个问题,Cursor还专门撰写了一篇博客。

一上来,Cursor就介绍了一个基本背景——
随着AI编程助手越来越像“智能体”,目前很多公开的benchmark已经不够用了。
问题呢主要有这么三个:
一是任务类型不真实。
以大家比较熟知的benchmark为例,SWE-Bench主要是修复GitHub issue的bug,任务比较单一。
Terminal-Bench虽然不再局限于代码仓库,但更偏向各种“谜题式任务”,比如根据给定环境完成一系列挑战,此时AI更像是在参加某种竞赛而非进行日常开发。
所以Cursor就说了,“我们发现,这些任务与开发者要求智能体完成的编程工作并不契合”。
现实生活中更常见的是,开发者会要求AI修改多个文件、分析生产日志、运行实验……总之比基准更复杂。
二是评分机制不合理。
很多公开基准通常都假设——一个问题只有一个正确答案。
但现实是,一个需求可能有多种实现方式,不同方案的代码风格、架构选择都有可能不同。
这就往往会导致两种情况:要么直接给正确的方案打叉(出现误判)、要么直接为了可评估性而强行消除模糊性(人为施加限制)。
无论是哪一种,基准都无法反映真实情况。
三是公认的数据污染问题。
这一点就不必多说了,一旦基准出现够久,后来的模型很可能就会直接抓取这些基准数据进行训练。
所以,在这种近乎“透题”的情况下进行评分,其结果到底有多大价值就可想而知了。

而面对这些问题,Cursor拿出了一套“线上+线下混合评”的全新方案。
线下就是我们说的CursorBench,流程也相对简单——
让不同模型都去完成同一批标准任务,然后系统从正确性、代码质量、效率、交互行为等维度进行打分,最终每个模型都能拿到一个离线benchmark分数。
采用这种标准化流程的好处显而易见,包括可以相对而言把模型拉到同一起跑线进行比较、可以重复测试、成本也相对可控。
不过有人可能就说了,这和其他基准好像没差啊?
别急,CursorBench的“制胜法宝”在这里——选的任务不一样。
其不一样体现在三个维度:
一是任务真。
以前的基准更像是“刻意找题”,找GitHub issue、找各种谜题;而CursorBench的题都来自自家Cursor平台。
Cursor有一个工具叫Cursor Blame,它可以追踪某一段代码是由哪个AI请求生成的。
于是就能拿到这样一对对真实数据——开发者请求+某个模型最终提交的代码。
而这些,就构成了CursorBench绝佳的“出题范本”。而且Cursor补充道:
许多任务来自我们的内部代码库和受控来源,从而降低了模型在训练阶段见过这些任务的风险。我们每隔几个月就会更新一次这套基准,以跟踪开发者使用智能体方式的变化。
二是任务规模大。
如今用Cursor的人实在太多了,所以CursorBench的任务规模明显更大。
比如在正确性评估中,无论从代码行数还是平均文件数来看,其问题规模从初始版本到当前的CursorBench-3大致翻了一倍。Cursor表示:
虽然代码行数并不是衡量难度的完美指标,但该指标上的增长反映了我们将更具挑战性的任务纳入CursorBench 的方式,例如处理monorepo的多工作区环境、排查生产日志,以及执行长时间运行的实验。

三是任务描述刻意保持“模糊”。
这点也比较好理解。
很多公开基准里的任务描述通常非常详细,但现实中大家和AI说话时往往模棱两可。
所以太精准反而与真实相悖。

至此,基于以上特殊设计,CursorBench成了编程智能体时代真正以“真实开发场景”为原点设计的基准测试。
当然这还没完,光做题怎么够呢?很多AI线下分数高,但用户一上手就发现很拉胯。
对此,Cursor还搞了一套线上评测——直接看真实用户使用效果。
他们会使用A/B Test这种方式,观察一部分用户用模型A、另一部分用户用模型B之后的对比效果。
具体主要看开发者是否接受AI生成的代码、是否继续追问、是否撤销修改、任务是否真正完成等可追踪的产品指标。
如此一来,线上和线下就可以形成完美互补,甚至形成良性循环——
线下CursorBench先快速筛选模型能力,然后线上验证模型是否真的更好,发现偏差后再去调整benchmark或模型。
飞轮这不就起来了(doge)。
所以,结果呢?
那么模型们在新基准CursorBench上的表现如何呢?
来看最终performance(越靠近右上角越好,代表“以最低成本实现最高性能”):

见此图表,网友们一时讨论连连:
啧,没想到Claude Sonnet 4.5的“性价比”有点低啊。

这个Composer模型(Cursor自研编码模型)又是哪里冒出来的。

Anyway,从Cursor公布的结果来看,一个很明显的结论是——
CursorBench在前沿模型之间的区分度明显更高。
这个其实是自然而然的。基准一饱和,模型们往往拉不开差距,大家分都高、都好。
但一遇到新的、难的,实力差距便自然显露了。
尤其在CursorBench这种任务规模更大、环境更复杂的基准上,差距无疑将被进一步放大。
只需对比模型在SWE-Bench和CursorBench上的得分就能看出来了(左边全挤在一起、右边呈阶梯式):

以及Cursor还强调了一点——
CursorBench的排名,与真实用户体验更加一致。
通过前面提到的线上实验,他们发现CursorBench的模型排名,和这些线上指标变化基本是同方向的。

接下来,Cursor还将着手开发下一代评测套件:
虽然CursorBench-3的任务比公开基准上的任务持续时间更长,但它们仍然可以在一次会话内完成。我们预计在未来一年里,绝大多数开发工作将转向由在各自计算机上独立运行的长时运行智能体来完成,因此我们也正规划对CursorBench作出相应调整。
嗯,瞄准的还是智能体,只不过是运行时间更长的智能体。
参考链接:
[1]https://x.com/cursor_ai/status/2032148125448610145
[2]https://cursor.com/cn/blog/cursorbench
[3]https://www.objectwire.org/technology/cursor
- 量子位专访陶哲轩:我为什么现在创办一个AI x Science组织2026-03-14
- 机器人全程自主收拾客厅!390亿美元估值机器人端到端新技能,英伟达持续加注2026-03-10
- GPT-5.4意外泄露!OpenAI最新模型瞄准这2大能力突围2026-03-03
- 阿里千问大模型换将,32岁林俊旸官宣告别2026-03-04




