LeCun点赞:国产开源模型占领硅谷,性价比超10倍
开源模型,已经来到了中国时间
听雨 发自 凹非寺
量子位 | 公众号 QbitAI
嚯,硅谷居然被中国开源模型占领了!
连Yann LeCun也点赞:说得对!

初代AI编程炸子鸡Cursor和Devin,都被曝出号称自研的模型,其实套壳的就是中国开源模型。

上个月,Cursor承认了旗下的Composer 2套壳Kimi K2.5。
当初首个推出“AI自动工程师”Devin的公司Cognition,其自研模型SWE-1.6,则疑似在GLM模型上进行后训练。
其实不止这两家,类似的例子越来越多,中国开源模型在硅谷的受欢迎程度与日俱增——
Shopify因切换至Qwen,每年节省500万美元;爱彼迎联创Brian Chesky也曾表示:Qwen又好又快又便宜,比GPT还好用!
而且智谱最新发布的GLM-5.1,是部分指标超Opus 4.6的开源模型,估计性价比放在硅谷也相当有竞争力了。
国产开源模型横扫硅谷
国外模型选择蒸馏中国开源模型,或是在此基础上进行后训练,这事儿已经不少见了。
上个月,Cursor的自研模型Composer 2在基准测试上反超了Opus 4.6,价格还脚踝斩。

结果没得意两天就被曝出其实套壳Kimi K2.5。
虽然事情以双方握手言和告一段落,但让人唏嘘不已。
Cursor啊Cursor,你好歹是初代AI编程当红炸子鸡,这事儿干得也不太地道了!

除此之外,另一位炸子鸡Cognition,其自研模型SWE-1.6也被曝疑似在GLM模型上进行后训练。
而且这家伙是个老惯犯了,从前代SWE-1.5就开始偷梁换柱。

去年,SWE-1.5就被曝是在GLM-4.6上进行后训练得到的。
当时的梗图传得满天飞:

Cursor和Cognition最早集成的都是Claude和GPT的能力,但现在已经纷纷转投中国开源模型的怀抱。
Cognition的开发者Shawn Wang还曾直言:
只要基础模型足够好,它的具体特性就越来越不重要了,因为强化学习和后训练才是关键所在,也是区分彼此的关键所在。
不过嘛,初创独角兽不成建制,出现套壳还拒不承认,大家就当个笑话看。
但连巨头也这么干,或许背后还存在更深层次的原因。
去年12月,Meta的“牛油果”项目曾被曝出使用Qwen开源模型做了蒸馏训练。

在此之前,Meta旗下的Llama模型曾长期主导开源领域,其衍生模型数量和下载量均保持领先地位。
扎克伯格还曾经公开呼吁,要构建以美国模型为核心的开源生态。
但现在,面对自身Llama系列增长乏力与东方模型的强势崛起,Meta已经做出了选择。
经过9个月的奋战,Meta的最新模型Muse Spark已经交卷,不过也是妥妥的闭源了。
此外,爱彼迎的联创兼CEO Brian Chesky,早就被Qwen的实力圈粉了。
他曾经公开表态:
我们很大程度上依赖阿里巴巴的Qwen模型。它非常好,速度也很快,而且很便宜。
我们也会用OpenAI的最新模型,但在实际生产中通常不会大量使用,因为有更快、更经济的模型可供选择。

小八卦,Brian Chesky和奥特曼还是挚友。不过涉及自家应用产品整合时,必须得“亲兄弟,明算账”…
Brian直言不讳,表示OpenAI提供的连接工具还“没有完全准备好”。
爱彼迎的选择,只是中国大模型技术实力的一个缩影。
在学术界,斯坦福大学李飞飞团队、艾伦人工智能研究所等顶尖机构在研究中也采用了基于Qwen的技术方案。
去年年初,李飞飞团队曾基于Qwen2.5-32B构建了一个顶级推理模型s1-32B,成本不到50美元。
该模型的数学和编码能力,与OpenAI的o1和DeepSeek的R1等尖端推理模型不相上下。
艾伦人工智能研究所也基于Qwen2-72B,构建了其多模态系统。
还有Mira Murati创办的独角兽Thinking Machines Lab,也把Qwen作为默认的微调选项。
中国开源模型在硅谷的走红,可见一斑。

性价比压倒一切
为啥硅谷这么热衷于中国开源模型?
当然是因为量大便宜。
Peter Yang算了一笔账:在许多基准测试中,中美同等质量的模型价格相差10-20倍。
就拿最新发布的几款国产模型来说:
- Kimi K2.5:每百万token输入4元/输出21元;
- MiniMax M2.7:每百万token输入2.1元/输出8.4元;
- GLM-5.1:每百万token输入6元/输出24元;
- Qwen3.6-Plus:每百万token输入2元/输出12元。


这几款模型在基准测试上的表现,都接近甚至部分反超了Opus 4.6、GPT-5.4等顶尖闭源模型。
但Opus 4.6的价格是每百万token输入5美元/输出25美元,GPT-5.4则是输入2.5美元/输出15美元。
这性价比,一目了然。
节省超10倍价格,拿到一个还不错的模型表现,岂不是美滋滋??

而且开源模型也并非完全打不过闭源。
早在Kimi还只出了K2的时候,Vercel CEO Guillermo Rauch就曾提到:
在内部智能体真实场景基准测试中,Kimi K2在运行速度和准确率上优于GPT-5和Claude Sonnet 4.5。
其中准确率更是高出50%。
硅谷投资人Chamath也曾表示,Kimi K2性能够强,且比OpenAI和Anthropic便宜太多。
而且自从艾伦人工智能研究所宣布削减开源模型研发资金,转向AI应用后,美国开源AI的旗帜就真倒了。

开源模型,已经来到了中国时间。
参考链接:
[1]https://x.com/petergyang/status/2042248752157839793?s=20
[2]The All-You-Can-Use AI Subscription Won’t Last Forever
- 神秘「欢乐马」霸榜视频模型!本以为Seedance2.0已封神…2026-04-09
- Claude爆火研究漏引华人团队成果,已挨打立正道歉2026-04-07
- 让大模型多模态检索全面超越SOTA!ReCALL框架化解生成式与判别式的范式冲突|CVPR’262026-04-06
- 北大团队改造DeepSeek注意力,速度快四倍还不丢精度2026-04-06




