LeCun离职后不止创一份业!押注与大模型不同的路线,加入硅谷初创董事会

开始搞“能量-推理模型”

离开Meta这座围城后,Yann LeCun似乎悟了“不要把鸡蛋装在同一个篮子里”。

一边,他亲手打造了自己的初创公司AMI,试图在世界模型这条赛道上大展拳脚;同时,他的目光又投向了硅谷的另一角。

就在最近,LeCun正式宣布加入一家名为Logical Intelligence的初创公司,担任技术研究委员会的创始主席。

挺有意思的。因为Logical Intelligence选择了一条与当前主流大模型(LLM)截然不同的技术路线。

该公司主推的是一种能量-推理模型,“更擅长学习、推理和自我纠正”。

在数独游戏测试上,Logical Intelligence推出的模型Kona不到1s就正确完成了数字填写,

而GPT 5.2、Claude Opus 4.5、Claude Sonnet 4.5都跑了100s了,还没个结果……

After 10 minutes……

Logical intelligence是做啥的公司?

首先,咱先来搞搞清楚Logical Intelligence到底是做什么的。

简单来说,这家今年1月刚对外亮相的AI公司正在研发一种基于能量的推理模型(Energy-Based Reasoning Model, EBM)。

听起来可能有点抽象……我们拆解开来细说一下。

这种模型通过根据约束条件进行评分,来验证和优化解决方案。

你可以把它想象成一个在复杂迷宫中寻找出口的智能体,它不是靠大模型那样预测下一个token,而是通过感知周围环境的“能量高低”来判断方向。

在EBM的世界里,符合逻辑、满足约束条件的解,其“能量”最低,也就是最一致、最稳定的状态。

系统会一直不断优化,直到找到那个能量最低的结果。

也就是说,EBM体系从一开始就假定问题本身由严格约束构成,推理过程服务于满足约束这一目标。

Logical Intelligence发布了三大核心技术论点。

第一,大模型作为推理模型的根本性受限。

它依赖离散token,给AI推理的扩展带来了严重障碍。

第二,能量-推理模型(EBMs)克服了使用基于大模型推理模型固有的主要难题。

第三,扩展AI推理需要使用EBM进行推理,用大模型进行协调——尤其是在与自然语言教学之间的翻译时。

如果你长期关注LeCun的学术动态,就会发现这玩意儿其实完美契合了他长久以来的技术信仰。

早在20年前,LeCun就多次讨论过能量模型在智能系统中的潜力。

只是受限于算力与训练方法,这一路线长期停留在理论与小规模实验阶段。

近几年,LeCun在采访中反复提到大模型的成功在某种程度上让整个领域形成路径依赖。就在最近的一次采访中,他还对着媒体说,每个人都已经“被LLMs洗脑了”。

所以,LeCun加入这家公司是一个非常顺理成章,两方一拍即合的事情。

Logical Intelligence的创始人兼CEO Eve Bodnia表示:

对我们来说,Yan LeCun是能量-推理模型和相关各种架构的唯一专家。
当我们开始着手这个EBM时,他是我能与之交谈的唯一人选。

Eve Bodnia还说,AI有不同的形式,不必非得是基于文本的AI。

“人们总说我们处于AI泡沫之中,但我们不在这个范围内。因为大家只是处在大模型泡沫中。”

他还说,通往AGI的道路需要不同的AI来各司其职:

  • LLMs用自然语言与人类交互
  • EBMs承担推理任务
  • 世界模型帮助机器人在3D空间中采取行动

已推出首款模型

Logical Intelligence声称自己是首个成功构建出工作型EBM的公司。

他们已经推出了一款叫Kona的能量-推理模型,参数量低于200M。

那么,这款模型的表现如何?

Logical Intelligence甩出了一个具体的应用场景,数独。

在单个Nvidia H100 GPU上运行,Kona解决数独问题的速度,比Claude Opus 4.5、GPT 5.2、Gemini 3 Pro等全球顶尖的大模型都要快得多。

准确率也遥遥领先。

这是Kona玩儿数独的速度和成绩:

第二快的是DeepSeek-V3.2,不过出了一些小小的错误:

其它Gemini 3 Pro、Claude Opus 4.5玩儿数独的速度,都100s开外去了……最后结果还是错的(捂脸)。

BTW,在此测试中,大模型们被禁止使用能“暴力解题“的编程能力。

之所以选数独来测试,是因为数独是一个典型的强约束、零容错的逻辑问题。

填错一个数字,整个盘面就废了。

这个对比就是为了突出在强约束、解空间有限的问题上,能量模型的搜索效率。

所以Kona的目标战场不仅仅是填数字游戏。

Logical Intelligence的目标是让Kona去解决现实世界中最为棘手的问题,比如优化复杂的能源网络分配,或者实现精密制造过程的自动化。

Eve Bodnia强调的,这些任务“压根都跟语言没关系”,而且对幻觉的容忍度非常低。

根据最新公开资料,EBM在训练数据方面还有独特的优势。

EBM的训练数据可以是任何东西。

“我们不是试图为所有事物创建一个适用于所有情况的通用大脑。我们为每个独立的业务创建一个较小的模型。每个客户的数据都会有所不同。”

这就使得训练与传统大模型有很大不同。团队用来训练Kona的是部分数据,称为稀疏数据,而Kona能够从稀疏数据中提取完整数据。

One More Thing

目前,Kona还是一个闭源模型。

不过CEO说了,最终会考虑将某些内容开源。

希望在将其公之于世之前,能够充分理解它。
这是迈向AGI的一大步。
你需要思考它的安全性如何,可能性有哪些,以及界限在哪里。我只是想做一个负责任的父母。

参考链接:
https://archive.ph/H91Zl#selection-2531.22-2531.53
如果你也想测下数独速度:
https://sudoku.logicalintelligence.com/

版权所有,未经授权不得以任何形式转载及使用,违者必究。