< img id="wx_img" src="https://www.qbitai.com/wp-content/uploads/imgs/qbitai-logo-1.png" width="400" height="400">

统计学最高荣誉回归华人!苏炜杰:AI需要一门新的数学语言

像「剥洋葱」一样优化AI黑盒

Jay 发自 凹非寺

量子位 | 公众号 QbitAI

2026年,统计学界的「诺贝尔奖」,颁给了一名在AI领域深度活跃的华人学者。

宾夕法尼亚大学苏炜杰教授,凭借在AI可信部署、隐私保护、凸优化理论及AI会议学术评审机制上的突破性贡献,荣获考普斯会长奖(COPSS Presidents’ Award)。

时隔14年,这一统计学最高荣誉,终于再次迎来了华人面孔。

苏教授坚信:AI时代,统计学会越来越重要。

从第一性原理出发,神经网络或许永远无法彻底白盒化。随着复杂度的不断扩大,模型的可解释性只会越来越难。

而统计学的最大魅力恰恰在于:即便内部机制永远是一团迷雾,也依然能通过概率分布的方式找到最优解,达到我们希望的目标。

基于这一判断,苏炜杰教授和团队从统计学视角切入,为AI的应用提供了更扎实的理论支撑,增强了实际落地过程中的可靠性与稳健性:

  • 可信部署:将AI生成内容的可追溯性、人类偏好对齐等问题,形式化为严谨的统计框架;
  • 隐私保护:提出高斯差分隐私框架,·应用在2020年美国十年一次的人口普查,提升了隐私数据的效用;
  • AI学术评审:提出保序机制,让作者对自己的多篇投稿进行质量排序,已于2026年正式在ICML投入使用。

也正是这些贡献,让苏教授于今年摘得考普斯奖这一统计学至高桂冠。

苏教授任教于宾夕法尼亚大学沃顿商学院统计与数据科学系,同时在本校计算机系和数学系兼任教职。在获得考普斯奖前,他还曾获美国NSF CAREER奖、斯隆研究奖等多项重量级奖项。

这一次,他来到量子位的专访,谈了谈他关于如今AI的各种思考。

  • 为什么完全打开AI黑盒很难,有没有其他途径?
  • 为什么大学体系在AI时代依然重要
  • 为什么建议数学系学生积极参与AI发展?

访谈尾声,苏教授抛出了一个大胆的判断:

AI需要一门全新的数学语言。

他认为,AI正在演变成一种「新的物理」,其底层结构与经典物理截然不同。

物理学多是从小到大。从底层机制出发,推导并决定宏观行为;
而AI是从大到小。先设计好Transformer的大框架——几层网络、如何连接,再在训练中逐步确定每一个参数。

这可能正是当下AI在可解释性、神经网络泛化理论等方向滞后的根源所在:

现有的数学语言,或许从一开始就不适合描述AI。

为此,苏教授向纯数学出身的年轻人们发出了诚挚邀请:

进入AI领域,共同创造一门新的「语言」,让AI像数学一样「优美」。

这件事的意义,不会低于经典力学或相对论。

上面这些只是冰山一角。在这场一小时多的深度对谈中,苏教授分享了许多有趣的洞察:

  • 世界上很多问题只能近似描述,终极理性可能并不存在。
  • 偏好没有唯一的最优解,但至少要划清底线:哪些偏好我们绝对不想要?
  • 彻底「白盒化」不太现实。人类连自己的大脑都没搞懂,理解神经网络只会更难。
  • 像「剥洋葱」一样研究神经网络,不必完全理解内部结构,把它当做黑盒来优化就行。
  • 把隐私变成可交易的价值,用类似博弈论里的机制设计,让其成为公司的内生动力。
  • 对于国内想辍学做AI的大学生,如果你真的准备好了,可以勇敢点。
  • 大学教育依然很重要,里面有老师、考试作为反馈,光靠自学很难打牢基础。

下面附上精校后的访谈实录。为提升可读性,量子位在不改变原意的前提下,对内容进行了适当的润色与梳理。

请享用。

哪些AI均衡点我们绝对不想要?

量子位:恭喜获奖。这是针对您过去一系列贡献颁发的奖,如果让您自己选一篇最满意的工作,会是哪篇?

苏炜杰:最满意的不好说,但最有趣的有一篇。ICML最近有一个改动,要求作者自己对投稿论文做一个质量排序。

这个做法,其实和我五年前的一篇论文有关。核心观点大致是:既然作者往往是自己论文最好的审稿人,何不引入一种由作者本人参与的评分机制?

这篇论文的ROI很高。从有想法到写完,总共不到两周,时间主要花在语言润色和补充文献上,那还是在ChatGPT出现之前。

放在现在,可能两天就能写完。

量子位:这篇论文的核心思路涉及博弈论,和经济学相关。您在本科阶段也有经济学背景,当时怎么会对经济学感兴趣?

苏炜杰:其实最开始并不是出于兴趣。我在北大的时候主修数学,之所以修了经济学双学位,是因为当时的女朋友(即现在的妻子)选了这个项目。

她偏文科。经济学虽然属于文科,但需要高数、概率论等基础,所以她希望我也一起学,互相支持。

但后来发现,经济学让我学会一种不同于纯数学的思维方式。

学纯数学,很容易形成一种确定性的世界观:世界是完备的、有结构的,可以用精确语言描述;如果暂时无法刻画,那是我们的数学工具还不够成熟。

接触经济学之后,会意识到真实世界并不具备那样的确定性。世界是混沌的,很多问题只能做近似描述,终极理性往往不存在,或永远无法逼近。

量子位:如今的AI同样很难完全用纯数学解释清楚。您觉得经济学思维,对您现在的研究有什么影响?

苏炜杰:我的核心训练仍然是数学、统计和优化,但经济学会让你更关注「人」这个共同体。经济学研究的本质,是人的行为,以及人在制度和市场中的互动。

我们组里有一部分研究,就是从经济学视角出发,讨论AI对齐在人类社会结构中的意义。

AI未来会全方位影响人类社会。现在大家更多讨论的是个人用户怎么做agent、怎么让个人更满意,但AI对社会的影响是什么、会怎样演化,这更接近经济学研究的范畴。

AI由人类数据训练而来,会继承人类偏好。另一方面,越来越多年轻人开始用AI,这一过程中,AI的价值观也在反过来影响人类。

所以问题来了:现有算法,能不能把这些偏好完整、准确地转移到AI里?

我们希望AI对齐人类偏好。但这些偏好如何定义?如何聚合?

主流方案还是奖励模型配合强化学习,把偏好的信息结构都编码进去。不过,目前常用的一些相对简单的统计模型,没法完美表达真实的人类偏好。

我们有一项工作讨论了投票悖论:当候选项至少有三个时,群体偏好可能出现循环——A优于B、B优于C、C又优于A。

这种情况下,现有损失函数或奖励模型是有缺口的。如果这种偏差长期存在,可能会把AI的偏好推向某个不确定方向,最后收敛到一个我们不希望看到的均衡点。

量子位:那最终应该达到的均衡点在哪里?「人类偏好」至今也没有统一定义,不同国家对善恶的判断标准都不一样。

苏炜杰:的确,偏好不存在绝对客观、唯一最优的标准。

但可以确定的是:哪些偏好我们不会想看到?

我举个例子。AI领域论文审稿正在逐步滑向一个不太好的平衡点。

以前论文少、节奏慢,一个人一年审几篇,大家还是愿意花时间把审稿做好。

但现在投稿太多了、审稿人又太少。很多人觉得自己的论文被一些不认真、质量不高的审稿意见影响了,于是会想:凭什么我要认真审别人的论文?

当越来越多人都有这种想法,他们自己当审稿人时也不会认真投入,结果就是恶性循环,审稿质量越来越差。

量子位:用AI审稿会是一个好的解决方案吗?

苏炜杰:人类审稿有个常见问题:审稿人说作者「没做某件事」,但其实论文在别的段落已经写了,只是审稿人没看到。

我今年也在ICML委员会负责相关工作,根据经验和数据来看,AI在「信息抓取」类任务上往往优于人。

不过,现在很多人习惯把审稿「托管」给AI,让它直接生成审稿意见。

这里面还有个问题:市面上主流的AI就那么几个。

审稿的一个重要价值是多样性。不同审稿人从不同经验和偏好出发,能看到论文的不同面向。

如果大家都用一样的AI来审稿,意见就会千篇一律,这件事就没意义了。

幻觉的问题则更加严峻。

学术有个特点——论文是写给未来的。

每一篇论文不是写完就结束,它会存档,挂在数据库里,很多年后都还可能被引用。

所以学术对信息准确性的要求非常高。幻觉如果出现在某一篇论文里,后续被重复引用几十次,可能会被当作既定事实。这对人类知识传承是很可怕的。

实话说,今年我们已经看到不少论文明显是AI生成的,关键是其中引用的文献根本搜不到。

其他部分作者还可能辩解说:「我只是写作风格像AI。」但文献不存在这种事,是没办法辩驳的。

学术通常被认为是人类智力活动密度最高的领域之一。当这个领域都开始让人类退场,这是个非常危险的信号。

像「剥洋葱」一样优化AI黑盒

量子位:您在之前的访谈中经常提到「可解释性」和「可信部署」。这方面最近有什么研究进展吗?

苏炜杰:坦白说,我在可解释性方面直接做得不算多。有一些朋友在做机制可解释性(Mechanistic Interpretability),我非常敬佩他们的工作。

我对这个领域的前景持谨慎态度,但我希望我的判断是错的。

想把AI从「黑盒」变成「白盒」,彻底理解它的内部机制,可能需要先重新定义什么是「理解」。

以往我们谈理解,比如理解物理现象,可被逼近的。

比夸克更小的基本粒子是什么?暂时不清楚,更多是因为知识和工具还不够。随着技术发展,这类问题的「理解」难度是会降低的。

但AI的发展目标从来就不是为了「可解释性」。更强能力的背后是Scaling,而模型越大,可解释性往往越弱。

另一方面,如果AI想做到可解释,那么人类大脑应该也是可解释的。

我们研究人类大脑已经两千多年了,至今也没完全弄明白。凭什么认为一个生物大脑能完全理解另一个「硅基大脑」?何况这个硅基大脑还在变得越来越复杂。

或许我们可以换个思路:从「表现」出发。

对AI的行为做更准则化的刻画,在这些准则下,对不确定性做概率或统计意义上的描述,建立可用的规范。

这样,即便没法完全理解内部机制,也能在现实部署中更好地控制风险。在这方面,统计学和运筹学会有很大的发挥空间。

以我们做的偏好对齐工作为例。这类任务不像数学证明那样可以验证为真或假,很多时候,它是在A和B之间形成一个概率分布。

因此,我们干脆从一开始就把Transformer当作黑盒,不关心其内部具体机制,而是把它视为一个概率输出器:给定输入,它输出落在A与B之间的概率。

然后我们设计损失函数,让这个概率分布的最优解达到我们希望的目标。这个过程不需要理解神经网络的内部结构,把它当作黑盒来优化就可以。

我现在更倾向于把可解释性看作「剥洋葱」。

神经网络是黑盒,但它不是一整块不可穿透的黑铁,它更像由很多层黑纱布叠在一起。叠得越多,整体看起来越黑。但单独看每一层,它可能还能透过百分之七八十的光。

人脑很难做清晰的层次划分,但神经网络是分层结构。我们可以像剥洋葱一样,将神经网络一层层剥开。

但没必要全剥开。一个20层的网络,也许剥开两三层就能得到很多线索。底层的部分,更多是在做细碎的特征提取,没必要理解,也理解不了。

当然,有些情况还是要多剥几层。

我有位做对齐的朋友之前说,有时候两个模型看起来对齐程度差不多,其实内部的对齐模式完全不一样。一个是真正「认同」并内化了对齐目标,另一个可能只是装的。

这种情况的确需要多剥几层才能看得更清楚,但也没必要完全白盒化,难度太大。

未来学术界需要做的,是在「有限黑盒」的条件下,把机制层面的证据和行为层面的表现结合起来,找到一个相对平衡的方案。

如何把隐私保护变成一种「内生动力」?

量子位:隐私保护是您深耕的领域,为什么会关注这个方向?有没有一个具体契机?

苏炜杰:契机在2014年暑假。当时我读博第三年,去微软研究院硅谷分部实习,跟着Cynthia Dwork做研究。

Cynthia是差分隐私的提出者之一。在她的引导下,我很自然地进入了这个领域。她经常从第一性原理,甚至从伦理学的角度去理解隐私,这对我冲击很大:生活中一个相对「软」的概念,竟然能用严谨的数学语言讲清楚。

我的意思是,这个领域能从偏社会、偏经济学的问题出发,最后延展到非常理论化、数学化的定义。跨度特别大,能同时连接机器学习、统计、数学、理论计算机等多个学科,汇集很多不同背景的人。

差分隐私在相对传统的机器学习场景里用得很成功。它的基本思想是:数据集中某一个人的数据发生变化(比如把张三换成李四),算法的输出不要有太大变化。 这样外界就很难从输出结果反推出到底是张三还是李四。

在传统机器学习里,这种依赖关系相对容易刻画。比如用影响函数(Influence Function)之类的方法,可以清楚地描述某个数据点对模型输出的影响。既然依赖关系能刻画,就可以通过加噪音,把张三和李四带来的差异「抹平」。

但进入神经网络时代后,隐私保护遇到了很大挑战。核心原因还是黑盒:训练数据集与模型输出之间的关系很难精确刻画。

你对数据集做一点变化,比如新增一个人,或者把一个人替换成另一个人,神经网络的输出预测会怎么变化,很难描述。

所以差分隐私那套理论现在很难直接用,往往需要加过大噪音来保证隐私,结果就是模型能力下降。

量子位:网上有不少意见领袖,尤其是极客群体,会觉得隐私是伪需求。认为只要效用足够大,比如把所有数据都交给OpenClaw,它真能变成「贾维斯」,那隐私成本是可以接受的。

苏炜杰:短期看,这种想法确实有其道理。把更多信息交给AI,它对你理解更深,给出的建议更准确、更贴合,你做决定也更省事。

但长期来看,这更像是一个社会学事件。也许要等到某一天,隐私泄露造成了非常严重的后果,大家才会反应过来。

以前在搜索引擎时代,你输入的信息相对有限,通常只是关键词。但现在这些AI公司对人的理解越来越私人化和全方位。这种潜在的滥用风险是巨大的。

量子位:安全配套往往滞后于技术发展,如果想让隐私保护跟上技术进展,有什么可行措施?把隐私当成商业化方向,通过商业驱动让更多人参与,会不会更现实?

苏炜杰:可以从三点来谈。

第一,更分层、更分级的隐私目标,而不是一刀切。

差分隐私很强,有时甚至过于强。把隐私保护放在绝对第一位,在很多场景下其实不太现实。

是否可以找到一个中间地带?部分隐私在一定范围内允许暴露,但在一些更关键、更敏感、涉及安全或重大经济后果的领域,把控得更严格一些。

第二,从社会层面还是要持续强调隐私的重要性。

AI发展是当务之急,很难单纯用隐私去约束参与者,让大家不要做AI。

但不能忘记这个共识:隐私是重要的。 我们也许在当下会做一些权衡,甚至做一些妥协,但不能把这种妥协包装成「完备的选择」,从而放弃了追求更好的保护。

第三,设计一种类似区块链的激励结构,将隐私保护从「外部要求」转化为「内生动力」。

不要指望公司靠道德自觉。从商业运作规律来看,只有当「保护隐私对公司有利」,有助于实现公司自身利益最大化时,它自然就会去做。

关键在于:如何把隐私变成一种「可交易的价值」,让公司主动去保护隐私?

比特币是个很典型的例子。它是靠机制设计,让参与者在追求自身利益的同时,让整个系统自然运转起来。

如果我们也能设计出类似的机制,让保护隐私成为企业利益的一部分,问题就迎刃而解了。

AI需要一套全新的数学语言

量子位:您在一次访谈中引用过一句话:「There’s nothing more practical than a good theory」(没有什么比好的理论更实用)。

听起来挺反直觉的。当「理论」和「实践」放在一起时,理论往往显得不那么「实用」。

苏炜杰:在AI这样一个全球可能有数千万人参与的宏大系统中,不存在某一种范式绝对优于另一种。

计算机背景的人在参与,数学背景的人在参与,经济学家也在参与;计算机内部又细分为理论、工程、硬件等多个方向。大家都是从不同角度、用不同手段推进同一件事,没有谁比谁更高明之分。

但在当下的AI发展进程中,具备扎实理论训练、特别是深厚数学背景的人才,参与比例相对偏少。

我观察到的部分原因是:这些同学觉得AI缺乏纯数学那种特有的「优美感」。

这很正常,我学生时代也有这种想法。但随着年龄增长,人往往也会开始在意自己所做的事情对社会、对整个人类的影响力。

换个角度看,正因为AI现在看起来还「不够优美」,它才更有机会被变得更「优美」。

人类现有的大部分数学体系,其实是伴随物理学发展起来的。18到20世纪的许多数学结构,与牛顿力学、电磁学、相对论、量子力学等物理理论相互促进,形成了今天这套非常成熟的语言。

AI可能就是一种「新的物理」,而且它在结构上与传统物理很不一样。

物理学更像是一个从底层机制出发决定宏观行为的过程,是「从小到大」;

而AI更多是从大到小:先设计一个大框架,比如Transformer有几层、层与层怎么连接,先定下宏观结构,再在训练过程中逐步确定每一个参数。

这也解释了为什么如今AI在理论方向相对滞后:未必是做AI理论的人不够聪明,而是我们现有的数学语言,可能本来就不太适合描述AI。

所以我希望未来会有更多受过基础数学、纯数学训练的人进入AI领域,去逐步创造一套更适合AI的数学框架。

这件事的影响力将非常巨大,其意义不会低于经典力学或相对论。

量子位:您会建议大学生多参加产业界的活动吗?比如去OpenAI、谷歌实习。

苏炜杰:如果有机会,当然很好。但现在去大厂实习的门槛越来越高了。

这个时代信息获取的成本其实很低。如果目的是更好地了解AI,完全可以去修几门计算机相关课程,或者找做AI的同学聊一聊。

自己部署一个开源模型也不难,亲手搭建一个Agent,那种体验跟只在网页端对话完全不同,会让你的理解更加立体。

我也鼓励大家多关注新闻媒体的AI报道,最好每天都看。AI的发展节奏非常快,几天就可能有明显变化。看得多了,你自然会对趋势有把握,也更容易产生兴趣。

量子位:现在很多人不愿意继续深造读博;就算读了,也有人会选择辍学,转去大厂做研究。

苏炜杰:在AI的冲击下,一些学校,尤其是排名不高的学校的价值确实会受到质疑。如果仅仅是为了「学东西」,这种价值在当下可能没那么稀缺了。

AI这个领域很结果至上:只要你做出成绩,很快就能获得认可。你在GitHub上做出一个好项目,很快就能被全世界看到。

事实上,一些AI的关键技术,包括我自己关注的优化器方向,很多都是本科学历的人做出来的。

说实话,这让学界有点汗颜。按过去的经验,这类工作往往需要比较系统的博士训练才能产出。

但这种模式也存在隐患。现在很多论文作者是独立研究者(Independent Researcher),不在学校体系内。

这类论文常见的特点是想法天马行空;但有时错误也很多,论证漏洞和误差比较夸张,质量上下波动极大。

学校的反馈还是很重要,老师指导、考试机制,这些都会给你反馈,让你清楚自己掌握到了什么程度。

很多人觉得自己跟AI对话、靠AI学习就「学会了」,但其实基础没打牢,并没有真正懂。

量子位:学校里有老师、有考试,可以判断学生掌握得扎不扎实。但产业界也有反馈机制,能提供更多的算力,让学生更快验证想法。

苏炜杰:我觉得这也不是完全的竞争关系。无论如何,初等教育阶段仍然需要在学校体系里完成,这是基础。

另外,大厂也不是拥有无限算力。公司层面虽然不缺卡,但落实到具体的研究员或团队,资源依然是有限的,内部也存在竞争,并不是每个人都可以随时拿到无限量的算力。

如果让我给建议:在美国这边,我更倾向于建议学生先把课好好上完,不要高中毕业就直接去公司做AI。

国内的话,目前对学历的重视程度总体还是比较高,但如果你真的觉得自己准备好了,也可以勇敢一点。

量子位:您现在在实际生活中会用AI吗?在您数学研究的工作流里,它的帮助程度怎么样?

苏炜杰:帮助越来越大。两年前ChatGPT刚出来时,我们主要用它做文字修饰。

但现在不一样了。AI在学术上已经可以扮演一个很好的「随身合作者」。

这里的「合作者」不是指科研完成后再交给它提建议,而是当你做到一半、甚至还没成形时,就可以随时拿一个想法与它交流:这个方向行不行?这样做有没有漏洞?有没有更好的途径?

有时,它给出的反馈甚至会改变我原来的思路。

量子位:这几年学术界和产业界好像走得越来越远,很多学术人才也被吸到产业界。这种背景下,学术界有什么可以做的吗?

苏炜杰:学术界确实受到了很大冲击。博士生更愿意去业界,留下来走学术路线的人比以前少了很多。但我觉得这可能只是个短期现象。

正如Ilya所说,Scaling Law带来的边际收益在下降,这是一个比较明确的趋势。

当Scaling的空间因为物理限制、成本限制而难以继续扩张时,大家就必须回到算法和结构上来——怎么在不增加数据、不增加算力的前提下,把现有资源用得更好?

这类在资源受限条件下寻求改进的范式,恰恰是学术界更擅长的。

量子位:AI时代的学生,最重要的特质是什么?

苏炜杰:说实话,绝大多数大学现有的培养模式,不太适合AI时代。这也导致在美国这边,本科生就业冲击很大,很多人找不到工作。

陶哲轩最近在访谈中提到,数学学科的教学方式两百年几乎没变。他拿出两百年前柯西的教材,和今天的教材差别不大。

但AI会迫使这种局面改变。

人类在学习纯理论学科时,很多细节、偏技术的部分,可能会逐步转交给AI。基本功仍然需要,但什么叫「基本功」可能要重新定义,因为人在熟练度上不可能超过AI。

被动学习和主动学习的差距会越来越大。

过去在学校上课,差距没那么夸张,因为课堂的信息量有限,人与人之间的差异不会拉开到几个数量级。

但在AI时代,如果只是坐着听课,和那些主动探索,甚至自己利用AI创造工具的人相比,信息上限差太多了,未来的发展可能会差出好几倍。

 

版权所有,未经授权不得以任何形式转载及使用,违者必究。