< img id="wx_img" src="https://www.qbitai.com/wp-content/uploads/imgs/qbitai-logo-1.png" width="400" height="400">

杨植麟当主持人的大模型圆桌:张鹏罗福莉夏立雪都放开说了

中国大模型顶流都来了!

中国大模型顶流罕见同台!这一次是在中关村论坛上。

聚焦最热龙虾话题,月之暗面杨植麟、小米MiMo大模型负责人罗福莉、智谱AI CEO张鹏、无问芯穹联创兼CEO夏立雪,以及香港大学助理教授黄超齐聚一堂,共论agent的下一代演进。

这也是刚发布小米新模型的罗福莉,在公开论坛上的首次露面。

杨植麟还犀利提问智谱张鹏:智谱新模型怎么涨价了?

各位大咖的观点相当硬核,信息密度极高:

罗福莉:中国大模型团队的优势,不在于算力,而在“算力受限下的最优解能力”。超长上下文是模型“越用越好用”的前提,只有达到100万甚至1000万上下文,才能实现真正的模型自迭代。

张鹏:OpenClaw是脚手架;模型从简单对话到真正能干活,背后消耗的token是十倍甚至百倍,所以新模型涨价是回归正常商业价值。

夏立雪:从一月底开始,token调用量每两周翻一倍,到现在已增长十倍。上次见到这个速度还是3G,手机流量快速普及的时候;真正的AGI时代到来,连基础设施本身也会是智能体。

黄超:未来很多软件可能不再以人类为中心,因为人类需要GUI,但很多系统可能会越来越偏向agent-native,也就是原生面向agent使用。

以下附上对话实录,为提升可读性,量子位在不改变原意的前提下做了适当调整。

对话实录

龙虾的使用体验和技术演进

杨植麟:我们邀请到了各位重磅的嘉宾,覆盖了不同的层面,从底层的算力的上面的agent层,很高兴今天能跟大家一起来探讨一下。最主要的关键词是开源,还有agent。

我们从第一个问题开始,这个问题是给所有人。现在最流行的OpenClaw,大家日常使用觉得最有想象力或者印象深刻的是什么?从技术的角度来看,如何看待今天OpenClaw和agent的演进?

张鹏:OpenClaw我很早就开始玩了,毕竟也是程序员出身,玩这个东西还是有一些自己的体验。

我觉得它最大的突破点在于,这件事情不再是程序员或者极客们的专利,普通人也可以方便地使用顶尖模型的能力。

所以我现在更愿意把OpenClaw称作脚手架。它提供的是一种可能性,在模型的基础上搭起了一个个牢固的、很方便的,但是又很灵活的脚手架。

大家可以按照自己的意愿去使用底层模型提供的一些新奇的东西。原来自己的想法受限,自己不会写代码,今天终于通过很简单的交流就把它完成。这对我来说是一个非常大的一个冲击。

夏立雪:我最开始用它的时候其实不太适应,因为我习惯于跟大模型聊天的交流方式,会觉得它响应慢、不像对话。

后来我意识到一个问题:它和之前的聊天机器人有一个很大的不一样——它应该是能够帮我完成大型任务的一个人。当我开始给他更复杂的任务的时候,我发现其实它能够做的很好。

这件事情对我来说有一个很大的感触:模型从最开始用于对话沟通,到现在变成一个agent,能够帮你去完成任务,它对于整个AI的想象空间已经做了一个很大提升。

但与此同时,它对整个系统能力的要求也显著提高。这也是我一开始觉得它“卡”的原因。作为基础设施厂商,我看到的是agent的兴起对整个系统生态带来了更多机遇和挑战。因为要支撑这样的增长,我们现有资源面临巨大压力。

就拿我们公司来说,从一月底开始,基本上每两周我们的token量就翻一番,现在基本上翻到10倍。上次见到这个速度还是3G,手机流量快速增长的时候。

所以我现在的感觉是,现在的token使用量,有点像当年每月100兆手机流量的早期阶段。在这种情况下,我们所有资源都需要更好的优化和整合,让更多人都能用得起、用得上这种能力。

作为基础设施提供方,我对这个时代是非常激动的。这里面有大量需要优化的环节,也有很多值得探索和尝试的方向。

罗福莉:我个人把这类agent框架看作是一个非常革命性、颠覆性的事件。

我身边很多深度coding的人,可能第一选择还是Claude Code。但只有用过OpenClaw的人会独特地感受到,它其实有很多agent框架上的设计是领先于Claude Code的。包括最近Claude Code很多更新,其实都是在靠近OpenClaw。

我自己使用的话,我感觉这个框架更多是想象力随时随地的扩展。用Claude Code我只能在桌面上去延展创意,但是在OpenClaw可以随时随地延展创意。

我发现OpenClaw的核心价值在于两点:第一是开源,开源非常有利于整个社区深入参与、重视、改进,投入agent框架,这是一个非常重要的前置条件。

第二是它重新定义了模型能力的上下限。像OpenClaw、Claude Code这样的agent框架,它很大一个价值是把国内可能没有非常接近闭源模型,但是水平还是在次闭源模型赛道上的模型,上限给拉到非常高。

在绝大部分的场景,我们发现它的任务完成度已经非常接近Claude最新的模型。同时它又把下限保证得非常好,因为可以靠harness系统、skills体系等设计,保证任务完成准确率。从基座大模型的角度来说,它是保证了基座大模型的下限,拉升了上限

此外,OpenClaw给整个社区带来的价值是,它让大家发现原来在大模型外的这一层,更重要的agent这一层,有非常多的想象力。

我看到最近社区有更多除了研究员以外的人,参与到AGI的变革当中,也有更多人去接触agent框架、harness等等。一定程度说是替代自己的工作,也在释放自己的时间,去做更有想象力的事情。

黄超:首先从交互模式上来讲,为什么OpenClaw会爆火呢?第一是给了大家“活人感”。

我们做agent也有一两年了,但之前包括Cursor、Claude Code这些agent的,其实给人感觉更强的是工具感。

OpenClaw的交互模式,以IM软件嵌入的方式,可以让大家更有自己想象中的“贾维斯”的感觉。

另外一个启发是它的架构本身,像agent loop这样一种非常简单、但又非常高效的框架,再一次被证明是成立的。

它让我们重新思考,我们是否需要一个all in one、非常强大的智能体,能够帮我们做很多事情;还是需要一个轻量级操作系统或者脚手架一样的小管家。

它带来的是可以通过一个小的Openclaw或者是龙虾的生态,让整个社区有玩起来的心态,撬动了整个生态里面所有的工具。

包括skills、harness,越来越多的人可以去设计面向OpenClaw这样的系统里的应用,赋能各行各业。这天然和整个的开源生态结合得非常好。

“智谱新模型怎么涨价了?”

杨植麟:顺着这个话题,想问一下张总,最近智谱也发布了新的GLM-5 Turbo模型,对agent能力有很大增强。能不能给大家介绍一下这个新模型和其他模型的不同之处,以及背后的提价策略,反映了什么样的市场趋势?

张鹏:好,这是个很好的问题,前两天确实我们也紧急更新了一波。这其实是我们整个发展目标当中的一个阶段,我们提前放出来。

最主要的目的,还是主打从原来的简单对话到干活。也是刚才各位讲的非常赞同的一点,OpenClaw能从简单地聊天,到真的能够干活。

干活背后的能力要求是非常高的,它需要自己做规划、不断的尝试,不断地压缩上下文、debug等等,还涉及到多模态信息的处理。这对模型本身能力的要求,其实跟传统的对话模型是不一样的,所以GLM-5 Turbo在这方面做了专门的加强。

你刚才提到的长程、7×24小时,如何能够不停地自己去loop这个事,这里面是做了一些工作。另外刚才也提到token消耗量的问题,你让聪明的模型干复杂的任务,我认为其实token的消耗量是非常巨大的。可能一般人体会不出来,他只会看到自己的账单上那个钱在不断掉。

所以这方面我们也做一些优化,在面临复杂任务的时候,它可能有更高的效率完成这些事情,主要在这些方面做了一些优化。但本质上模型架构还是一个多任务协同的通用模型的架构,只是在能力上有一些偏向性的加强。

那么提价其实也很顺畅,现在不再是简单地问一个问题它去回答,背后有思考的任务,很多任务它通过写代码的方式跟底层的基础设施打交道,还要去debug,随时改正自己的错误。

其实这个消耗量非常大,完成一个任务的工作量是原来简单回答一个问题的token量的十倍甚至百倍,所以成本上是有一定提高的。

模型也变得更大了,它的推理成本也相应的提高了,所以回归到正常的商业价值上面。长期靠低价竞争也不利于整个行业的发展,这是我们的一个考量,也让我们能够在商业化的落地上有良性循环,不断优化模型的能力,更持续地给大家提供更好的模型和相应的功能。

token量暴增对Infra来说意味着什么

杨植麟:非常好的分享。现在随着开源模型的发展,以及推理算力的提升,我感觉也开始形成一个生态。各种各样的开源模型可以在各种各样的推理算力下,给用户提供更多的价值。

随着token量的爆炸,现在逐渐从训练时代变成了推理时代。所以想请教一下立雪,从Infra的层面,推理时代对于无问来说意味着什么?

夏立雪:我们是诞生在AI时代的一个基础设施厂商,这段时间也在积极推进合作,让大家能够把我们的token工厂更高效地用起来。

我们一直都在思考一件事情:AGI时代需要的基础设施会是什么样子,我们怎么一步步在这个过程中实现它和推演它。我现在也是做好了充分的准备,也看到了短期、中期和长期不同阶段,我们需要解决的问题。

当前的问题,其实就是刚刚大家聊到的,现在OpenClaw带来的token量暴增,对系统效率带来了更大的优化需求。价格增长也是大家在需求上的一种解决方式,我们一直以来都是从软硬件协同的方式去布局和解决的,包括接入了能够看到的几乎所有种类的计算芯片,国内十几种芯片和几十个不同的算力集群都连接起来。

这样我们能够解决AI系统中算力资源的紧缺问题,因为当资源不足的时候,最好的办法就是第一把能够用的资源都用起来,第二让每一个token都用在刀刃上,让每一个资源都能发挥出最大价值。所以在这个时代,我们目前要解决的就是如何进一步打造更高效的系统产品。

我们做了很多的优化,包括让模型和硬件上的显存,各种各样的技术进行最优质的适配。包括我们也在探索,能否在最新的理论结构和硬件结构下,能够进行一些更深入的管理。

解决脚下的效率问题,我们还只是打造了功能的标准化,打造了一个token工厂。但是面向agent时代,我认为这是不够的。

就像刚刚说的,agent更像是一个人,你能够交给他一个任务。我很坚定地认为,当前很多云计算时代的基础设施,其实是为服务一个程序,服务一个人类工程师所设计的,而不是为AI设计

这有点像我们做了一个基础设施,它上面有一个接口,这个接口是为人类工程师做的,在上面要再包一层去接入agent,这种方式其实是用人的操作能力限制了agent的发挥空间。

我举个例子,比如说agent能够做到秒到毫秒级别去思考和发起任务,这件事情在基层的k8s这些能力上,其实是没有做好准备的。因为人类发起的任务是分钟级别,我们其实需要进一步的能力,我们将它称作agentic的、更智慧化的工厂。这个是我们现在正在做的事情。

从更长远的未来,真正AGI的时代到来,连基础设施都应该是一个智能体。我们自己所打造的这套工厂本身,也应该能够自我进化、自我迭代,它能够形成一个自主的组织。相当于它有一个CEO,可能是一个claw在管理整个基础设施,然后根据它的AI客户的需求,自己去提需求,迭代自己的技术。

所以我们也在思考,如何让agent和agent通信。基础设施和AI的发展不应该是一个隔离的状态,接受一个需求就去制作,而是应该是产生一种化学反应。这才是我认为真正做到软硬协同,做到这种算法和新设施协同。这也是无问芯穹一直想实现的使命。

中国团队做大模型有何独特优势

杨植麟:接下来想问问福莉,小米最近也发布了新的模型,开源了一些背后的技术,我觉得对这个社区做出了很大的贡献。所以想问一下,小米在做大模型方面,你觉得会有什么独特的优势?

罗福莉:我们先抛开”小米在做大模型有什么独特优势“这个话题,我更想谈一下中国团队在做大模型上的优势,我觉得这个话题具备更广泛的价值。

大概两年前,我看到中国的基座大模型团队已经开始一个非常好的突破——我们怎么在有限的算力,尤其是在NVLink互联带宽受限的情况下,怎么突破限制,去做一些看起来像是在为效率妥协、但本质上却是模型结构创新的工作。比如DeepSeek V2、V3系列中的细粒度MoE和MLA等。

由这样的创新引发的是其实一个变革。这个变革就是我们怎么在算力有限的情况下,去发挥最高的智能水平。我觉得这个是由DeepSeek带给所有国内的基座大模型团队的一个勇气、一个信心。

今天国产芯片,尤其是推理芯片和训练芯片,不再受这个限制,但是我们能看到在这样的限制下,催生了我们对于更高的训练效率、更低的推理效率的模型结构的全新探索。

比如最近出现的hybrid sparse、linear attention等结构方向。包括DeepSeek的相关探索,Kimi的相关方案,以及小米面向下一代模型结构所做的一些研究。它们都指向同一个问题:当我们进入agent时代之后,模型结构到底应该如何进一步演化

我为什么认为结构创新如此重要?因为刚才我们一直在讨论OpenClaw。只要你真正用过OpenClaw,就会发现它往往是“越用越好用,越用越聪明”。而它成立的一个前提,就是推理阶段必须拥有足够长的context。

Long context其实已经是一个被讨论了很久的话题,但直到今天,大家才真正开始意识到:不是模型做不到百万级甚至千万级上下文,而是如果推理成本太高、速度太慢,这件事就没有现实价值。

所以,真正关键的问题是:你能不能在100万甚至1000万级context的情况下,把推理成本打下来,把速度提上去。只有在这种前提下,用户才会愿意把真正具有高生产力价值的任务交给模型,模型也才有机会在长上下文环境中完成更高复杂度的任务。

甚至可以说,只有到了1000万级、上亿级上下文的阶段,我们才可能真正看到模型的自我迭代能力被释放出来。

所谓模型的自我迭代,就是它能够在一个复杂环境里,依靠超强的上下文能力,完成对自身的持续进化。这个进化既可能发生在框架层,也可能发生在模型参数层。因为在我看来,长上下文本身其实就是对参数能力的一种外延和增强。

所以,未来真正的竞争会是一个全方位的竞争:一方面,你能不能做出原生适配长上下文的模型架构;另一方面,你能不能在推理侧真正把long-context efficiency做出来。除此之外,还包括你能否在预训练阶段就把这类架构打牢,以及在后训练阶段,能不能把模型在真实长程任务上的稳定性和能力上限继续往上推。

我们现在也在思考,怎样构造更有效的学习算法;怎样采集在100 万、1000万、甚至更长上下文里,真正具有长期依赖关系的文本;以及怎样结合复杂环境,生成高质量的轨迹数据。这些,都是我们正在持续推进的事情。

但我能看到的更长期趋势是:随着大模型本身在飞速进步,再叠加agent框架的加持,推理需求一定会继续迅速增长。就像刚才立雪提到的,过去一段时间里,token需求已经增长了接近十倍。

那么今年,整个token需求会不会增长到一百倍?这其实已经把竞争带到了另一个维度:不仅是模型之间的竞争,也是算力、推理芯片,甚至能源层面的竞争

所以,如果大家继续深入思考这个问题,我相信我也会从各位身上学到更多。

agent值得重点关注的方向

杨植麟:非常有价值的分享。下面想问一下黄超,你也开发了一些非常有影响力的agent项目,包括像nanobrowser这样的项目,在社区里也积累了很多用户和粉丝。想请你谈谈,从技术或者应用层面来看,接下来有哪些值得重点关注的方向?

黄超:感谢植麟。我觉得,如果把agent技术抽象出来,核心大致有几个模块:planning、memory和 tool use

先说planning。我觉得现在最大的问题,仍然出现在长程任务和复杂上下文上。比如一个任务可能需要500步,甚至更多步骤,很多模型未必能够做好规划。

我认为,本质上还是因为模型不具备足够的隐性知识。尤其是在很多复杂的垂直领域,这个问题会更加突出。未来一个很重要的方向,是把已有的复杂任务知识更系统地固化到模型中。

当然,从skills的角度来看,包括harness在内的很多机制,本质上也是在缓解planning过程中带来的错误。因为高质量的skills,其实就是在帮助模型完成一些本来较难的任务。这是planning这一部分。

再说memory。我的感受是,memory始终会面临一些根本性问题,比如信息压缩不准确、表达失真等。随着长程任务和复杂场景越来越多,memory的需求也会迅速膨胀,这本身就会给整个系统带来很大压力。

但现在,包括各种龙虾在内,很多系统采用的memory方案其实都还比较简单,例如基于文件系统、Markdown文件,或者通过共享文件的方式来管理memory。我觉得未来的memory很可能会走向分层设计,同时也要想办法让它更加通用。

因为说实话,当前的memory机制其实很难做到真正的通用。比如coding场景、deep research场景、多模态场景,它们的数据模态差异都非常大。如何针对这些不同类型的memory做更好的检索和索引,并进一步提高效率,我觉得这会一直是一个关键方向。

另外一点是,OpenClaw这类系统把创建agent的门槛大幅降低之后,未来可能不会只有一个agent。比如我们已经看到,Kimi也在尝试agent swarm这样的机制。也就是说,未来每个人可能拥有的不是一个“龙虾”,而是一群“龙虾”。

而一群agent所带来的上下文规模,相比单个agent会大得多。这也会进一步加大memory的压力。现在其实还没有一套特别成熟的机制,去管理这种多agent带来的海量上下文。尤其是在复杂coding、科研发现这类任务中,不管是对模型本身,还是对整个agent架构,压力都会很大。

最后是tool use。我觉得在这一块,现在整个skill生态仍然存在不少问题。MCP当年暴露出来的一些问题,其实在今天依然存在,比如质量缺乏保障,以及潜在的安全风险。

现在虽然skill很多,但高质量的skill其实仍然偏少。低质量的skill会显著影响agent完成任务的效果;与此同时,skills本身也可能存在恶意注入等问题。

所以在这一块,我觉得很大程度上还是需要依靠整个社区,一起把skills 生态建设得更好。甚至进一步思考,怎样让系统在执行过程中演化出新的skills。

总的来说,我觉得无论是planning、memory,还是skills,都是当前一线最现实的痛点,也都是未来非常重要的演进方向。

一个词描述接下来12个月大模型的发展趋势

杨植麟:可以看到,刚才两位嘉宾其实是从不同视角讨论了同一个问题。

随着任务复杂度不断提升,上下文规模也会迅速膨胀。一方面,模型层面可以继续提升原生上下文长度;另一方面,在agent和harness层面,像刚才提到的planning、memory以及各类辅助机制,也能够帮助模型在既有能力边界内支撑更复杂的任务。我觉得这两个方向接下来会进一步产生化学反应,从而提升系统完成复杂任务的能力。

最后,我们做一个开放式展望。想请各位用一个词,来描述接下来12个月大模型发展的趋势,以及你们的期待

黄超:说实话,在 AI领域,12个月听起来都已经很遥远了,甚至很难判断12个月之后会发展成什么样。但如果一定要用一个词来概括,我会选“生态”

我觉得现在OpenClaw让整个社区非常活跃,这是一个很好的开始。但未来agent真正重要的,不只是成为个人助手,而是要进一步转化为真正能一起工作的“打工人”,或者说coworker。

现在很多人使用它,可能更多还是出于新鲜感,或者觉得好玩。但未来,只有当这些“龙虾”真正沉淀下来,成为大家稳定的生产工具、协作伙伴,这件事才算真正跑通。

而这件事离不开生态的共同建设。开源在这里面非常重要。因为只有把相关的技术探索、模型能力、工具能力持续开放出来,整个生态才可能共同推进。无论是模型本身的迭代,还是skills平台的演进,或者各种工具链的完善,我觉得都需要围绕agent去建立一个更好的生态。

从我自己的观察来看,未来一个很明显的问题是:软件到底还是不是主要给人用的?我觉得未必。未来很多软件可能不再以人类为中心,因为人类需要GUI,但很多系统可能会越来越偏向agent-native,也就是原生面向agent使用

这样一来,人类可能只会保留那些真正让自己感到愉悦的交互,而大量真正执行性的工作,会逐渐转移给agent。所以我觉得,现在整个生态其实已经在发生变化:从GUI、MCP,逐渐转向CLI这种模式。

接下来,不管是软件系统、数据结构,还是各种技术栈,本质上都需要朝着agent-native的方向重构。只有这样,整个agent生态的发展才会更加丰富。

罗福莉:我觉得,把这个问题收缩到一年的尺度非常有意义。因为如果把时间拉到五年,我觉得AGI已经实现了。如果要用一个词来概括接下来一年里AGI进程中最关键的一件事,我会选“自进化”

虽然这个词听起来有一点抽象,但我最近对它有了更具体、也更务实的理解。过去一年,大家已经多次提到这件事,但直到最近,我才真正开始感受到,“自进化”这件事其实已经开始具备比较可行的实现路径。

其中一个很重要的原因在于,随着模型能力增强,我们逐渐意识到,在过去那种单纯对话式的范式下,预训练模型的上限其实并没有被真正发挥出来。而今天,这个上限正在被agent框架逐步激活。

我们现在已经摸到这个边界了。尤其是当模型开始执行更长时间的任务时,我们会发现,它其实能够自己学习、自己进化。一个很简单的实验是:在现有框架上,叠加一个可验证的目标约束,再给它设置一个 loop,让它持续围绕这个目标进行迭代优化。你就会发现,模型会不断拿出更优的方案。

如果这种自进化机制可以持续运转,那么它的潜力会非常大。现在其实很多国内模型已经能够稳定跑上一到两天了。当然,这和任务难度有关。比如在一些科研任务中,模型去探索更优的结构设计,因为这类任务存在明确的评估标准,例如更低的PPL,这就意味着它具备可验证性。在这种确定性较强的任务上,我们已经看到,模型能够自主优化并持续执行两三天

所以从我的角度来看,自进化是一个真正可能创造新东西的方向。它不是简单地替代人类已有的生产力,而是像顶尖科学家一样,去探索世界上原本还不存在的东西。一年前,我还会觉得这个过程大概要三到五年;但到了最近,我反而觉得这个时间窗口应该缩短到一到两年

也就是说,我们可能很快就能看到:在一个很强的自进化agent框架加持下,大模型对科学研究带来至少指数级的加速。

因为我最近已经很明显地观察到,我们组内做大模型研究的同学,他们的workflow本身就是高度不确定、又高度依赖创造力的。而在这种情况下,借助Claude Code,再结合非常顶尖的模型,研究效率基本上已经可以提升接近十倍

所以我非常期待这种范式未来能够辐射到更广泛的学科和领域。我觉得,这会是一件非常重要的事情。

夏立雪:我的关键词是“可持续”。因为我看到,整个行业的发展仍处在一个长期演进的过程中,我们也希望它具备长久的生命力。从基础设施角度看,一个非常现实的问题是,资源终究是有限的,就像我们过去谈“可持续发展”时反复强调的那样。

我们现在作为一家token工厂,能否持续、稳定、大规模地向外提供可用的token,让顶尖模型真正持续服务更多下游场景,这是我最关注的问题。

因此,我们也需要把视角进一步放宽到整个生态:从最早的能源转化,到算力,再到token,最终转化为GDP,形成一条可以持续进行经济化迭代的完整链路。

而且,我们不只是要把国内各种算力资源真正用起来,也在尝试把这些能力输出到海外,让全球资源能够更好地打通和整合。

所以我所说的“可持续”,其实也包括把具有中国特色的token经济学真正做起来。过去我们讲的是Made in China。大家会发现,我们能够把中国具备成本优势的制造能力,转化为优质商品并输出到全球。

今天我们想做的,有点像AI Made in China。也就是说,把中国在能源等方面的优势,通过token工厂持续转化为高质量的token,并输出到全球,最终成为全球的token工厂。这是我希望在今年看到的,中国为世界人工智能发展带来的价值。

张鹏:我尽量简短一点。前面大家可能都在仰望星空,那我就稍微落地一些。我认为,未来12个月最关键的问题,可能还是算力

因为刚才大家已经提到,不管是模型能力,还是智能体框架,确实都在显著提升创造力和生产效率,很多场景下甚至可以带来十倍级的效率提升。但前提是,大家得用得起,也用得上。不能因为算力不够,用户提了一个问题,结果模型想了半天还给不出答案,这显然是不行的。

也正因为如此,我们很多研究进展,包括很多原本想做的事情,事实上都会受到制约。前两年业界有一句话,叫“讲卡伤感情,没卡没感情”。我觉得,今天某种程度上又回到了这个阶段,只不过这一次的背景已经不一样了。

因为我们现在正在真正转向推理阶段,而之所以会转向推理阶段,是因为需求正在爆发,而且是十倍、百倍地爆发。刚才也提到,过去一段时间需求可能已经增长了十倍,但真实需求也许是一百倍,那还有大量需求没有被满足。这个问题怎么办?我想,这可能需要我们一起想办法。谢谢。

杨植麟:好,感谢各位的精彩分享,谢谢大家。

版权所有,未经授权不得以任何形式转载及使用,违者必究。