科技·商业·财经

“龙虾”搅动大模型江湖:新逻辑涌现,推理时代加速狂奔

   时间:2026-03-28 13:51 作者:钟景轩

在中关村国际创新中心,一场聚焦大模型行业变革的讨论吸引了众多目光。此次论坛汇聚了月之暗面创始人杨植麟、智谱CEO张鹏、无问芯穹创始人夏立雪、小米MiMo负责人罗福莉以及香港大学助理教授黄超等业内核心人物,他们围绕近期行业热点“OpenClaw”展开了深入探讨。

过去一个月,OpenClaw成为行业焦点,它几乎重塑了大模型的调用格局。智谱、Kimi以及小米MiMo等多家模型厂商都从中受益。3月下旬,在全球最大的模型API聚合平台OpenRouter上,一款名为Hunter Alpha的模型调用量迅速登顶,随后小米确认该模型正是MiMo - V2 - Pro。OpenClaw带来的影响远不止调用量的增长,它让行业清晰地看到大模型进入实际应用阶段后,技术与商业逻辑正发生深刻改变。

在讨论中,模型承担“完整任务链路”成为重要话题。过去,用户向大模型提问,大模型仅作答,任务链路断裂。如今,OpenClaw将模型引入任务执行环节,用户给出目标,系统负责拆解、尝试、修正和交付。张鹏将其比作“脚手架”,普通人可借此调用顶级模型完成完整任务,用户与模型的关系从“提问—回答”转变为“目标—执行—迭代”。这一转变改变了评价方式,单轮回答不再重要,复杂任务能否稳定收敛成为关键,模型被置于交付结果的语境中,系统规划、调度和试错消耗时间,也堆叠了能力。

Token的变化也备受关注。夏立雪提到,公司Token用量从1月底开始每两周翻一倍,在Agent场景下,单个任务的Token消耗是传统问答的10倍甚至100倍。过去,大模型对话问答时代,Token消耗量低,普通用户免费就能使用AI。但OpenClaw出现后,Token用量呈指数增长成为新共识,其消耗量远高于传统对话。不过,Token不再只是成本指标,它对应规划、执行、调用工具的全过程,接近“机器工时”,将重塑价格体系,成本上升与任务价值绑定,成为新的定价基础。

大模型行业正从训练时代快速迈向推理时代。在智谱、MiniMax等大模型公司未上市阶段,“训练”曾是主流,但OpenClaw加速了推理时代的到来。随着任务复杂度上升,Context长度迅速拉长到1M甚至10M级别,这促使厂商在推理侧进行结构创新,如Hybrid架构、Linear Attention、Long Context Efficient设计等,目的是在更长Context下降低成本、提高稳定性。这也意味着竞争维度下沉,从模型参数规模转向推理效率、系统调度甚至能源成本。

在Agent框架下,系统能力开始抵消模型差距。模型之间的能力差距被部分压缩,通过Skill和工具组合,次顶级模型也能完成复杂任务。此时,用户更关注任务结果,而非模型本身指标,参与门槛降低,构建能力向系统工程倾斜,不再局限于算法。

对于OpenClaw,各位嘉宾发表了不同看法。杨植麟提出,大家在日常使用或类似产品时,觉得什么最有想象力或印象深刻,并请张鹏从技术角度谈谈对OpenClaw和相关Agent的看法。张鹏认为它是一个“脚手架”,为在模型基础上搭建提供了牢固、方便且灵活的可能性,普通人能极低门槛使用顶尖模型,尤其是编程和整体能力,这是重大突破。夏立雪起初不适应OpenClaw,觉得它慢,后来发现能完成大型任务,从按Token聊天到能完成任务的Agent,想象力空间提升,但对系统能力要求增大,作为基础设施厂商,看到机遇和挑战,资源需支撑快速增长时代。罗福莉认为OpenClaw具有革命性和颠覆性,在Agent框架设计上领先于Code,其“开源”有利于社区参与,拉高了国内次顶级闭源模型上限,保证了任务完成度下限,还点燃了大家想象力,让更多人参与AGI变革。黄超表示,OpenClaw在交互模式上给人“更有活人感”的体验,更接近个人贾维斯,还证明了架构Agent的框架可简单高效,让大家思考是否需要All in one的超级智能体,撬动生态工具赋能各行各业。

讨论中,杨植麟还询问张鹏智谱新发布的GLM Turbo模型情况。张鹏称发布Turbo是为了让大模型从“简单对话”转向“干活”,OpenClaw让大家看到大模型能干活,但背后Token消耗高,需要规划、尝试等,Turbo在这些方面优化,本质是多智能体协同架构,能力上有偏向性加强。关于提价,他解释因干活消耗的Token量是简单问答的10倍甚至100倍,成本大幅提高,长期低价竞争不利于行业发展,调整价格是为回归正常商业价值,持续优化模型提供更好服务。

当被问到小米做大模型的优势时,罗福莉先谈了中国大模型团队的优势。两年前,中国团队在算力受限,尤其是互联带宽受限的情况下,通过模型结构创新(如DPCV3、M1、MA等)追求最高效率,这给了团队勇气和信心。如今国产芯片不再受限,但对高效率、低推理成本的探索依然重要,如现在的Hybrid、SPA、Linear attention结构等。结构创新重要是因为OpenClaw越用越聪明的前提是推理Context,难题是在1M或10M的长上下文下做到成本低、速度快,以激发高生产力任务,实现模型自迭代。小米正在探索Long Context Efficient架构,以及在真实长距离任务上做到稳定和高上限。更长期看,随着推理需求爆发,今年可能增长100倍,竞争维度将下探到算力、推理芯片甚至能源层面。

 
 
更多>同类内容
全站最新
热门内容