“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

编辑:编辑部

【新智元导读】OpenClaw火爆全网,AI正式进入了Agent时代。一个低调的中国团队通过极速的推理能力和完美支持128G内存的196B模型,成功击中了用户的痛点,迅速登上了海外热榜。

2026年刚开启,AI领域的潮流就已经发生了翻天覆地的变化。

如今,全网最热的OpenClaw瞬间将大模型的应用,从单调的「对话框」提升到了「自动执行中枢」的全新阶段。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

OpenClaw的GitHub星标数暴增至200k

从海外来看,OpenClaw的开源生态正在经历前所未有的爆发。核心的Skill注册平台ClawHub,现已成为全球开发者的宝库。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

该平台汇集了超过5000个社区贡献的丰富Agent Skills

新平台崛起,开发者们纷纷涌入!

最近,国内有一个新兴平台水产市场受到了热烈的关注。

上线没几天,这个平台就已经吸引了3.3千的下载,许多开发者也开始轻松地将他们的龙虾接入到里面。

它的主要思路是把各种零散的GitHub工具都集中在一起,方便随时调用Agent。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

访问链接:https://openclawmp.cc/

如今,随着AI技术的飞速发展,开发者的选择变得更加简单明了:

在那些复杂的长途任务中,谁能快速响应、逻辑缜密,并且能与各种工具无缝对接,谁就能在竞争中脱颖而出。

正是因为这种「实战至上」的趋势,一个低调的中国大模型团队——

(StepFun)阶跃星辰,凭借最新推出的Step 3.5 Flash,成功把握住了这股火热的流量红利。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

全球的「逮虾户」

争夺中国黑马模型

OpenClaw的运作需要频繁调用大模型的API,OpenRouter作为全球最大的模型聚合平台,毫无疑问这里成为了激烈竞争的「战场」。

在GPT等强劲对手的围追堵截下,Step 3.5 Flash异军突起,不仅顺利进入了Fastest榜单的第一梯队,还一度夺得Trending榜的第一名

一个代表了速度,一个象征着潮流,完美击中了Agent时代开发者关注的两大关键点:快,以及越来越多的人在使用。

根据「最近30天」的调用量排行榜,Step 3.5 Flash目前稳稳占据全球第四;自2月26日以来,单日调用量一下子冲击到了第三的位置。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

但更有意思的是,这个成绩是怎么实现的。

阶跃的CTO朱亦博在Reddit上分享了一些内幕:

Step 3.5 Flash并没有出现在OpenClaw的默认推荐列表中,也没有和OpenClaw进行任何官方合作推广。

开发者的真实选择:一步步走向成功的故事

说白了,这真的是开发者们自己自发选择的结果——每个人用自己的选择投下了信任的一票。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

深入Reddit,了解真相

海外开发者的真实反馈

随着使用量的急剧上升,阶跃的核心团队走进了全球最严苛、最挑剔的开源社区Reddit的r/LocalLLaMA板块,进行了一场持续数小时的问答活动(AMA)。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

熟悉这个社区的人都知道,r/LocalLLaMA聚集了一群全球最硬核的独立开发者。

他们可不在乎华丽的PPT,也不相信那些商业宣传,关键是模型在他们自己的机器上能否流畅运行。

面对这些挑剔的极客,StepFun带着包括CEO、CTO和首席科学家在内的全明星团队,十一人齐心协力在线解答问题

当面对这些海外极客尖锐的技术提问,甚至是对工程Bug的直接质疑,阶跃表现出了真诚且扎实的回答。

如果把这次跨越海洋的对话和最近的排行榜逆袭放在一起分析,不仅能揭示Step 3.5 Flash在海外走红的深层原因,还能让我们看到:

在算力与生态的多重挑战下,一家中国创业公司是如何找到出路的。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

先聊聊速度。

在如今的Chatbot时代,大模型只需保持20到30 tokens/s的输出速度就可以了。毕竟用户在屏幕前等着看它“打字”,再快也赶不上他们的阅读速度。

不过到了Agent时代,游戏规则完全改变了。

当用户使用像OpenClaw这样的工具来完成长时间的任务时,没人会关注模型每一个字的输出——大家只想知道「你啥时候能把工作完成交给我」。速度从原来的“锦上添花”变成了“生死攸关”。

海外用户的反馈也验证了这一点。

在AMA环节中,有网友直言:“我用OpenClaw的效果太好了,速度快得惊人,绝对是所有模型里最让人满意的。”

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

接下来聊聊尺寸。

如果说速度是引导热情的火花,那么在AMA中引发高潮的,是一个看似普通的参数设置:大约196B的MoE架构。

对于开发者来说,这个尺寸简直像是“灵光一现”。

知名评论员ilintar兴奋地留言:“我认为196B MoE是一个完美的参数规模——它能实现高质量的4-bit量化,并且合理的上下文长度正好能放进128 GB的内存里。”

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

这个“关键点”可不是偶然。朱亦博在AMA中坦言:

我们的确设定了一个目标,就是让它能够在128 GB内存的系统上运行。我自己为了跑模型,特意买了一台128GB内存的Macbook Pro,而我们的首席科学家也购置了一台128GB内存的AMD机器。

作为资深的本地模型用户,我非常清楚其中的痛点。

许多230B级别的模型在进行4-bit量化后,恰好超出了128GB内存的极限,导致开发者不得不牺牲性能,使用3-bit甚至更低精度的量化,或者忍受极其缓慢的硬盘卸载速度。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

开源社区的真实感受与技术挑战

为了让开发者们能够顺畅使用4-bit在256K上下文中运转,技术团队将模型的尺寸巧妙地限制在了比235B稍小的范围内,真是个精明的选择。

这不仅仅是技术上的算计,更体现了他们对开源社区实际需求的深刻理解。

难怪有用户感慨说:“你们考虑到128GB内存的限制,真是太棒了!”

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

当然,用户的反馈可不全是赞美。

有开发者直言不讳地指出,Step 3.5 Flash在发布的第一天,主流推理框架如vLLM和llama.cpp完全无法调用工具,甚至有人直接放弃测试,转而使用其他模型。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

面对这样的直接质疑,CTO朱亦博亲自出来道歉:

他坦言,这确实暴露了团队在发布支持工具调用的模型时经验不足……他们只确保了数学和编码的基准测试结果,但测试用例并没有覆盖工具调用的实际应用。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

对于用户反映的模型陷入“无限推理循环”的Bug,团队也没有回避这个问题。

他们详细解释说,这是因为缺乏不同推理强度的数据训练,并且公布了通过强化学习(RL)进行显式长度控制的修复计划。

更有意思的是,谈到“世界知识遗忘”这种深奥的技术难题时,团队也毫不避讳地分享了他们遇到的困境和设想:

在处理200B规模的推理模型时,从预训练转换到推理模式的冷启动阶段,模型容易陷入“知识贫乏的闭合子空间”,这就导致了过高的“对齐成本”,进而影响了世界知识的完整性。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

这种不回避缺陷,甚至把曾经的错误详细讲述出来的态度,赢得了极客们的高度尊重。

开源社区最终只在乎一件事:你是否在真正解决问题,是否与开发者们站在同一条战线。

甚至有用户主动提出:“如果我能在下个版本之前搞定自动解析器,你们就不用担心llama.cpp的工具调用支持了。”

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

这,就是开源的力量。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

196B参数背后的设计理念

从CTO朱亦博最近发的一篇长文中,我们能看到阶跃在大模型发展上的战略思考。

“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”

第一个判断:大模型时代正在进行赛道转换。

如今,大模型的演变可以分为三个阶段:L1对话机器人→ L2推理器→ L3智能体。

每个阶段所需的“基础架构”也是各不相同的。

换句话说,强行用旧的模型去做新的事情,虽然可以,但效率会低得让人心疼。

对于那些算力不如海外大厂的中国企业来说,低效率是致命的短板。

第二个判断:在Agent时代,速度比参数值更为关键。

相较于疯狂增加参数,一个高效的模型显得更为重要。

这就意味着,模型的推理速度不仅仅是“用户体验的提升项”,而是成为了“核心竞争力”。

因此,Step 3.5 Flash的设计目标明确为三个关键词:强逻辑、长上下文、快

在架构方面,它引入了高效的稀疏MoE,并选择了最适合投机采样的SWA结构;同时在端侧部署时,团队坚持使用8个Group,以适应8卡并行的推理硬件。

这种从一开始就把“智能密度”和“推理速度”作为基础指标的做法,使得Step 3.5 Flash在不盲目增加参数的情况下,成为了非常适合Agent工作流程的“性能小钢炮”。

第三个判断:拒绝孤注一掷,持续发展才是王道。

这场AMA及其背后的开发故事中,最引人深思的,其实是阶跃星辰对“大参数模型”的重新审视。

在巨头之间,开辟一条“实战派”之路

说到阶跃星辰,其实他们觉得,训练超大模型很容易就会让人陷入一个死胡同。你想啊,训练周期长得出奇,等你辛辛苦苦把模型调试得差不多了,前一个智能时代已经快结束了,新的趋势(像长链条推理)又冒出来,这样一来,想适应新环境就得从头再来。

这可是需要巨头级别的算力支持啊,对于那些创业公司来说,简直就是一场要么成功要么亏得一塌糊涂的豪赌。

更有意思的是,技术的深入分析显示,当模型达到一定的规模后,它的逻辑能力与模型的大小其实没什么关系,逻辑能力主要是依赖于后期的训练技术。

从2026年初的大模型竞争看,市场正在经历一场巨变。

前两年大家关注的焦点是,谁的模型跑分更高,谁能接近所谓的最先进技术(SOTA)。

但如今,情况有了新的变化:现在的关键是,谁能在算力有限的情况下创造现金流?谁又能在模型能力和推理成本之间找到最佳平衡点?

Step 3.5 Flash的横空出世,以及它在Reddit上引起的热潮和在OpenClaw榜单上的逆袭,给出了一个很有启发性的答案。

如果算力不是你的强项,那就把系统和算法的联动设计做到极致;

如果无法打造那种通吃一切的超级模型,那就专注于Agent时代的痛点(比如长上下文的效率、快速推理、强逻辑的后期训练)进行精准打击;

在商业化方面,提供最适合硬件部署的高效工具(例如128GB的配置),自然就吸引了OpenClaw带来的开发者流量。

就像团队在AMA中提到的:“训练基础模型既是一门科学,也是一项工程。最重要的是每个团队成员都要理解设计目标。一旦目标明确,算法的选择、数据的处理和基础设施的决策就会水到渠成。”

这或许才是2026年AI竞争的真实面貌——不是实验室里的简单跑分游戏,而是在实际工作流程中的生死竞速。

当你的模型每天能被全球的开发者调用数百亿次时,任何华丽的PPT都比不上那句“它就是好用”来的更有说服力。

至少在此时此刻,阶跃星辰的Step 3.5 Flash已经以最简单直接的方式证明了它的价值。

代码是无国界的语言

深夜时分,在Reddit上,一个外国朋友用英语提问,而一位中国工程师用同样的语言回应,场景十分生动。在那些被全球开发者频繁调用的模型名称中,体现了无数人的智慧。

其实,语言的转换并不重要,真正的沟通在于代码本身,它才是最具说服力的表达方式。

来源:百家号
原文标题:OpenClaw杀出中国黑马,全球开发者狂呼真香!一场深夜AMA撕开底牌
声明:
文章来自网络收集后经过ai改写发布,如不小心侵犯了您的权益,请联系本站删除,给您带来困扰,深表歉意!

《“OpenClaw黑马逆袭中国,全球开发者竟然都赞不绝口!深夜AMA揭秘真相!”》有9条评论

发表评论