本文来自微信公众号:字母AI,作者:苗正,头图来自:AI生成
说到OpenClaw,这可是最近AI圈里的热门话题,任何一点小动静都能让全球的AI公司紧张不已。许多产品经理们在这个平台上展开了创意的比拼。
而中国的厂商也不甘示弱,他们不仅看到OpenClaw这个产品,更关注的是它所代表的整个代理市场。
这个市场需要云服务器、模型API、本土化产品以及更简单的部署方案。
要想在中国AI领域抢占先机,就得抓住Anthropic和谷歌对其施压的机会。
腾讯云和阿里云已经推出了一键部署服务,他们想借此机会成为AI界的“铲子供应商”。
月之暗面发布了云端版本的Kimi Claw,紧接着MiniMax也推出了MaxClaw,原因很简单:本土化的OpenClaw在市场上依然有很大的空白。
虽然智谱和字节没有明确表示他们会参与OpenClaw,但实际上他们也在悄悄行动。OpenClaw的成功让他们对代理产品充满了信心。
一、月之暗面的云端OpenClaw
在OpenClaw问世之前,大家主要是通过对话式的方式使用大模型,用户问一句,模型答一句,单次调用的token消耗相对较少。
而OpenClaw则开创了一种全新的“模型消费场景”。
一个配置得当的OpenClaw,可能每天会发起数百甚至上千次请求,每次请求都需要传递完整的上下文信息。这意味着,一个OpenClaw用户的token消耗可能是传统聊天用户的几十倍甚至上百倍。
因此,OpenClaw成为了OpenRouter平台上token消耗最大的应用。能够接入OpenClaw生态的模型,就意味着能获得一个快速增长的需求渠道。
当OpenClaw用户在选择底层模型时,他们并不是只看模型的性能和知识储备,而是关注一个稳定、持续且高频的供应商。
谁的模型更耐用、更便宜,谁就是OpenClaw生态里的赢家。
所以,月之暗面和MiniMax在OpenClaw的浪潮中获得了丰厚的回报。
先聊聊月之暗面吧,他们在OpenClaw生态中的角色经历了两个阶段的变化。
2026年1月,Kimi K2.5凭借其低价和强大的代理能力,成为OpenRouter平台上调用量最高的模型。
根据OpenRouter的数据,Kimi K2.5的周token使用量最高曾增长261%。它的调用场景主要来自OpenClaw。
原因在于,Kimi K2.5能够同时支持最多100个子代理执行,并且工具调用次数超过1500次,这让它在代理场景中表现非常出色。
因此,在1.30版本更新后,OpenClaw官方将Kimi K2.5设为“首个官方免费主力模型”,用户在安装OpenClaw时可以选择MoonshotAI通道,甚至可以不填API Key,OpenClaw官方会补贴算力。
这种爆发式的增长直接带来了商业回报。
在全球付费用户和API调用量大幅上升的推动下,Kimi K2.5发布不到一个月,近20天的累计收入就超过了2025年全年的总收入。
正因为有了OpenClaw,Kimi的海外付费用户数迅速增长,海外收入首次超越国内。根据SimilarWeb的数据,Kimi上月的访问量达到了3300万,而中国地区的访问量占比从去年的77%降到了今年的60%多。
在这个阶段,月之暗面扮演着“模型供应商”的角色,主要提供API服务。
不过,Kimi团队很快意识到,主动降低用户的使用门槛更为重要。一个月后,Kimi正式推出了Kimi Claw。
这是一项云端托管的OpenClaw服务,用户无需本地部署,直接在浏览器中就能使用完整的OpenClaw功能。
Kimi Claw省去了原版OpenClaw的复杂步骤,用户只需拥有Kimi Allegretto及以上会员,便能在网页上快速创建自己的“云端OpenClaw”,整个过程并不超过1分钟。
Kimi Claw内置了Kimi K2.5模型,自动关联用户的Kimi Code会员权益。用户无需额外设置API Key,也不用担心会消耗大量token而导致账单激增。
在功能上,Kimi Claw直接整合了ClawHub社区的5000多个技能库,用户可以在网页界面上一键启用,包括天气查询、网页搜索、浏览器操作、邮件处理等常见场景。
而原版OpenClaw的技能需要用户通过命令行手动搜索、安装和配置,普通用户在这方面常常面临门槛。Kimi Claw则将这些技能整合到界面中,用户只需轻松点击即可启用,大大降低了使用难度。
原版OpenClaw的核心理念是“本地优先”,所有的对话记忆和文件都保存在用户自己的设备上。这虽然保护了隐私,但也导致不便,用户换设备时必须重新配置,AI助手的记忆也无法延续。
而Kimi Claw则提供了40GB的云存储空间,用户可以在办公室电脑、家里的电脑和手机间无缝切换,AI助手的记忆始终保持一致。
这样一来,对于需要在多个设备间切换的用户来说,这个功能真是太实用了。
二、MiniMax也这么干了
在2月25日,MiniMax也推出了自己的MaxClaw,采用了与Kimi Claw相似但更加激进的做法。
MaxClaw基于MiniMax M2.5模型,虽然这个模型的总参数量约为2300亿,但单次推理只激活约100亿的参数,API价格却非常实惠。
M2.5在OpenRouter上的表现也相当出色。发布后12小时内就登上了热度榜,且在一周内成为调用量榜首,周调用量激增至3.07万亿token,超过了Kimi K2.5、GLM-5和DeepSeek V3.2三者的总和。发布7天内,token使用量突破3万亿,2月单月的token使用量达到了4.55万亿,轻松登顶。
那么,M2.5是如何在短时间内实现如此惊人增长的呢?答案同样与OpenClaw有关。
MiniMax M2.5的定价策略非常具有竞争力。在每秒输出100token的情况下,连续工作一小时只需要1美元;而在每秒输出50个token的情况下,仅需0.3美元。
这意味着,在运行一个7×24小时的OpenClaw实例时,M2.5的成本可能仅为Claude Sonnet的1/10到1/20。对需要高频调用工具的代理场景来说,这种成本差异是至关重要的。
OpenClaw社区的开发者们很快意识到了这一点。
在外网论坛上,关于“如何在OpenClaw中配置M2.5”的教程层出不穷,甚至有开发者专门编写了“从Claude迁移到M2.5”的指南。这种在开源社区中的传播,效果比任何广告都要好,因为OpenClaw能够走到今天,也是得益于开源社区的推动。
三、腾讯、阿里的“卖铲子”生意
其实,OpenClaw对普通用户来说,门槛还是蛮高的。你需要有自己的服务器,懂得怎么配置Node.js环境,还得会申请各种模型的API Key,甚至要懂得设置消息通道。
整个流程下来,没个半小时到一小时搞不定,技术小白看到这些教程基本上就打退堂鼓了。这种极客产品注定只在开发者圈子里流行,想要真正普及到大众市场,难度可想而知。
腾讯和阿里看到了这个痛点,干脆直接给用户提供一整套开箱即用的解决方案,省得大家自己折腾。
于是,OpenClaw大火后,腾讯云和阿里云几乎是同步推出了一键部署服务,让用户轻松上手。
这些云厂商提供的服务可不仅仅是一台服务器那么简单。他们把整个OpenClaw的运行环境都整合好了,包括预配置的镜像、自动化部署脚本、已调试好的依赖包,甚至连模型API接入方案都准备好了。
用户只需点击几下鼠标,选择配置,付款后稍等片刻,就能看到完整的OpenClaw实例跑起来了。
腾讯云的方案相对简单明了。
他们在轻量应用服务器上推出了“云应用”功能,用户借助这个功能可以三步完成OpenClaw的部署。系统默认配置的模型供应商是DeepSeek API,但用户可以在控制面板上自由切换到Kimi、MiniMax或其他国产模型。
腾讯云的官方文档写得很清楚:“OpenClaw来自开源社区,云应用不收费”,但随后又补充了一句,“云服务器和API按实际消耗计费”。
腾讯赚的不是OpenClaw的使用费,而是云服务器的租赁费、流量费和模型API调用费用。他们并不强制用户使用自家的模型,给了大家选择的空间,但基础设施这块可就没得商量了。
阿里云的策略则更加“生态化”。
用户在轻量应用服务器上部署OpenClaw之后,系统会引导用户去“阿里云百炼大模型控制台”创建API Key,默认调用的就是通义千问系列模型。
阿里云还推出了一个名为“Coding Plan”的通用订阅套餐,兼容OpenClaw的接入,旨在推广自己家的AI编程及模型API。
换句话说,阿里通过OpenClaw的代安装服务,进一步推广自己的产品。
腾讯和阿里希望的,就是在这个agent时代占据“水电煤”的地位。
OpenClaw的火爆证明了一个趋势,未来的AI应用不再是简单的“聊天机器人”,而是一个24小时在线、能执行复杂任务、需要稳定算力支持的agent。
当个人用户和中小企业开始部署agent时,他们需要的可不仅是模型的API,还包括云服务器、存储空间、网络带宽,甚至是飞书、钉钉、企业微信这样的消息集成以及安全沙箱环境等一整套基础设施,最后别忘了具体的执行工具,像AI编程这样的服务也很重要。
所以,腾讯云和阿里云才会提供“一键部署OpenClaw”的服务,想要在这个新兴市场抢占先机。
他们的逻辑很清晰,今天用户因OpenClaw而来,明天可能因为其他agent产品而来,但只要用户习惯在他们的云平台上部署agent,这些用户就能成为长期客户。
更关键的是,随着每个企业都需要部署自己的agent,谁能提供最便捷、最稳定、最本土化的基础设施,谁就能在这个万亿级市场中占据优势。
云厂商们心里明白,卖铲子的生意往往比挖金子的人更稳,也更赚钱。
而且,OpenClaw也传递了一个信号,未来的agent产品会越来越多。
云厂商们现在做的,就是提前布局,建立用户习惯,构建生态壁垒。当agent成为企业和个人的标配时,谁能提供更多配套的服务,谁就能掌握话语权。
字节跳动与中兴努比亚的手机助手到底有啥不同?
回顾去年,字节跳动和中兴努比亚联手推出的nubia M153测试手机,里面可是藏着“豆包手机助手技术预览版”。这个助手的核心技术是UI-TARS,实际上是个完全依赖视觉的图形用户界面代理模型。
说到优势,豆包手机助手明显比OpenClaw更胜一筹。
为什么这么说呢?豆包直接嵌入在Android系统底层,用户在使用手机时,根本不用打开特定的应用,就能轻松进行各种操作,完全不打扰正在进行的任务。
相比之下,OpenClaw就显得有点力不从心了,它需要依靠浏览器或者API来控制应用,这样一来,权限和稳定性就受到了限制。
更有意思的是,豆包手机助手还能实现跨应用的复杂操作,比如说“在三个外卖平台比价,并下单最便宜的”,而OpenClaw在这方面的能力就比较有限,许多任务无法跨应用完成,而且切换应用的速度也慢得让人着急。
字节跳动一直强调,agent应该是深度集成在操作系统里的,能够直接控制所有应用,而不是一个需要用户自己去配置、并且在服务器上运行的独立程序。
这种理念上的差异,使得字节不会在OpenClaw上投入过多的资源。他们对OpenClaw保持一定距离,其实是为了打造一个更高级别的解决方案。
当然,智谱和字节的这种战略选择也不是没有代价。在OpenClaw最火的时候,他们错过了一波流量红利,着实让人惋惜。
不过,从长远来看,谁的选择更明智,还得时间来检验。毕竟,agent这一领域才刚刚起步,现在下结论还为时尚早。
本文来自微信公众号:字母AI,作者:苗正
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
本文来自虎嗅,原文链接:https://www.huxiu.com/article/4838318.html?f=baijiabaiducom









看起来OpenClaw给许多厂家带来了新的机会,想知道后续会不会出现更多的竞争者?
本文提到的模型消费场景让我想到,未来可能会有更多创新的应用出现。
对于OpenClaw的token消耗问题,用户在使用时需要关注成本控制,避免过高的费用。
我觉得OpenClaw的成功不仅仅在于技术,更在于它如何满足市场需求,真是一个值得研究的案例。
对于OpenClaw的高频请求模式,用户在选择模型时要特别注意性能和稳定性。
OpenClaw的出现确实给市场带来了变化,可是要小心后续的竞争压力,特别是大厂的追赶。
OpenClaw的token消耗这么高,使用起来得小心,别不小心就花了大钱。
月之暗面的增长真是令人刮目相看,难道未来还会有更多的黑马出现?
听说Kimi K2.5的使用量飙升,大家觉得这个模型未来会更火吗?
OpenClaw的出现让我觉得中国AI市场真的在加速发展,机遇满满!
OpenClaw的高频请求让我有些担心,用户是否准备好应对这种变化?
高频请求的模式让我对token消耗产生了顾虑,用户需谨慎选择使用方式。
OpenClaw的模式确实很有创意,感觉会引领新的趋势。
随着OpenClaw的推出,国内云服务商的竞争会更加激烈,期待更多创新服务出现。
OpenClaw的高频请求模型让我想到了以前的网络流量费用,用户可能要特别注意使用习惯。
这种高频请求的模式确实很有挑战性,用户要如何调整自己的使用习惯?
这种全新的模型消费场景,用户需要提前做好哪些准备?
对于新手用户来说,如何在OpenClaw上合理控制token消耗?
OpenClaw的成功让我想起了之前的应用软件,用户的需求瞬息万变,厂商要时刻保持敏感。