(

到了2025年底,AI编程行业的热度依旧不减,尤其是中美两大玩家纷纷传来最新消息,让原本就火热的市场更加炙手可热。
12月26日,字节跳动推出的AI编码工具TRAE发布了它的首份年度报告,报告显示:自发布以来不到一年,TRAE为全球用户生成了接近1000亿行代码,并处理了5亿条开发查询。现在它的用户总数已经突破了600万,覆盖了将近200个国家和地区,月活跃用户数也达到了160万。
这意味着什么呢?根据开源项目分析机构OpenDigger的统计,全球活跃的GitHub开发者大约有7700万,换句话说,平均每13个开发者中就有一个是在使用TRAE。
更值得注意的是,TRAE的增长速度和用户粘性也相当惊人,过去六个月,其Token的消耗量暴涨了700%。而且,有6000名核心用户在过去一年中的使用天数超过了200天,国际版的付费用户更是实现了每周的全勤。
与此同时,另一家同样在这个领域崭露头角的公司Cursor也传来好消息:11月14日,Cursor的母公司Anysphere完成了23亿美元的融资,估值直接飙升至293亿美元,这个数字甚至超过了国内一些知名大模型公司的总估值。
不过,回想一年前,AI IDE仍然被不少业内人士所轻视,大家普遍认为它们不过是魔改版的VS Code,套上了大模型的外衣,根本无法在生产环境中使用,类似的嘲讽在技术圈里随处可见。
然而,现在短短一年过去,口碑的逆转背后究竟发生了什么变化呢?
通过仔细分析TRAE在2025年间超过200次的迭代,我们发现,所有的质变都藏在“性能”、“全能”和“智能”这三个关键词中。
01
性能:AI编码落地生产的基础
到了2025年,整个大模型行业的主题已经从前一年的百模大战,快速转向AI IDE的井喷,市场的关注点也从某种能力的选择题升级为用户体验的应用题。
而性能正是AI IDE逆袭的核心之一。
TRAE的年度报告给出了有力的证据:自6月以来,TRAE的代码补全延迟降低了超过60%,客户端的首Token耗时减少了86%;自9月起,TRAE首次构建的耗时减少了70%以上,非首次构建的耗时也减少了80%;在稳定性方面,TRAE在MacOS下的崩溃率降至0.43%,Windows系统则降至0.71%,补全成功率和会话成功率均提升至99%以上,进入面板的成功率更是高达99.93%。
这些技术优化虽然在各种榜单评测中往往不会被重视,但却对开发者的体验至关重要:
这意味着开发者可以避免因为等待补全而思路中断,也不再需要因为工具闪退而重复工作;同时也意味着AI编程工具的可用性和稳定性,已经顺利跨越了从演示到实际生产环境的关键门槛。
字节内部的数据则是最好的证明:据说92%的字节工程师都在使用TRAE来加速开发流程,其中,抖音生活服务在DevOps全链路中接入TRAE后,AI代码贡献占比达43%,相当于人效比提升了近一倍。
不过,提升性能只是落地生产的第一步,如何提供完整的开发体验,才是下半年以来行业竞争的关键所在。
02
全能:全流程开发的完整打通
在性能达标后,今年下半年,AI编程工具的竞争从单点任务如代码补全和检索,转变为全流程覆盖的完整解决方案。
在这场竞争中,Cursor和TRAE的发展路径非常具有代表性。
2025年10月,Cursor正式发布了它的2.0版本,支持多模型并行执行、内置浏览器代码测试和语音转码功能,目标直指全流程开发。
而TRAE的布局更早:7月它从1.0阶段(插件+IDE)升级到2.0阶段(SOLO Beta),集成了编辑器、终端、浏览器等多种工具,打通了从需求构思到代码落地的完整链路;11月再推出3.0阶段的SOLO正式版,主打“响应式编码代理”,实现了从工具集成到智能协同的飞跃。
在产品设计上,直到现在,TRAE的IDE模式核心支撑体系包括智能体、MCP(模型上下文协议)、上下文管理和Cue四大模块,而SOLO模式在此基础上又进一步增强了对话流、工具面板和上下文管理能力。
特别值得一提的是,SOLO模式中的SOLO Builder可以直接处理PRD和技术架构文档,并集成了Figma、Supabase、Stripe和Vercel等主流工具。这意味着,AI编程软件已经具备了覆盖整个开发流程的能力,在复杂项目中承担了更多实质性的工作。
这种全能性得以实现,得益于行业在上下文管理和工具调用能力上的突破,这也是企业选择专业AI IDE而不是原始大模型的关键原因。
先看超长上下文管理的能力。企业级项目对历史代码的调用和复用程度极高,部分大型项目的复用率甚至超过80%,但处理海量代码是大模型的短板。
以Google Chrome为例,其代码量达数百万行,按每行代码5-10个Token计算,完整加载需要上千万个Token,这远远超过了当前大模型普遍的20万Token上下文窗口。
专业的AI IDE能够通过引入向量数据库构建RAG,或者对历史内容进行修剪、分类、优化和压缩等操作,进行上下文管理,从而确保在处理大量代码时,不至于生成过长的上下文,撑爆大模型。
例如,TRAE SOLO的解决方案就同时采用了上述两种模式,支持一次检索10万个代码文件,通过索引构建实现全仓库的上下文覆盖,让大型项目的开发不再受限于模型上下文窗口的限制;同时推出了智能压缩机制,当上下文超出窗口限制时,可以自动压缩,也允许用户手动触发压缩,释放上下文资源,提升模型的输出效果。
此外,考虑到实际上下文类型的多样性,TRAE还支持添加十余种上下文类型,包括#file(文件)、#folder(文件夹)、#doc(文档)、#code(代码)、#figma(设计稿)、#image(图片)等。
如果说更强的上下文检索与更强的大模型,使得模型能够深入大型企业项目的开发;那么工具使用能力的提升则为AI编程软件在企业级项目中实现全流程覆盖提供了更坚实的支撑。
TRAE目前支持的MCP涵盖浏览器自动化(Chrome DevTools、Playwright)、AI辅助推理(Sequential Thinking)、系统工具(文件管理、命令执行)、专业工具(IDA Pro反汇编、Supabase数据库操作)等多个类别,总数量达到1.1万个。
借助这些海量工具的接入,企业能够在项目的不同开发环节实现高效、无缝的对接:例如,集成Figma可以直接将设计稿转为代码,解决了前端开发中设计与开发的衔接问题;集成Supabase打通了数据库操作链路,无需切换工具就能完成数据层的开发;Stripe的集成使得支付功能的开发不再需要重复接入第三方接口;而Vercel的接入则实现了代码编写与部署的即时联动。
在实际项目中,这意味着过去开发一个带支付功能的H5时,企业需要在设计工具、编辑器、数据库工具和部署平台间反复切换,而现在使用TRAE SOLO模式,只需在一个界面上完成所有操作。
但在专业项目中,AI生成的代码,我们真的能信任吗?
03
智能:如何实现AI的自主能力与可控性之间的平衡
AI编程热潮:TRAE SOLO如何应对挑战
自今年十月以来,AI 编程领域可谓热闹非凡,尤其是 Agent 模式的流行。从开源平台 GitHub,到大名鼎鼎的 OpenAI,再到流行的 AI IDE 产品如 Cursor 和 TRAE,大家都在争相推出让 AI 能够自主理解开发目标、处理上下文、调度工具,以此来独立完成各种开发任务。

在这一轮热潮中,TRAE SOLO 版本的快速崛起尤其引人注目:数据显示,其国际版从 Beta 测试阶段到正式上线,用户渗透率竟达到了 44%,问答量更是暴增了 1300%。而在中国,SOLO 上线后,10 位 TRAE 开发者中就有 3 位选择了这一模式,问答量增长高达 7300%,用户交互深度也提升了 74%。
不过,供给方的热情与需求方的谨慎形成鲜明对比:最近,不少大公司开始推出 AI 编码的限制政策,除了担心数据泄露,AI 生成代码中的 BUG 也让人感到不安。在实际工作中,AI 生成代码的速度虽然很快,但程序员却需要花费大量时间来审核和修改,常常是 AI 花两分钟生成的代码,程序员得花二十分钟来检查,然后再花上两小时来修复 Bug。
这背后反映出一个难题:如何在提升 AI 自主性的同时,确保代码的可控性和可追溯性呢?
TRAE 提出了一个解决方案,那就是把「结对编程」的理念引入到 AI 工具的设计中。
这个概念源自于 XP 敏捷开发,核心在于两个角色的协同工作:一个负责编写代码,关注细节,另一个则把握整体方向,发现问题。
TRAE SOLO 在这个基础上进行了升级:使用 SOLO Coder 智能体时,用户可以选择「Plan」模式。AI 在接到任务后,不会立刻写代码,而是会先输出一份详细的开发计划。这样,开发者可以与 AI 进行深入的沟通,明确开发阶段、任务拆分和技术选择,直到达成一致再继续开发。
而在大型项目中,牵一发而动全身,若 AI 生成的代码不规范或黑盒过多,短期内看似高效,实际上却可能带来巨大的风险,形成难以修复的技术债务。
因此,Reddit 上曾流行一个段子:以前代码只有作者和上帝能懂,使用 AI 编码后,只有上帝能懂。
为了解决大型项目对标准化的高需求,TRAE 推出了自定义智能体的功能。开发者可以根据项目的具体规范和流程要求,创建专属的智能体,让 AI 生成的代码自然符合团队的编码习惯和质量标准。
数据显示,57% 的 TRAE 中国用户会使用多种智能体,而国际版的这一比例更是高达 84%。TRAE 累计成功创建和编辑的自定义智能体已达 36.5 万个。
过去一年多,关于 AI 编程,行业中一直存在一个疑问:当大模型的能力已足够强大,甚至能通过对话直接生成代码时,我们为何还需要专门的 AI IDE 软件呢?
前 a16z 合伙人 Benedict Evans 最近在播客中给出了答案:与一个空白的聊天机器人对话时,你的提问不仅要说明想要什么,还要包含实现的每一个细节。
换句话说,好的产品其实是能力与经验的结合,最终呈现给用户的是完整的解决方案,而大模型只是这一过程中的一个部分。用户需要在细节上进行打磨,交付出完整的解决方案。
从这个角度来讲,TRAE 本质上是字节跳动在代码开发领域的先进经验与大模型能力的深度整合。
而作为国内 AI IDE 的佼佼者,TRAE 实际上是一个伪装成 AI IDE 的字节能力全家桶。

TRAE的性能提升确实令人惊讶,但在推广过程中是否有考虑到不同国家的开发者需求差异?这可能影响其全球用户的使用体验。
TRAE的快速迭代确实令人刮目相看,不过在未来的版本中,不妨增加对不同编程语言的支持,这样能吸引更多开发者。
TRAE的成功与性能提升密不可分,但是否能保持这种增长速度还有待观察,竞争对手的压力不容小觑。
TRAE的迭代速度令人惊叹,但在提供个性化支持上还有提升空间,尤其是针对不同开发者的需求。应该考虑更多样化的使用场景。
TRAE的快速增长确实很震撼,但在吸引新用户方面,如何处理不同地区的法律法规挑战值得关注,这可能影响其全球扩展。
TRAE的更新速度和性能提升确实很令我惊讶,但在未来的版本中,能否增加对更多编程语言的支持,或许能吸引更多开发者加入。
TRAE在性能上的提升让人印象深刻,但未来能否持续保持迭代速度和用户粘性,尤其在面对激烈竞争时,值得关注。
TRAE的更新速度和性能提升确实让人印象深刻,但我希望未来能更多关注用户反馈,增强个性化功能,满足不同开发者的需求。
TRAE的更新频率和性能提升确实令人赞叹,但我希望未来可以更重视用户的个性化需求,增加更多定制化的功能。
TRAE的快速迭代和性能提升确实令人印象深刻,但我希望未来能加强对新兴编程语言的支持,以吸引更多不同背景的开发者。
TRAE在短时间内取得的成就确实让人佩服,但未来是否能保持这种创新速度,特别是在竞争激烈的市场中,仍需关注。
TRAE的更新速度和性能改进确实很惊人,但希望未来能加强对用户反馈的重视,确保工具更贴合开发者的实际需求。
TRAE的迭代速度和性能提升确实令人钦佩,但希望未来能增加对开发者个性化需求的关注,特别是在功能定制方面。
TRAE的快速增长令人惊叹,但希望未来能在用户反馈上多下功夫,确保工具真正满足开发者的需求。
TRAE的更新和性能提升确实令人赞叹,不过希望未来能加强对用户隐私和数据安全的重视,确保开发者在使用时更安心。
TRAE的功能和性能提升确实让人刮目相看,但我担心如此快速的迭代会不会导致某些功能不够稳定,影响开发体验。
TRAE的用户增长速度令人惊讶,但对于如此快速的更新,我有些担心是否会影响整体稳定性,特别是在生产环境中使用时。
TRAE的快速增长真让人惊讶,但我有点担心如此频繁的更新是否会在某些情况下影响系统的稳定性,特别是在关键业务中。