早上好,各位开发者!今天我特别开心能跟大家聊聊 Qoder。这是阿里巴巴新推出的一个编程平台,刚上线一个月就吸引了成千上万的用户,真心感谢大家的支持哦。
借着云栖大会的机会,我想跟大家深入探讨一下 Qoder 的定位、思考和发展历程。希望通过 Qoder,能够带动一种新的编程方式,让大家的编码体验更上一层楼。
说到 AI 编程,现如今已经成为软件开发的一个重要趋势。根据行业调查,全球超过62%的开发者都在使用 AI 编程工具,大家的开发效率普遍提升了30%以上。其实,有些开发者用得更深入,效率提升甚至超过了50%。不过,目前全球 AI 编程的使用情况差异较大,中国也只有30%的开发者开始使用这些工具,所以在这个领域我们还有很大的发展空间。
那么,阿里为什么会重视 Agentic 编程呢?和之前的辅助编程又有什么不同呢?从模型的使用上,我们其实可以看到一些变化。
首先,Anthropic 发布的 Claude 模型显示,开发者们正越来越倾向于将完整的任务交给模型,而不仅仅是询问一些知识。这个趋势说明大家希望 AI 更加主动地完成工作。
其次,GPT 发布的报告也表明,开发者利用 AI 的方式中,基于任务执行的比例最高,意味着人们开始依赖智能体来完成更大、更完整的任务,而不是仅仅当作知识检索的工具。这也反映出用户对模型能力的信任,越来越多地依赖 AI 来解决复杂问题。
现在,大模型的能力在迅速进化,这为 AI 编程带来了更多可能性。
而且,AI 编程的应用场景也在不断扩展,从过去的聊天和代码补全,已经升级到整个软件开发的生命周期,包括开发、测试、验证、写报告,甚至还有发布工具的调用,任务的复杂性也在增加。
在这个过程中,AI 编程的进步对开发者的效率提升显而易见,不再只是代码补全,而是充当人类的得力助手。
所以我们认为,AI 编程可以分为三个阶段,而不是简单的非此即彼,这三个阶段往往是并行存在的。

第一个阶段是大语言模型与代码助手的结合,也就是辅助编程阶段。在这个阶段,开发者主导代码编写,编程助手则负责提供提示和补全,帮助程序员完成工作。人类主导的情况下,效率提升一般在30%左右,目前很多开发者仍处于这个阶段。
第二个阶段将在2024到2025年间成为主流,那就是协同编程。这一阶段,开发者通过自然语言向 AI 提出需求,代码作为上下文提交给大语言模型。模型会根据指令批量生成代码,执行多种任务,大幅提升人类的研发效率,平均可达一倍的提升。
我们今天谈的 Vibe Coding 其实就是协同编程的一部分。许多产品经理、设计师、自媒体博主以及运营等各种开发者,能够通过语言描述自己的想法,轻松生成代码,从而实现需求。
现在我们正逐步进入第三个阶段,将在2025年左右流行的自主编程。AI 开始能够长时间执行复杂任务,交付完整结果,这时不再需要人类实时监督,而是让 AI 自主进行编程。人类可以把任务委派给 AI,同时并行处理多个任务,效率可能达到1到10倍的提升。
这就像是在管理一个团队,人在管理多个智能体,各自承担不同的开发任务,而这些智能体就像我们的数字员工,这就是我们认为未来研发的主流模式。
Qoder 的产品定位
现在我们来聊聊 Qoder 的定位。当前行业的热门趋势与 Vibe Coding 相辅相成,Vibe Coding 的发展也如火如荼。但实际上,大部分开发者的日常工作仍在处理现有的系统。毕竟,开发者不可能每天都创造一个新系统,因为已有的系统大多都有长生命周期和商业价值。其实,用户创建的新系统只占一部分,更多时候是在发展、维护和演进现有系统。我们称之为真实软件,就是那些在商业环境中实际使用并产生价值的系统,并且需要长期维护。
真实软件是价值的高地,正在创造价值,但维护这些软件的需求却没有得到很好的满足,这也是 Qoder 诞生的原因所在,我们的目标是帮助构建真实软件。

随着软件和服务的不断演进,代码虽然是最新的,但文档常常跟不上变化,写出来就过时了。开发者通常会维护代码,但很少有人能把文档与代码实时同步,反而忽视了文档的重要性。我相信大家都有这样的感受,代码是最实时、最准确的资产。但为了维护系统,文档又是不可或缺的,那么,谁来维护这些文档呢?
Qoder Repo Wiki 切中了这个痛点。通过代码库反推文档,我们定义这个功能为 Repo Wiki,也就是代码库生成的 Wiki。这种 Wiki 是实时的,因为代码一旦修改,文档也会随之更新。通过代码和提交历史,可以反推出设计思路、架构、技术栈、时序关系、接口描述等信息,很多内容都能准确反推。这也是 Repo Wiki 背后的产品哲学——隐性知识的显性化。

RepoWiki 现在支持单库生成1万个文件的 Wiki,它减轻了开发者的认知负担,也降低了 AI 理解工程过程的复杂度,既可以提前生成,也可以共享和导出,因而受到了开发者的热烈欢迎。
Wiki 可用于多种场景,包括人与人之间的沟通、同步、传承、交接和协作。人与 AI 之间的认知对齐同样需要依赖 Wiki。我们提到的上下文工程,就是为了给大语言模型提供更精准的上下文。如果上下文只有代码,那可不够全面,因此 Wiki 作为上下文的一部分,可以帮助模型更好地理解整个代码库,而不是在推理过程中再尝试理解,这样效率就会低。所以我们将这项工作提前完成,以解决隐性知识的问题。
另外,很多繁琐的编码工作占据了程序员的大部分时间,导致他们在需求洞察、意图识别和设计文档整理等方面的投入不足,这也是行业的普遍现象。很多时候,刚做完的工作还得返工。我们希望未来的开发者更多把精力放在设计、需求洞察、系统设计、约束设定和逻辑关系编排等方面,让这些内容以自然语言的形式沉淀下来,再翻译成代码,交给 AI 来实现。因为 AI 完全有能力基于这样的内容生成更精准和确定的代码,人的工作就能被释放出来,系统的返工率也会降低。
此外,过去人和 AI 的协作方式受限于人的时间和精力,开发者不断提问、输入信息、纠正和验证,这种模式是同步的互动。但问题是,这样无法释放更大的生产力,人下班了,AI 也跟着下线。但我们都知道,软件的最大价值在于可以长时间无人监督地运行,可以并发、异步、海量地处理任务,我们该如何释放这部分价值呢?这也是我们在产品实践中所思考的。
Qoder 提供的解决方案就是 Spec 驱动开发。因为大语言模型已经具备了长时间异步运行的能力,并能够调用多个智能工具来解决复杂任务。不过,这里的挑战在于开发者如何将需求描述得非常清晰。只有这样,才能让 AI 自主执行。

因此,我们引入了 Spec 驱动的概念:首先编写规范,明确需求,然后再委托 AI 进行研发,最后进行结果验证,整个过程不需要过多的交互,这样可以让 AI 在长时间内高效执行,交付更优质的结果,并且能够并行执行。如果大家觉得写 Spec 也很有挑战,我们可以让 AI 来协助完成这个过程,这样可以让人更多地输出想法,而 AI 则负责完善。
最后,持续提升上下文工程能力是 Qoder 的基础。想要充分利用大语言模型,上下文工程是最核心的话题。Qoder 不仅增强了对工程的理解与检索能力,尤其是针对真实软件与复杂工程,很多产品在这方面做得并不尽如人意,而 Qoder 在真实软件领域的问题处理上准备得更为充分,对复杂工程的理解也做得比较好。通过个性化上下文和记忆整理,使 AI 在实际编程过程中更加理解用户的行为、选择偏好和使用习惯,这样生成的结果就能更贴合用户的预期。因此,我们会长期投入于上下文的持续增强。
Agent 模式:基于对话的智能体协作模式
智能体模式是通过对话实时与用户协作的主流功能之一。通过构建工具、与模型联合优化、深度理解工程与工具使用,可以大规模生成经过上下文感知的精准代码,完成大块任务。Qoder 的代码检索引擎能一次检索10万个代码文件,行业内对大型工程的理解能力相对领先。
随着任务规模的扩大,很多大语言模型在执行过程中会跳过某些步骤,而 Qoder 很好地解决了这个问题。我们会先做自主规划,再创建一个待办事项清单,确保大语言模型在执行过程中能够不断回溯,检查是否按照之前制定的清单进行,保证任务的结构化和透明化,同时确保结果的准确性。
释放智能体的无限潜力:新一代AI编程工具
通过 Agent Mode,我们打开了智能体能力的新天地。实际上,这种模式让智能体在执行工作时,可以更加灵活地进行任务委派。结合我们之前提到的 Spec 驱动,当用户明确了需求后,便能够将任务委托给智能体进行长时间的执行。这种方式的出现,使得任务委派变得更加高效和有序。
Quest 模式:AI的自主编程能力
用户清晰表达意图后,就可以将其交给 Agent 来处理,因此,我们推出了 Quest Mode。简单来说,Quest Mode 是基于 Spec 驱动的人工智能自主编程功能,这也是 Qoder 受到广泛欢迎的一大亮点。

Spec 是开发者最熟悉的表达方式,用户只需确认自己的意图,Quest Mode 就能生成 Spec。如果开发者对生成的 Spec 感到满意,就可以启动 Quest 执行。在执行过程中,用户能够随时进行干预和检查,最终确认结果,或者完全让 AI 自主完成任务。
这样,我们逐渐引入了异步委派的工作模式,流程大致为:先编写 Spec -> 执行可视化管理 -> 任务完成后生成报告,这基本上就完成了一个端到端的任务委派。想象一下,就像带着实习生一起完成项目一样。
那么,Quest Mode 擅长做些什么呢?它特别适合处理长时间的研发任务,可以独立进行。例如,交付新功能、自动修复缺陷,甚至进行系统的大规模重构等,甚至还可以处理批量任务的自动化。我们经常看到大语言模型能够连续运行七个小时,试想一下,什么样的任务能让 AI 长时间运行?这就需要依靠 Spec 驱动,才能真正释放生产力,实现效率的飞跃。
因此,我们构建了更强大的智能体,推动大语言模型更长时间地工作,打破了时间和空间的限制,从而更大程度地释放了生产力。

首先,AI 自主编程,能够长时间运行。不要在本地设备上进行操作,一定要利用云端来解决时间问题。云端的优势在于能够进行垂直和水平扩展,极大地提高了开发效率,不再受时间和空间的限制。
其次,拥有良好的云端沙箱。沙箱能够还原出一个安全、隔离且快速启动的环境,支持并行研发,这样就拓展了开发的边界。在云端,程序员的工作时间不再重要,即使他们下班或休假,Agent 也能继续高效完成任务。
第三,智能体无处不在。我们致力于将智能体的能力通过各种形式展现出来,无论是 IDE、插件、命令行还是其他集成方式,都能随时触发和管理工作,从而显著提高生产力,实现数倍甚至十倍的提升。
为什么不是更多呢?因为人类仍需负责整体的统筹,包括意图识别、需求设计、文档编写、确认和结果验收等,这些工作是 AI 目前无法完全替代的。我们倡导“无处不在的智能编程”,希望通过沙箱和云端智能体,让智能体能够在所有开发者需要的地方发挥作用,比如在 IDE、命令行、浏览器、手机端,以及 GitHub、GitLab 等协作平台上,甚至在 Zoom、钉钉等办公软件中,都能调用智能体完成任务,充分利用文档上下文,实现多场景的覆盖,触达更广泛的开发者。
而且,通过命令行 CLI 的方式,可以更广泛地集成。许多行业内的 IDE 基于 VS Code,但仍有不少开发者使用其他平台。我们希望通过 CLI 的方式,让更多人能够使用这些工具,因为后端的所有能力都通过 CLI 开放,才能实现广泛的应用。
今天,我们还带来了 Quest Remote 模式,用户可以将 Spec 驱动的 Quest 任务如同邮件一般发送到云端,保证其在云端长时间运行,并顺利完成研发任务。
在云端,沙箱调度十分高效,资源利用无需额外付费,任务完成后,AI 可以自动将结果传回本地,供开发者进行验收、确认和合并。
不久后,我们将推出 Qoder CLI,把 Qoder 的智能带到每一个终端。刚才提到的许多终端尚未覆盖,通过 CLI 我们可以实现更全面的覆盖,特别是对命令行熟悉的开发者,能够在追求极致效率的场景中保持灵活性和可控性。
Qoder CLI 的底层架构轻量可扩展,支持 Agent 设计,低资源消耗,并支持自定义插件、命令和 Sub Agent 的协同工作,帮助完成开发任务。这个系统拥有许多独特功能,能够流水线式集成,把智能体的能力扩展到开发者想要的地方。

Qoder 的技术优势
接下来,简单介绍一下 Qoder 的技术设计和优势。我们专注于构建三个核心优势:第一,强化软件工程的上下文。这包括 Wiki、记忆、工程的 embedding 和向量化检索。我们通过多种组合方式,旨在精准且高效地组装上下文,获得令人满意的结果,减少执行次数,让大家迅速完成任务,这就是针对工程上下文的强化。
第二,面向 AI 自主编程构建的智能体。我们对整个过程进行了精细调校,包括规划、待办事项、技术设计、代码生成、自主测试和结果验收等,都得到了增强,因此 Qoder 的智能体在长时间完成任务时表现非常出色。
第三,Qoder 整合了全球顶级模型。许多开发者会问,为什么不开放模型选择?我们认为,模型选择需要开发者了解每款模型的特点,并判断在什么场景下使用,切换模型的复杂性会影响对话流的稳定性。
Qoder 实际上将多种模型能力整合,针对 NES、补全、聊天、自主编程、Wiki生成和向量检索等任务,选择合适的模型组合,以达到最佳效果。我们的理念是,机器选择比人选择更好,更快,能更好地实现高效节省。我们也乐于接受各种比较。
Qoder 新一代技术架构的难点和突破:
- 实时追踪开发者的代码编辑行为,通过我们自研的代码补全和 NES 模型,在几百毫秒内精准推荐代码片段。
- 适用于十万个代码文件的大型工程,可以快速完成全量索引,并结合 RepoWiki 知识和代码图谱,实现精确检索。
- 通过对话历史、技术设计和人类标注,提取项目知识、经验教训和个人偏好,记忆的有效率超过 80%,让智能体的执行既快又准确,充分理解开发者的需求。
- 利用远程沙箱技术和多智能体协同技术,轻松完成几十分钟甚至数小时的复杂任务,实现 AI 的异步工作模式。
AI 编程产品的落地一直面临长期挑战,开发者对此深有体会。这是一个持续性的话题,质量、速度和成本三者之间难以取得平衡,形成了一个不可能三角。如果想同时追求好和快,可能就会带来高成本。因此,我们的核心使命是找到这个不可能三角中的最佳位置,提供给开发者最佳解决方案。
因此,我们在长程任务执行中做了大量工作,发现随着迭代次数增加,任务成功率会下降。我们通过强化反思,在迭代中自我纠正,确保适配率保持在高水平。

随着迭代次数增加,响应成本也在上升,通过上下文工程的持续优化,以及多模型调度,我们能够用合适的模型和 Sub Agent 来管理上下文,从而有效解决特定问题,这是我们优化成本的手段。
展望未来
其实,阿里巴巴集团的 CEO 吴泳铭也对 AI 编程的未来进行了展望,我们相信 AI 编程将在未来的数字世界中发挥重要作用。如今,代码已经成为现实世界和数字世界之间的连接桥梁,未来大语言模型将能够管理和增强更多的场景,许多行业对 AI 编程的需求将会激增。过去 20 年、30 年的代码产量一直是个瓶颈,但未来这将不再是问题,如何有效操控 AI 将成为新的挑战。
从行业的角度看,每一个微小的需求、创意和想法都应当被实现。过去由于代码产能不足,许多创意无法落地。但通过 Qoder 这样的工具,开发者的需求将得到全面满足,创新的想法也将得以实现。随着代码产量的提高,软件实现的成本也将下降,需求将迎来全面爆发。
随着代码编写逐渐由大语言模型接管,开发者的能力下限将普遍提升,大家都能在 AI 的辅助下,成为新时代的开发者,这就是我们对行业的看法。

从产品的角度来看,未来 80% 的需求将由 Agent 自主完成,Agent 的问题解决能力将超越人类,并能长时间执行任务。
异步任务委派将成为主流,模型成本也会持续降低,不再成为 AI 应用的障碍。软件研发模式将发生根本性变化,云端异步任务将成为新常态,云端资源的使用也将大幅增加。
编程智能体的存在已经深入我们生活的方方面面。通过AI的帮助,我们可以完成越来越多的功能和任务。想象一下,智能体在不同的场景和地点都能随时为我们服务,这种无处不在的感觉真是太棒了!而且,IDE并不是最终的归宿,它更像是一个起点。未来,我们在任何工作界面上都能借助编程智能体来触发和管理我们的工作。
我真心希望能与行业中的开发者们携手合作,利用Agentic Coding来释放更多的生产力,从而创造出更大的社会价值!










