最近一段时间,大家都在热衷于给大模型“考试”,对吧?无论是机器 Benchmark 跑分,还是人类的高考题,这些评测都在不断地量化技术的发展。那些表现优异的 AI 瞬间就成了大家追捧的对象。
不过,咱们也知道,现实世界就像一个考场,根本没有标准答案。AI 经常会碰到训练中未见过的情况。更重要的是,对于那些快速发展的大模型,我们需要问问:它们真的有用吗?实际上,能否落地才是判断能力的关键。
说到应用,在云南澜沧县,人们正在借助文心智能体平台的“农民院士智能体”,在朱有勇院士的指导下,开展旱地农业,取得了不错的成效。

再看看文心快码这个新助手,百度的80%工程师都在用,而且代码被采纳的比例已经达到了46%!

甚至连古老的甲骨文都被 AI 赋予了生命,可以和我们对话。点击查看甲骨文,你会看到大模型生成的解释。

这一切都是昨天在百度 WAVE SUMMIT 深度学习开发者大会上的最新技术展示。百度正在全力以赴,朝着“实用性”不断前进。
文心大模型,迎来 Turbo 时代
就在两个月前,文心大模型 4.0 工具版刚发布,如今又推出了 4.0 Turbo 版本!
最新的 4.0 Turbo 是基于今年四月发布的 4.0 进行了一次飞跃,速度和效果都有了显著提升。文心一言的网页版和 APP 也陆续上线,开发者用的 API 也已经可以使用了。

如果对比一下 4.0 Turbo 和文心大模型 4.0,速度差异真的是一目了然!

虽然输出内容的质量都不错,但 Turbo 的速度实在是太惊人了!我们第一时间测试了网页上的 Turbo 版,发现它能快速感知最近的新闻,比我们自己看文字的速度还快,逻辑也清晰,最后还附带了引用链接。

得益于新一代深度学习平台飞桨,4.0 Turbo 在训练数据的体量、分布和质量上都有了显著提升,算法也在不断迭代优化。结合有监督的精调、强化学习以及提示词工程等技术,文心大模型的知识增强、检索增强和对话增强等功能也得到了改进。
智能体的能力在文心 4.0 Turbo 上也得到了增强。通过强大的基础模型进行思维增强训练,提升了智能体的理解、规划、反思和进化能力。现在,大模型的 Agent 能够可靠执行任务、自我进化,甚至可以把思考过程变得透明。通过智能体,AI 能够像人一样思考、行动,自动完成复杂任务,并在不断变化的环境中学习成长。
目前,文心大模型系列已经包含文心轻量级、文心 3.5、文心 4.0 和文心 4.0 Turbo 等多种性能不同的模型,涵盖了大多数开发场景。
文心轻量级模型适合特定场景,性能和成本表现优秀;文心 3.5 则通用性良好,适合日常信息处理和文本生成;文心 4.0 模型则具备更强的理解力和逻辑推理,能够提供专业深入的帮助;而文心 4.0 工具版则结合智能体技术,擅长综合运用多种工具和数据,完成复杂任务。
而新推出的文心大模型 4.0 Turbo,不仅效果好,速度也快得惊人。
大模型能力,走出代码的世界
大模型的应用落地已成为发展趋势,通过不断实践,技术在进步,找到了新的方向。
在 WAVE SUMMIT 上,我们看到大模型不再是浮在代码上的东西,它已经通过“农民院士智能体”、“体育大模型”等亲民的方式,成为许多行业中真正有用的工具,为实际应用创造了前所未有的价值。
在云南澜沧拉祜族自治县,由于土地贫瘠、自然灾害频繁,水稻种植曾是一大难题。2015年,中国工程院的朱有勇院士和他的团队走进大山,开始了科技扶贫之路。他们在当地教授旱地优质稻的种植知识,经过努力,当地农民掌握了这些技术,作物种植水平得到了质的提升。
不过,种植过程中难免会遇到各种具体的农业问题。如果能随时询问朱院士,那种植旱地优质稻的效果一定会更好。
在 AI 时代,这个问题就由 AI 来解决了。
在 WAVE SUMMIT 上,百度展示了与朱院士团队共同打造的首个农业智能体——“农民院士智能体”。这个智能体基于文心智能体平台,学习了朱院士的研究成果和相关农业知识,农民可以随时向它提问,获得专业和详细的解答。

这个智能体可以在网页、App 以及小度智能设备上使用。在文心一言 APP 中,打开“农民院士智能体”功能,就能咨询关于作物种植的具体问题,获得专业回答:

村民们表示:“朱院士就像在我手机里一样,我们问什么他就答什么,感觉就像他坐在我身边。”

这款“农民院士智能体”已经成为当地村民得力的知识助手,展现了大模型在专业领域的实际应用价值,赋能各行各业的愿景正在变为现实。未来,掌握专业知识的智能体将成为合格的知识助手。
此外,AI 也能帮助运动员提升成绩。百度与上海体育大学合作,基于先进的 AI 大模型,融合了大量体育专业知识,构建了“上体体育大模型”,实现了辅助训练、技战术分析、实时反馈等一系列能力,涵盖游泳、田径、体操等多个国家队,甚至在重大赛事准备时也提供支持。参加巴黎奥运会的部分运动员就是受益于此。此外,体育大模型也在全民健身领域发挥了重要作用。
在许多公司还在拼命进行基准测试、跑分的时候,百度却给出了更具说服力的数据:文心一言的用户已经突破了3亿,每天的调用次数达到了5亿,最近半年用户的提问频率竟然增长了78%,提问的平均字数也提高了89%!
在文心一言的使用中,大家对这个大模型产品的热情显著上升。起初只是简单的一问一答,随着需求的增加,现在大家开始设置更复杂的规则,给出示例,甚至要求大模型完成更具挑战性的任务。

从开发者的角度来看,文心大模型的星河共创计划已经推出了55万个AI原生应用,超过1000个大模型工具,集合了超过1000B的高质量稀疏数据。
更重要的是,这些技术的价值直接帮助了工程师们,尤其是在编程方面。
开发的速度正在加快
百度的智能代码助手Comate,现在也有了个中文名字「文心快码」。作为一款智能IDE插件,它支持19种主流IDE和100多种编程语言。

百度的副总裁陈洋提到,在大模型的助力下,文心快码不仅能续写已有的代码,还能通过自然语言指令生成新代码,甚至根据注释来编写代码,再生成注释,或者利用企业的私有知识来增强和细化模型。
昨天发布的文心快码2.5版本,实现了开发流程的全覆盖,知识增强也得到了显著提升,企业级安全性也有了很大改善。

文心快码的名字里有个“快”,这“快”主要体现在三个方面:开发速度快、业务迭代快、企业落地快。
那么,开发速度到底为什么能这么快呢?这背后其实是因为AI对研发知识的深入理解和应用。数百位技术专家的经验,加上十亿级的研发知识,最终形成了这个开发的超级助手,其生成代码的准确率高达80%。
据说,百度内部使用文心快码后,工程师在单位时间内提交代码的数量提升了35%。
更值得一提的是,整个开发流程也因此加速了。它不仅能在需求阶段帮你出主意,研发时帮你写代码,测试和发布时帮你调整,甚至根据企业的标准提醒产品经理,持续检测代码中的安全漏洞。在百度内部,文心快码投入使用后,业务迭代速度整体提升了14%。
最后,这套工具的推广也在不断向更多企业扩展。文心代码能够提供一整套最佳业务实践和流程。在百度的上万名工程师中,有80%都在深入使用文心快码,形成了国内最大的智能代码助手团队。而在外部,喜马拉雅在短短一个季度内实现了全面落地,代码的采纳率达到了44%。
这个代码的采纳率,可能比一些程序员还要高。介绍一下,文心快码的客户还有很多,比如三菱电梯、软通动力和吉利汽车等,超过一万家企业,覆盖了各行各业。
飞桨的浪潮
我们知道,文心大模型能快速进化,得益于百度的全栈布局,从芯片到框架都在支撑模型和应用。其中,飞桨深度学习平台的联合优化起到了至关重要的作用。
在WAVE SUMMIT上,百度发布了新一代AI框架——飞桨框架3.0,目前已经对开发者开放。
在新版设计中,百度充分考虑了当前大模型发展的趋势,以及异构多芯片的硬件体系。新框架在大模型训练和推理方面具备一体化能力,强调在大模型训练开发中的自动并行能力,实现了编译器的自动优化,简化了开发调优的过程,并完成了大模型的多硬件适配。

为了实现这些技术优势,首先从训推一体的需求出发,底层设计了高扩展中间表示PIR,构建了高效灵活的Pass机制,使开发成本降低了58%,并让飞桨模型库84%的模型推理加速超过10%。
众所周知,大模型混合并行的开发非常复杂,涉及混合并行、通信和调度策略。为简化这项工作,百度研发了自动并行能力,为代码的开发提供更好的封装,实现全局静态优化,进一步提升性能上限。借助飞桨的动静统一自动并行能力,不同参数模型的训练性能都得到了提升,幅度可达20%。
对于AI框架来说,性能优化是非常重要的属性。结合编译器的设计,飞桨可以大幅简化优化过程。在前端做好编译器表示,在后端将其转化为底层表示,以便与硬件对接,实现自动优化代码。通过编译器实现算子的自动融合,执行速度相比算子调用提升4倍,比手动融合高出14%。经过这一系列编译性能的优化,生成式模型的推理,无论是语言模型还是扩散模型,推理性能都有显著提升,幅度可达30%。
在大模型设计中,训推一体极为重要。飞桨可以自动将动态图转为静态图,训练与推理的压缩实现无缝衔接。通过调用高性能算子,RLHF的训练加速可达到2.1倍。此外,量化过程也能复用分布式策略,使效率提升3.8倍。
通过30多个接口,飞桨全面支持大模型的训练和推理,硬件厂商只需对基础算子进行适配即可,显著减少工作量。同时,飞桨还在软硬件协同优化方面下足了功夫,更好地实现了协同性能的提升。

飞桨平台对大模型的重要性不言而喻,许多文心大模型的能力都是通过与飞桨的联合优化实现的,这就像船与桨的关系。
在基础计算优化方面,飞桨在模型训练上实现了块状稀疏掩码注意力计算、存算最优平衡的精细化重计算,并在分布式扩展中实现灵活批次虚拟流水并行和多模型结构混合并行。此外,还进行了与硬件的通信联合优化。
在推理方面,通过高性能分段矩阵与多流加速计算,让LoRA实现了集约化部署,从而获得更高的推理效率。在同等精度下,LoRA的推理性能提升了33.3%。经过量化后,性能提升达到113.3%,且支持的LoRA个数增加到6倍。
飞桨还实现了异构多芯的混合部署,能够进行动态调度,将不同请求分配到不同性能的芯片上,以最大化资源利用率。
一组数据:1465万开发者、37万家企事业单位、95万个模型,这就是飞桨和文心构建的生态全景。

从算力、框架到模型再到实践,这套国内首个大模型全链路生态支持体系,在全球的大模型竞赛中不断发挥着作用。别人的努力只是百度的起点。
通用人工智能,曙光初现
2024年即将过半,所谓的「百模大战」已经持续了一年多,行业发展到什么程度?接下来又会朝哪个方向发展?
在昨天的大会上,百度首席技术官王海峰从技术通用性和能力全面性两个角度解读了AGI的发展。

首先是技术的通用性。人工智能技术经过几十年的发展,到了大模型时代,已经有一套架构和技术可以解决各种问题。除了算法,模型也变得更加通用和统一。不论是不同的任务、语言、场景还是各种模态,都能够用同样的基础模型来处理。
以自然语言处理为例,过去我们需要依赖分词、句法分析、语义匹配、机器翻译、问答和对话等多个子领域,但现在只需一个大语言模型就能应对绝大部分的任务。说白了,这些大模型不仅能处理单一语言的问题,还可以跨越语言的界限。它们不仅掌握了自然语言,还能理解一些人工设计的形式语言,简直就像是为思考和执行搭建了一座桥。此外,这些大模型还能实现多模态的统一建模,广泛应用于各个行业。整体来看,人工智能的技术通用性正在不断增强。
接下来谈谈能力的全面性。人工智能的四大基础能力是理解、生成、逻辑和记忆,而创作、解题、编程、规划和决策等典型能力,基本上都是这四项基础能力的结合运用。可以说,能力越全面,离通用人工智能就越近。
不过,想用这些通用技术来实现全面能力,并不是人人都能轻松搞定的事情。
由于大模型对人才、算力和数据的需求非常高,竞争也越来越激烈,技术竞赛的格局正在逐渐显现。从创业公司到各大厂商,领先的队伍已经开始拉开差距。
更进一步来说,真正能够打造完善的AI技术体系的玩家,必须直面实际应用场景,开发出能提升生产力的实际应用。而与技术发展相比,技术落地所面临的挑战可能会更加复杂。
前两周,微软的Copilot GPTs即将停服的消息引起了行业的关注:这项开放仅三个月、拥有大量用户的技术应用,竟然因为「公司战略调整」而宣布退役。归根结底,场景不明确和缺乏商业回报都是可能的原因。
最近又有媒体透露,OpenAI通过销售GPT-4等大模型能力获得的收入,已经超过了它的合作伙伴微软在同类业务中的收入。
无论大模型技术多么先进,每个token的成本多么低,缺乏与场景生态的结合,AI应用终究会被迅速淘汰。即便是微软这样的大企业,也面临着类似的挑战。
而拥抱实际场景,或许正是国内科技公司所擅长的领域。
看看现在文心一言的发展和落地,我们可以自信地说,2019年第一届Wave Summit上所说的「AI进入工业化大生产阶段」,正一步步变成现实。随着大模型进入产业爆发期,通用人工智能也在加速向我们走来。










文心的应用场景好广泛,连旱地农业都有用,真心佩服!有没有人试过具体效果?
农民院士智能体的成果让我想知道其他地方有没有类似的尝试?
文心在农业上的应用让我想起了很多科技项目,大家有没有类似的案例分享?
我尝试过文心快码,确实提升了我的编程效率,感觉在写代码时能够更快找到灵感!
文心大模型真的很厉害!尤其是4.0 Turbo,速度快得惊人,感觉在工作中会提高很多效率。
从甲骨文到现代应用,文心的进步真让我感到惊叹,历史与科技结合得太好了!
听说文心4.0 Turbo速度很快,想知道实际使用中会不会因为速度太快而出错?
文心的智能体真的能像人一样思考吗?这听起来有点科幻啊。
甲骨文都能和AI对话,真是科技的奇迹!这背后的技术原理是什么呢?
文心的多种模型选择让我对不同场景的应用充满期待,尤其是轻量级模型的表现如何?
文心的快速感知新闻功能让我想起了信息检索的未来,这样的技术还有哪些潜在应用?
能看到AI与甲骨文的结合,感受到历史的厚重,真是科技与文化的完美融合!
文心4.0 Turbo的快速感知功能让我想到了未来的信息获取方式,真是令人兴奋!
文心的多种模型选择真是让人眼前一亮,不同场景的应用效果如何?