(原标题:智能云高速增长26% ,AI收入增长近3倍,百度如何抢占身位?)
当全球云计算市场陷入增速放缓的焦虑周期,百度用一份AI浓度超标的财报,为行业打开了新的想象空间。
2月18日,百度发布2024年第四季度及全年财报,财报显示,2024年总营收为1331亿元,归属百度核心的净利润为234亿元,同比增长21%。12月,文心大模型日均调用量达16.5亿,相较去年增长33倍;百度文库AI MAU达到9400万,同比增长216%,环比增长83%。
尤其值得注意的是,云业务增长亮眼。四季度,智能云营收同比增长26%,其中AI相关收入近3倍
与此同时,百度接连宣布文心大模型免费开放、下一代模型全面开源、搜索全量接入满血版DeepSeek,并计划在年内推出文心4.5系列。
一系列动作背后,百度已经在为新一轮的AI应用浪潮布局:以AI驱动云业务强劲增长,与开源生态的扩张形成协同效应,加速构建以文心大模型为核心的AI生态闭环,进而形成飞轮效应,在新一轮AI竞争中抢占先机。
“2024年是我们从以互联网为中心转向以人工智能为先的关键一年。随着我们全栈AI技术得到广泛的市场认可,智能云的增长态势愈发强劲。” 百度创始人、董事长兼首席执行官李彦宏表示,在移动生态中,百度一直坚定推动搜索的AI原生化重构,提升用户体验。
“随着我们的AI战略不断被验证,我们相信AI相关投入将在2025年带来更大的成果。”
在AI应用爆发的前夜,百度正凭借技术全栈优势与商业化落地能力,抢占新一轮产业变革的制高点。
AI成色:驱动云业务高增
云业务的强劲表现,本质上是百度AI技术积累的集中释放。根据财报电话会披露,2024年,百度智能云AI相关收入增长近3倍,AI正在重构云服务的价值逻辑。
在百度的实践里,AI让云服务实现了从“卖算力”到“卖智能”的模式升级。
传统云服务以存储、计算资源销售为主,而百度智能云的差异化在于提供“AI即服务”。通过千帆大模型平台,企业可直接调用各种型号的文心大模型,千帆平台还提供国内外上百个主流大模型,如DeepSeek、Llama等,并且为所有接入的模型提供后训练、SFT、数据标签和模型准备等工作,快速构建定制化AI应用。
目前,千帆平台已精调3.3万个行业模型,开发77万个企业级应用。
这种模式将云服务的价值链条从基础设施层延伸至应用层,客户粘性与付费意愿显著增强。
据公开信息,百度已与不同行业的领先企业达成合作。在能源行业,百度与国家电网达成合作,基于文心大模型和百度智能云千帆大模型平台,为国家电网定制开发了全面的AI解决方案,覆盖电网规划、电网运维、电网运行、客户服务等领域。该方案促进了国家电网对百度智能云的投入增加,进一步深化与百度的合作。此外,小米和Zeekr等领先企业也与百度达成深厚的合作关系。
诸如此类的案例,其实是百度云服务的“复购引擎”。
公开信息显示,百度智能云拥有庞大的大模型产业落地规模,为超60%央企和大量的民营企业提供AI服务。
作为云业务的后盾,文心大模型本身的增长也很亮眼,调用量激增,产业落地规模领先。12月,文心大模型日均调用量增长至16.5亿,相较23年同期增长33倍。这一数据的爆发性增长,直接反映了市场对AI生产力的需求。
李彦宏表示,凭借行业领先的指令遵循能力和RAG技术,文心大模型极大限度地减少了幻觉,使模型在多场景都具有高可用性,促进调用量的显著增长。
未来,AI与云业务的协同效应会更加紧密,为更多垂直领域的现实问题提供解决方案。
开源战略:技术底气支撑的生态扩张
近期,百度宣布将在未来几个月内发布文心大模型4.5系列,并正式开源。
李彦宏在电话会上表示,开源有助于扩大新技术的采用率,“文心大模型4.5将是我们有史以来最好的大模型,希望客户和用户能比之前更方便地体验这款模型”。
这一决策看似激进,实则暗含清晰的商业逻辑——通过开源引流+云服务变现,构建开发者生态与产业应用的正向循环。
开源并非放弃商业利益,而是通过降低使用门槛扩大用户基数。开发者可基于开源模型快速构建应用原型,但当需要企业级支持(如大规模训练、高并发推理)时,仍需依赖百度智能云的底层能力。
这种“先试后买”的模式已在全球科技巨头中验证:RedHat通过开源Linux占据企业服务市场,MongoDB以开源数据库带动云订阅收入。百度正复刻这一路径——开源文心大模型吸引开发者,再通过云服务实现商业转化。
开源背后是百度的技术底气,全栈技术架构支撑开源竞争力
据了解,凭借全栈自研的四层技术架构,使得百度能够实现端到端优化,不仅大幅提升了模型训练和推理的效率,还进一步降低了综合成本。
云基础设施层,百度智能云近期成功点亮昆仑芯三代万卡集群,成为国内首个正式点亮的自研万卡集群,之后将进一步点亮3万卡集群。成熟的万卡集群管理和部署能力,将进一步降低模型训练成本。以模型训练为例,百舸AI异构计算平台4.0已具备成熟的10万卡集群部署和管理能力,且在万卡集群上实现了99.5%以上的有效训练时长,能够将两种芯片混合训练大模型的效率折损控制在5%以内,达到业界领先水平。这种成本优势直接转化为商业竞争力,吸引大量中小企业入场。
框架层,有中国开发者使用极为广泛的百度飞桨(PaddlePaddle)开源框架。
模型层,文心大模型矩阵涵盖文本、语音、视觉等多模态能力,且持续迭代,2025年还将发布多款模型,如文心4.5、5.0等等,多模态能力将显著增强。而百度智能云千帆大模型平台作为优秀的MaaS平台,提供丰富且极具性价比的模型资源和开发工具。目前,百度智能云千帆大模型平台已接入国内外上百个主流大模型,例如近期接入的DeepSeek的R1和V3模型,推理价格最低至DeepSeek官方定价的30%。
应用层,百度搜索、文库等自有场景提供近亿级用户反馈,加速模型优化。
此外,开源将推动文心大模型成为行业“事实标准”。开发者生态的壮大意味着更多企业将基于文心架构开发应用,进而强化百度在AI工具链中的话语权。
飞轮效应:云+AI为百度抢占身位
百度当前的战略布局,正在形成“云业务增长-开源生态扩张-模型竞争力提升”的飞轮效应。这一闭环一旦成型,将为其在新一轮AI竞争中建立稳固优势。
一是数据与场景的协同进化。云业务的企业客户将为文心大模型提供真实场景数据,推动模型迭代;更强大的模型又吸引更多客户使用云服务。
例如,智联招聘在校招环节上部署了基于文心大模型的AI智能客服系统“客悦”,“客悦”具有高度人性化的声音和自然的对话能力,能够实现复杂的多轮交互,帮助招聘会邀请函的接受率提升50%,人力成本降低70%。这种正反馈机制使百度的技术护城河持续加深。
二是成本下降驱动应用爆发。
大模型推理成本正以每年90%的速度下降,AI应用爆发临界点临近。百度此时开源免费,实质是降低行业试错成本,加速市场教育。当大量企业将AI嵌入核心业务时,具备全栈能力的百度将成为首选合作伙伴。
李彦宏多次强调:“AI的未来取决于应用,而非模型本身。”百度已率先在搜索、文库等场景实现AI重构,2024年12月,百度文库AI MAU达到9400万,同比增长216%,环比增长83%。公开信息显示,百度文库付费用户超4000万,位居全球第二、中国第一。
这些自营场景的成功经验,可快速复制到企业服务领域,形成从技术到商业的完整闭环。
在AI技术从实验室走向产业化的关键阶段,百度以云业务为抓手,以开源生态为扩张引擎,以全栈技术为竞争壁垒。这种“三位一体”的打法,不仅让其在当前的大模型混战中占据身位,更可能在未来十年的AI应用浪潮中定义行业规则。
当多数企业仍在纠结于模型参数规模时,百度已悄然完成从技术领先者到生态主导者的角色转换。这场AI竞赛的终局,或许正由今天的布局所决定。
本文仅供参考,不构成投资建议,投资者据此作出决策需自甘风险