2026年GTC大会上,英伟达的一系列产品发布和战略布局再次对全球智能算力市场产生重大影响。其重点推出的Vera Rubin全栈计算平台,打破了以往“单芯片主导算力竞争”的传统逻辑,转而以机架级系统、集成式AI工厂架构为核心,强调软硬件协同、全链路优化的平台化价值。
国际数据公司(IDC)最新服务器市场追踪报告预测,到2029年全球加速计算服务器市场规模将超过1万亿美元规模,未来5年仍然以每年增长30%的速度猛增。未来几年的人工智能发展,仍将依赖于智算算力基础架构设施的不断扩张和技术革新。结合IDC全球AI基础设施市场数据,IDC总结出未来几年智能算力发展的五大核心发展趋势,为科技企业、云服务商及投资者提供决策参考。
趋势一:算力架构专用化深化,GPU与CPU/专用加速器协同成为主流
Vera Rubin计算平台和Groq 3 LPX机架的协同发布,清晰折射出AI算力架构从通用优化向专用分工的深度演进。Vera Rubin的Rubin GPU侧重高吞吐量、大规模参数处理,适配智能体AI的复杂推理与训练需求;Groq LPX的LPU则聚焦低延迟token生成,专攻推理场景中的解码环节,两者通过解耦推理架构实现协同,本质上是算力架构专用化的极致体现。
这一趋势是全球智算算力发展的必然选择。随着大语言模型参数迈向万亿级,智能体AI的应用普及,单一GPU架构在特定场景下的效率瓶颈日益凸显,专用加速器的价值持续提升,LPU针对大模型推理的延迟与带宽瓶颈优化,形成与GPU的互补分工。IDC认为,未来几年间,通用GPU+专用加速器的异构协同架构将成为AI算力集群的标配,不同场景下的专用算力芯片将持续涌现,算力架构将呈现场景适配、分工协同的核心特征,彻底打破GPU单一主导的格局。
趋势二:互联技术迭代升级,超节点技术和算网融合成为算力架构的发展重点
Vera Rubin架构的NVLink 72和Spectrum-6交换机等产品的发布,标志着智算互联技术上升到了一个新的台阶,算网融合成为技术竞争的核心焦点。NVLink 72实现72个GPU的全互联拓扑,单机柜带宽达260TB/s;Spectrum-6交换机则通过将硅光子引擎封装到芯片,减少信号损耗,进一步压缩端到端延迟,适配高密算力集群的互联需求。
随着大模型模型规模扩大,多节点协同成为常态,通信延迟与带宽瓶颈成为制约算力释放的主要瓶颈。IDC调研数据显示,当前AI大模型训练中,数据通信耗时占比已达30%-40%。这都推动了新一代智算集群互联技术的发展。互联架构从树形拓扑向全互联无损网络演进,算网融合的深度与广度将持续提升,成为AI算力集群的核心基础设施。
趋势三:冷却与能效技术革新,液冷成为高密算力集群必选配置
新推出的Vera Rubin系统的100%液冷设计架构,高密机柜的部署模式,印证了冷却技术与能效优化已成为智算算力基础设施的核心支撑。随着算力密度持续飙升,训练服务器单机柜功率极限即将突破100kW,液冷技术从可选升级正式转变为必选配置。
液冷技术的普及,不仅是散热需求的驱动,更是能效优化的必然选择。IDC预测,到2029年仅中国国内的液冷服务器市场规模就将突破200亿美元,年复合增长率超过50%,其中AI算力场景占比将超过60%,成为液冷技术的核心应用领域。
除了液冷技术,能效优化还将呈现“软件+硬件”协同的趋势。通过动态调度技术,通过软件算法优化算力与电力分配,最大化每瓦token产出效率,实现算力输出与能效优化的动态平衡。未来,每瓦token数的能效指标,将取代单纯的算力性能FLOPS,将成为考核智算算力的核心维度。
趋势四:智能体生态崛起,推动算力需求多元化与边缘渗透
OpenClaw热潮延续到了本次大会。智能体技术落地加速,正推动算力需求向多元化、全域化演进。作为开源智能体操作系统,实现了资源调度、工具调用的全流程自动化,推动AI从生成内容走向自主执行,这一变革直接带动推理算力需求的指数级增长。
从算力需求结构来看,智能体时代的算力需求呈现两大特征:一是推理算力占比持续提升,IDC预测,2027年推理算力在智能算力大盘中的占比将超过70%,成为算力需求的核心增长引擎;二是算力需求从核心数据中心向边缘、车端、工业现场等全域渗透,边缘算力需求增速将超过核心算力,成为新的增长极。
这一趋势将推动算力基础设施的形态变革。边缘算力节点需具备小体积、低功耗、高可靠的特征,适配智能体在工业机器人、车端、电信基站等场景的部署需求。同时,智能体对工具调用、数据访问的需求,将推动算力与存储、网络、安全技术的深度融合,形成算力+生态的协同发展格局。
趋势五:SCSP/Neo‑clouds崛起,专业智算服务重构算力供给格局
大会提及的算力合作伙伴CoreWeave等,属于IDC 定义的专业云服务商SCSP,或称Neo‑cloud,即面向 人工智能的专用算力云,主打高密度 智算集群、低延迟网络、弹性调度与成本优化。与传统提供全栈通用云能力,覆盖企业全场景 IT 需求的超大规模云相比,专业算力SCSP/Neo‑clouds聚焦智算算力即服务,极致优化大模型训练 / 推理集群,交付更快、更专、更省的 智算算力。两者共同构成混合多云格局,成为企业算力的主流交付模式。
与全球市场不同,中国的传统超大规模云厂商也在加大对智算算力的投资。在继续覆盖企业多场景应用的前提下,也提供智算算力的供给与优化,匹配智能体AI场景的核心需求。未来,智算算力与通用型算力形成分工互补的格局:智算算力专注于AI专用算力领域,为大模型的训练和推理提供基础架构;通用算力则聚焦智能体执行操作,覆盖Agent Skill更多场景,满足企业多元化算力需求。
IDC建议
IDC中国研究副总裁周震刚先生表示,本次大会发布的产品所折射的五大技术趋势,本质上是AI走向规模化生产的必然结果。对于科技企业而言,需聚焦专用算力架构、算网融合、液冷能效等核心技术领域;对于开发者而言,开源生态的崛起为技术创新提供了广阔空间,可依托OpenClaw等开源平台,聚焦垂直场景的智能体开发;对于投资者而言,液冷服务器、专用加速器、边缘算力等赛道,将成为未来3-5年的核心增长领域,值得重点关注。
同时,IDC也提醒市场参与者关注技术迭代带来的挑战:一是技术转型成本较高,中小厂商面临研发投入与供应链整合的双重压力,行业分化将持续加剧;二是电力资源约束日益凸显,能效优化能力成为企业的核心竞争力;三是开源生态的安全风险需重点防范,尤其是智能体时代,数据安全与合规性将成为行业发展的重要前提。
IDC相关研究报告:
China Digital Infrastructure Strategies (Chinese Version)
China AI Infrastructure Strategies (Chinese Version)
China Semiannual Accelerated Server Tracker
China Semiannual Liquid Cooling Server Tracker
China Semiannual Intelligent Computing Infrastructure as Services Tracker
IDC将持续追踪全球智能算力架构、市场格局与应用创新的最新动态,围绕AI基础设施、算力服务、边缘智能、绿色计算等核心议题,输出前瞻性研究与深度洞察。如您希望进一步获取相关报告或进一步交流,欢迎与我们联系。
如需进一步了解与研究相关内容或咨询 IDC其他相关研究,请点击此处与我们联系。