GPU神话褪色,AI新战场聚焦系统效能

2026-05-01 09:11:30未知 作者:徽声在线


出品 | 徽声在线APP

作者 | 张博

编辑 | 丁萍

头图 | AI生成图像


在过去的两年里,AI产业的核心叙事几乎都围绕着GPU展开。

从OpenAI引领的大模型浪潮,到英伟达市值的迅猛攀升,再到云服务提供商、互联网巨头和初创公司竞相争夺高端算力资源,GPU被塑造成AI时代最为稀缺的“硬通货”。谁拥有更多的GPU,谁就更能接近模型能力的上限,谁就能构建更大的训练集群,谁就更有可能拿到通往下一代AI的入场券。

在这套叙事逻辑中,CPU并未消失,但显然已退居次要地位。它依旧是服务器的基础组件,支撑着操作系统、数据库、网络和应用程序的运行,却不再是AI故事中的主角。市场甚至形成了一种默认的判断:在AI时代,GPU是主导者,而CPU只能分得一杯羹。

然而,到了2026年,这一判断已显得力不从心。因为AI产业正经历着一场更为深刻的变化:主战场正从训练竞赛转向部署竞赛,价值重心正从峰值算力转向系统效率。

这意味着,真正决定AI商业化速度的,不再仅仅是GPU能否将模型训练得更大、更快,而是整套系统能否以可控的成本、稳定的吞吐和高利用率,将模型真正运行起来、应用起来,并实现盈利。

一旦竞争从“单卡性能”转向“端到端效率”,CPU便不再只是配角,而是成为AI基础设施中被长期低估的系统变量。

市场为何重新关注英特尔?

这不仅仅是因为财报数据,更是因为需求结构发生了变化。

近期,一个值得注意的信号是英特尔重新获得了资本市场的青睐。2026年第一季度,英特尔的营收约为136亿美元,同比增长7%,连续第六个季度超出市场预期;净利润同比增长156%。其中,数据中心与AI相关业务(DCAI)的收入达到约51亿美元,同比增长22%,成为增长最快的业务板块。财报发布后,英特尔股价盘后最高上涨超过40%(截至4月30日)。

如果仅从公司层面来看,这当然不足以说明英特尔已经彻底翻身。它仍面临着制程追赶、服务器CPU市场份额承压、Arm架构渗透、云厂商自研芯片推进等诸多挑战。但市场还是给予了它新的想象空间,原因不在于英特尔突然成为了AI领域的明星,而在于投资者开始意识到:AI基础设施的需求结构,已经不再仅仅是“多买GPU”

英特尔管理层在财报会议上透露,数据中心中CPU与GPU的部署比例,正从传统的1:8收紧到1:4,在智能体场景中甚至可能进一步向1:1靠近。

这背后的含义非常明确:过去两年,AI行业最核心的矛盾是训练能力不足,而今天,越来越多的企业开始面临另一组问题,即模型训练完成后,如何进行推理、如何部署、如何扩展、如何控制成本。

也就是说,资本市场重新定价的,不只是英特尔,而是一个更深层次的事实:AI开始进入系统竞争阶段。

CPU的重要性从何而来?

要回答这个问题,首先要解答另一个疑问:为什么AI今天的核心矛盾,已经不再仅仅是训练。因为训练虽然成本高昂,但对大多数企业来说,它更多是一次性的资本支出;而推理、部署和调用,则是持续性的运营支出。

训练决定模型能否被开发出来,而推理则决定模型能否持续生存下去。这一变化已有明确的数据支撑。

德勤估算,推理工作负载占AI总算力的比例在2023年约为三分之一,2025年接近一半,到2026年预计将达到三分之二。IDC预测,到2027年,中国推理算力占整体算力的比例将突破70%。另有研究预计,到2026年,推理带来的市场规模将是训练硬件市场的2到3倍。这些数据共同说明了一件事:AI的成本中心和价值中心,正在从“训练一次”转向“运行无数次”。

郑纬民院士给出了一个更为直白的拆分:在大模型推理成本中,人力仅占3%,数据占2%,算力占到95%。他举例称,ChatGPT的推理开销每天约70万美元,DeepSeek V3每天约8.7万美元(按各自披露口径)。

这组数据真正说明的,不是“推理也很贵”,而是一旦AI进入大规模使用阶段,真正吞噬利润的不是训练成本,而是推理成本。国家数据局的数据进一步放大了这种压力:中国日均Token调用量从2024年初约1000亿,跃升至2026年3月的140万亿,两年增长超千倍。

如果说训练是一次性投入大量资金,那么推理就是每天都在消耗资金。训练成本高是研发问题,而推理成本高则是利润问题。而一旦问题变成利润问题,企业就不可能再只盯着模型参数和GPU数量,而必须开始追问:

GPU是否被充分利用了?哪些任务必须用GPU?哪些其实应该交给CPU?整套系统的吞吐率和资源利用率到底高不高?

这正是CPU重新变得重要的起点。

许多人理解AI基础设施,还停留在“GPU越多越好”的阶段。但现实是,今天大量AI系统面临的核心问题,不是GPU不够强大,而是系统无法充分供给GPU所需的资源。

MLPerf行业基准测试显示,在大模型训练场景中,数据加载、预处理、参数同步等环节带来的延迟,可占总训练时间的35%到60%。IDC调研则显示,即使是头部互联网企业的AI推理集群,GPU的平均利用率也长期低于40%;大量中小企业的GPU集群利用率甚至不足15%。

这意味着什么?

这意味着今天最昂贵的AI资源,正在被大规模浪费。不是因为GPU性能不行,而是因为数据流动、任务调度、内存管理、I/O协同、网络处理这些系统环节跟不上。换句话说,GPU算得很快,但系统供给不上,结果就是一边拼命买卡,一边大面积闲置。

这也是为什么CPU的重要性,不是“多卖一点服务器芯片”那么简单,而是它直接决定AI系统的资源利用率和投资回报率(ROI)。

因为在真实的工作流程中,GPU从来不是单独工作的。它前面有数据准备,后面有结果处理,中间有任务调度、缓存维护、上下文切换、网络通信、容器管理、数据库交互。这些环节中,真正承担控制流和系统协同的,主要是CPU。

所以问题的本质不是“CPU能否替代GPU”,而是如果CPU和系统层能力跟不上,再强的GPU也只是昂贵的闲置资产。


智能体兴起,让CPU从“底座”升级为“中枢”

如果说推理阶段让CPU重新变得重要,那么智能体(Agent)的兴起,则将这种重要性进一步放大。

因为智能体不是一个“更会聊天”的模型,而是一套真正要执行任务的系统。它要理解目标、拆解步骤、调用工具、访问数据库、连接API、执行代码、维护状态、判断结果,必要时还要调用其他模型或子智能体协同。

在这条链路中,模型推理只是其中一环。大量工作并不是“计算”,而是“调度”“编排”“切换”“访问”“管理”。这些工作本质上都属于控制流和系统协同,而这正是CPU最擅长的领域。

康奈尔大学的研究显示,在五类代表性智能体工作负载中,CPU端的工具处理、逻辑调度和数据预处理,占总端到端延迟的比例高达43.8%到90.6%。在典型的RAG场景中,CPU处理甚至可能占到总延迟的90%以上,GPU推理反而不到10%。

这组数据的意义非常明确:在智能体时代,很多真实任务的瓶颈已经不是GPU算得够不够快,而是CPU能否把整条任务链顺畅地跑完。

这也解释了为什么CPU/GPU配比正在发生变化。TrendForce指出,当前AI数据中心中CPU与GPU的配比大约是1:4到1:8,而在智能体AI时代,这一比例预计将逐步演变为1:1到1:2。当配比从1:8向1:1收敛,本质上不是CPU多卖了几颗,而是AI基础设施从“计算中心化”转向“系统中心化”。

产业反馈已经开始显现。2026年第一季度末,Intel和AMD都对部分CPU产品线提价,服务器CPU的交期拉长至约6个月。与此同时,英伟达和Arm也在同一时期宣布进军服务器CPU市场。

一个是GPU巨头,一个是IP授权商,却在同一时间加码CPU,这说明他们看到的是同一个趋势:未来AI的关键战场,不只是模型推理本身,而是围绕推理和智能体展开的整机系统能力。

当所有头部玩家都在补CPU,说明竞争已经从“单芯片”变成“系统工程”。过去两年,AI行业有一种很强的“单点崇拜”:比谁的芯片更强,比谁的参数更多,比谁的集群更大。这种竞争方式在产业早期成立,因为技术突破往往首先来自少数明星环节。

但产业一旦进入落地阶段,决定胜负的逻辑就会改变。真正拉开差距的,不再只是某个单点性能,而是整套系统能否以可控成本、可复制方式持续运行。

所以今天我们看到的,不只是英特尔受益,而是所有重要玩家都在重新补CPU、补系统、补整机能力。英特尔希望依托数据中心生态和软件兼容,重新巩固系统层话语权;AMD则在服务器CPU市场持续扩大份额,Mercury Research数据显示,AMD EPYC服务器CPU在2025年第四季度的营收份额已达到41.3%,首次突破40%。

Arm和云厂商自研CPU,则试图从高能效和定制化切入系统入口;甚至连英伟达自己,也在通过Grace CPU强化对整机架构的控制力。所有顶级玩家都在补CPU,不是因为CPU突然变得性感,而是因为AI开始从芯片问题,变成系统问题。

如果把视角拉回中国,这轮变化的现实意义更大。中国是全球AI应用落地最快的市场之一。截至2026年3月,我国日均Token调用量已突破140万亿;IDC数据显示,2025年中国AI加速卡总出货约400万张,其中国产厂商出货165万张,占比41%。

这说明,中国AI已经不再只是“模型热”“算力热”,而是进入了真正的“调用热”和“部署热”。这会把中国企业推向一个更现实的问题:AI不是能不能做,而是做了之后能不能长期运行、能不能算得过来账。

第一,是成本压力。

某制造企业在将智能体接入生产线时发现,每个决策步骤的推理成本高达0.3美元,是传统规则系统的20倍。这类案例真正说明的,不是智能体太贵,而是:如果系统架构不优化,AI很容易从生产力工具变成成本黑洞。

第二,是兼容压力。

中国企业现有的IT系统复杂多样,数据库、ERP、CRM、OA、工业系统长期并存。AI如果要真正进入业务流程,必须与这些存量系统深度融合。这意味着企业需要的不是单一“最强模型”,而是一套能把模型、数据库、API和业务系统串起来的基础设施,而CPU承担的正是兼容、调度和运行时支撑角色

第三,是自主可控。

随着AI部署的深化,国产CPU、服务器、操作系统、数据库、中间件和调度软件,都会被重新放到更靠前的位置。也就是说,CPU重新变得重要,不只是国际巨头的机会,也可能成为中国基础设施产业链的一次再估值窗口。

所以,如果把视角再拉长一点,就会发现,CPU在AI中的重新变得重要,其实只是表象。更深层被重新定价的,是系统能力。

本文来自徽声在线,原文链接:https://www.huxiu.com/article/4855067.html?f=wyxwapp

点击展开全文
你关注的
【出海聚焦】石油危机凸显中国电动车优势,性价比之外更有硬实力【出海聚焦】石油危机凸显中国电动车优势,性价比之外更有硬实力 AI玩具赛道迎重大变革:模型“套壳”问题有望短期解决,智能体研发加速推进AI玩具赛道迎重大变革:模型“套壳”问题有望短期解决,智能体研发加速推进 深圳低空经济全域竞速:百企试飞、基金赋能、标准引领深圳低空经济全域竞速:百企试飞、基金赋能、标准引领
相关文章
GPU神话褪色,AI新战场聚焦系统效能GPU神话褪色,AI新战场聚焦系统效能 DeepSeek视觉革命:7000倍压缩开启空间推理新纪元DeepSeek视觉革命:7000倍压缩开启空间推理新纪元 苹果上季在华收入大增28%,iPhone创新高,本季营收指引超预期强劲 | 财报深度解析苹果上季在华收入大增28%,iPhone创新高,本季营收指引超预期强劲 | 财报深度解析 电动两轮车迈入“iPhone时代”:九号携手泡泡玛特推联名款,“体验竞争”能否破局?电动两轮车迈入“iPhone时代”:九号携手泡泡玛特推联名款,“体验竞争”能否破局? 比亚迪充电网络建设突破5715座闪充站里程碑比亚迪充电网络建设突破5715座闪充站里程碑 泡泡玛特LABUBU冰箱3秒售罄 二级市场溢价超4倍引发热议泡泡玛特LABUBU冰箱3秒售罄 二级市场溢价超4倍引发热议