深度剖析:AI硬件算力、存力、运力三大核心赛道的发展趋势

2026-03-23 11:12:10未知 作者:徽声在线

从算力层面分析,英伟达的芯片产品无疑是引领AI硬件行业发展的关键指标。作为全球AI计算芯片领域的领军企业,英伟达的产品更新换代节奏,对AI硬件行业具有举足轻重的导向作用。

观察英伟达的产品迭代路径,不难发现芯片制程正不断向更精细的方向发展。以往,智能手机是推动全球半导体产业制程升级的主要动力,例如台积电最先进的制程工艺,其大部分产能都优先供给苹果公司。然而,时至今日,推动半导体制程迭代的主角已经发生转变,且这一趋势在未来将持续深化。

为何要持续推进制程升级?核心目的在于让AI计算能够充分享受摩尔定律带来的性能提升红利。但摩尔定律的迭代速度相对平缓,通常需要两年多时间才能实现性能翻倍。当前,半导体制程已逐渐逼近1纳米的物理极限,摩尔定律的迭代速度还在进一步放缓。与此同时,AI算力需求却呈现爆发式增长,如何填补这一供需缺口,成为行业亟待解决的核心问题。

在此背景下,行业选择通过扩大芯片部署规模来满足算力需求。当摩尔定律带来的单芯片性能提升无法跟上算力需求增长时,便通过增加芯片投放量、扩建数据中心等方式来填补算力缺口。这一策略直接推动了算力芯片市场的迅猛增长。在海外市场中,无论是英伟达的GPU还是谷歌的TPU等AI算力芯片,均实现了快速增长。以上便是算力层面的行业发展趋势概览。

谈及存储领域,其最本质的需求源于AI的推动。AI领域需要大量存储来存放数据,例如GPU上配备的高带宽内存(HBM)。此外,英伟达还在其机柜中配置了大量DRAM、NAND等存储芯片,以满足不断增长的需求。随着agent技术的快速发展及市场放量,尤其是推理市场的迅速崛起,许多用户已开始部署大模型。这些大模型参数规模庞大,对存储需求极为强劲。随着大模型的持续走强,后续存储需求还将快速增长。目前来看,存储涨价趋势可能还将持续一段时间。因此,存储的景气度本质上源于AI计算需求的快速增长所带来的价格上行效应。

接下来,我们重点探讨运力板块。运力的组网逻辑主要分为两个阶段,以海外云厂商的组网为例:首先是scale up阶段。

如何理解scale up?以英伟达之前的A100及H100 GPU为例,它们均以八张GPU组成小型集群,再通过柜外连接将这些服务器组成超大规模的数据中心。单台服务器内部的GPU互联即可视为scale up,它将服务器内的GPU连接成一个整体。从scale up的发展来看,单集群内的GPU数量在不断增加。目前,单柜GPU数量已增至72卡,而本次发布的576卡机柜将进一步刷新单机柜算力规模。这也是在GTC大会上公布的核心内容之一。

那么,scale out又是什么呢?它指的是将服务器或机柜组成一个超大规模的整体。只有组成完整的大规模集群、搭建起超大型数据中心后,才能开展AI的训练及推理工作。目前,海外头部云厂商已建成十几万卡的GPU集群,整体发展速度非常迅猛。

在实现scale up和scale out的互联时,有哪些技术方案可供选择?首先是PCB(印刷电路板),可能有些朋友对PCB有所了解。如果拆过家里的闹钟或其他电器,就会发现里面基本都有一块PCB。PCB被誉为电子元器件之母,其核心作用是让电路能够更高效、更稳定地运行。当然,不同PCB之间的规格差异极大。例如,家里闹钟用的PCB一平方米可能只需100多元。然而,像英伟达这类企业或云厂商用于GPU计算芯片的PCB规格则非常高:基材目前基本都在M8级别,后续还会向M9甚至M10材料迭代;层数也很高,普遍能达到二三十层,还带有一次DI相关设计。因此,AI场景所用的PCB单价极高,部分产品一平方米能卖到几万元甚至更高。

由此可见,相关PCB企业的业绩成长迅猛,市场规模也在快速扩大。目前整个行业产能都处于供不应求的状态。许多厂商正在快速扩产,后续产能释放后,对相关厂商的业绩提振将比较乐观。当然,这里只是进行行业情况分析,不构成任何个股推荐。

第二种备选的互联方式是铜连接。从英伟达机柜背面的实拍图可以看到,机柜背面这些银白色、一捆一捆的部件就是英伟达目前在NVL72机柜中所用的铜缆,整体用量非常大。


资料来源:Nvidia

这些铜缆的作用是什么呢?从下方示意图可以看出,英伟达的机柜内部是一个个独立的托盘,每个计算托盘里放置4个GPU,一个机柜内有18个计算托盘,所以总共有72张GPU。计算托盘内部的GPU主要通过PCB来连接。从内部结构来看,这个结构相当于一个托盘,每个托盘里有两个超级芯片,每个超级芯片上搭载两个GPU,下方蓝色的部分就是两块PCB,即我们之前提到的高规格PCB。PCB将4个GPU组成了一个完整的计算托盘。


接下来,要将所有计算托盘组成一个完整的机柜整体。而机柜内部的跨托盘互联则依靠铜缆来实现。基本是通过铜缆连接NV Switch芯片,从而将机柜内所有72张GPU组成一个完整的互联整体。


资料来源:Nvidia

然而,铜缆也存在自身的技术局限。例如,在单层网络下,用铜缆组成72卡集群已接近物理极限。如果再叠加一层网络,最多也只能扩展到576卡,且这还只是技术层面的设想,未必能完全实现。因为铜是导体,而当下数据中心的功耗极高。功耗高的核心原因是计算芯片的计算吞吐量极大,数据传输过程中的运算量极高,传输的电流更大、信号频率也更快。


资料来源:Nvidia

如果用铜缆承担数据传输任务,极有可能出现过度发热的问题。持续发热意味着能量损耗,长时间工作还会引发数据丢失等问题。这在AI训练与推理场景中是绝对无法容忍的。以训练为例,AI模型需要通过一次次迭代不断寻找最优参数集合。如果每次迭代都丢失一部分数据,最终很可能导致整个训练过程完全无效。因此,铜缆的核心问题在于它只能支持短距离连接,传输距离过长就无法满足需求。目前来看,铜缆最多只能支持几米的传输距离。而英伟达的互联网络已升级到800G通信规格,后续还会进一步向1.6T升级,铜缆的局限性将愈发凸显。

当然,在英伟达机柜规格持续提升的过程中,柜内互联的整体市场规模也在不断扩大。在这个扩容过程中,我们认为无论是PCB还是铜缆,后续都能获得可观的市场份额。但如果要让它们承担柜内全部的互联任务,尤其是本次发布的576卡机柜的互联需求,仅靠铜和PCB在技术上存在不小难度。后续随着Feynman芯片的量产落地,将正式引入CPO技术,并同步推进柜内可插拔光模块等光互联方案的落地应用。

那么,柜外的互联要如何实现呢?从英伟达的方案来看,其目前所用的网络架构主要是叶脊网络。何为叶脊网络?从下方拓扑图可以看出,叶脊网络的架构很简单,看起来就像一棵树,从树根不断长出更多树枝,树枝再进一步分化出更细的枝丫,最终连接到叶片。


注:以上为根据英伟达资料推论所得,具体应用网络会在客户间有一定差异

叶脊网络的逻辑便是如此。假设有四个输入端口,中间设置两台交换机。从该架构来看,最基本的要求是任意一个输入端口到任意一个输出端口之间至少要有一条通信通路。

所有交换机不仅承担输入功能,也承担输出功能。如果将上面的拓扑图沿中线对折,就形成了英伟达所用的网络架构。可以看到,最上层是脊交换机,把下层的叶交换机连接成一个整体。叶交换机再进一步连接大量GPU,最终组成数据中心的完整集群。

这个架构中需要用到大量光模块。光模块的应用场景在哪里呢?拓扑图里标注的这些线路其实都是光缆,而交换机侧和服务器侧处理信号时用的都是电信号。因此,信号要从一台交换机传输到另一台交换机或从一台服务器传输到另一台服务器时,传输过程中需要多次完成光电转换。而这个核心功能就是由光模块来实现的。

我在这里做了相关测算:在三层网络架构下,GPU与光模块的配比大约是1:6。当然,这里是用同规格的光模块进行测算的。例如,在Hopper架构芯片下,1:6的配比对应的是400G光模块;在Blackwell架构芯片下,1:6的配比对应的是800G光模块;下一代Rubin架构对应的则是1.6T光模块。当然,光模块具有很强的灵活适配性。两个800G的光模块可以合并当作一个1.6T的光模块使用,一个1.6T的光模块也可以拆分成两个800G的光模块使用。因此,这个配比在实际产品应用中可能会有小幅波动,但整体对应的带宽需求是固定的。所以三层网络下的配比基本维持在1:6左右。

由此可见,随着下游芯片的快速放量,光模块的整体市场规模将迎来快速增长。后续来看,“光入柜内”将是整个市场预期最高的发展方向之一。为何会有光入柜内这样的预期呢?刚才已经介绍过,实现scale up和scale out互联的技术方案目前只有三种:铜连接、PCB以及光模块。目前在英伟达的技术体系中,scale up对应的柜内互联全部通过电连接实现,即铜缆和PCB;而柜外的长距离互联则基本都通过光模块来实现。

展望未来,随着Scale Up规模的不断扩张,我们可以看到从8卡到72卡再到576卡,甚至后续规模可能会越来越大、覆盖的卡量越来越多。随着GPU数量的不断增加,对应的部署空间也在不断扩大。例如,本次发布的576卡机柜落地后,所需的部署空间就已经非常可观了。

对于如此庞大的部署空间而言,无论是PCB还是铜缆都会存在自身的固有局限。例如,PCB无法制造得过大,不可能做出一间屋子那么大的PCB板,因为其内部尤其是多层板的压合工艺会受到诸多机械条件的限制。而铜缆则受自身物理特性的限制,无法实现长距离的信号传输。因此,在scale up市场规模持续扩大的过程中,光技术后续很有可能会成为核心选择。

在scale up规模持续扩大的过程中,我想再次强调:PCB的成长性是比较强的。无论是本次发布的Rubin Ultra采用的正交背板,还是其技术持续升级、层数不断增加,亦或是所用材料的性能持续提升,PCB的成长性都十分强劲。我只是想说明,在scale up规模持续增长的过程中,PCB与铜缆很难独自承接市场的全部份额。因此,往后面去看,光技术将是非常重要的选择。

那么,scale up这个市场到底有多大呢?从目前来看,即便我们进行相关测算,结果也并不具备足够的参考性。但从博通CEO的表述来看,该市场规模有5到10倍的增长空间。虽然产业链上有5到10倍的增长预期,但各家公司可能都有自身的发展诉求。从我们目前的观察来看,该市场规模至少会超过柜外市场。

对于当前的可插拔光模块厂商而言,对应的市场机会大概是怎样的呢?我们知道,当前的scale out市场大致可以理解为柜外市场,已经是可插拔光模块的核心主战场。而后续的scale up场景中,采用的可能是可插拔光模块,也可能是CPO。但无论是可插拔光模块还是CPO,对于当前的行业龙头厂商而言,都有充足的订单机会可以承接。即便是CPO,也有诸多相关方案正在验证阶段,后续有望拿到大量订单。因此,大家也不用过度担心。

总体从产业层面来看,算力、存力、运力仍在快速地成长。在这样的发展过程中,相关厂商都将迎来更多的成长机会。

长期来看,AI行业发展远未触顶。据徽声在线预测,2026年全球AI资本开支预计将超过7000亿美元,Agent技术将进入规模化商用元年,产业成长空间将全面打开。投资层面,核心推荐通信ETF国泰(515880),其光模块、服务器等算力核心权重超过75%,2025年涨幅居全市场ETF首位;半导体设备ETF国泰(159516)则受益于全球存储扩产与国产替代双重逻辑,具备充足的业绩弹性。同时,短期布局需警惕美联储货币政策不确定性、大宗商品涨价推高运营成本等潜在风险。

风险提示:

投资人应当充分了解基金定期定额投资和零存整取等储蓄方式的区别。定期定额投资是引导投资人进行长期投资、平均投资成本的一种简单易行的投资方式。但是定期定额投资并不能规避基金投资所固有的风险,不能保证投资人获得收益,也不是替代储蓄的等效理财方式。

无论是股票ETF/LOF基金,都是属于较高预期风险和预期收益的证券投资基金品种,其预期收益及预期风险水平高于混合型基金、债券型基金和货币市场基金。

基金资产投资于科创板和创业板股票,会面临因投资标的、市场制度以及交易规则等差异带来的特有风险,提请投资者注意。

板块/基金短期涨跌幅列示仅作为文章分析观点之辅助材料,仅供参考,不构成对基金业绩的保证。

文中提及个股短期业绩仅供参考,不构成股票推荐,也不构成对基金业绩的预测和保证。

以上观点仅供参考,不构成投资建议或承诺。如需购买相关基金产品,请您关注投资者适当性管理相关规定、提前做好风险测评,并根据您自身的风险承受能力购买与之相匹配的风险等级的基金产品。基金有风险,投资需谨慎。

点击展开全文
你关注的
AI产业链价格全景解析:哪些核心环节正在经历涨价潮?AI产业链价格全景解析:哪些核心环节正在经历涨价潮? AI大模型“投毒”风波:公募基金在流量营销与合规之间的艰难抉择|基市乱象追踪⑦AI大模型“投毒”风波:公募基金在流量营销与合规之间的艰难抉择|基市乱象追踪⑦ AI新纪元:“龙虾”引领,App渐退,人机交互革命将启AI新纪元:“龙虾”引领,App渐退,人机交互革命将启
相关文章
深度剖析:AI硬件算力、存力、运力三大核心赛道的发展趋势深度剖析:AI硬件算力、存力、运力三大核心赛道的发展趋势 大疆起诉影石创新专利权属案法院已立案,行业关注度高大疆起诉影石创新专利权属案法院已立案,行业关注度高 深圳星罗拾光科技增资近一倍,抖音集团全资控股显实力深圳星罗拾光科技增资近一倍,抖音集团全资控股显实力 299元硬件与AI视频工具:三位年轻人如何借“小龙虾”撬动AI创业299元硬件与AI视频工具:三位年轻人如何借“小龙虾”撬动AI创业 AI日报|软银5000亿美元建超级数据中心;马斯克Terafab项目落户奥斯汀AI日报|软银5000亿美元建超级数据中心;马斯克Terafab项目落户奥斯汀 扎克伯格秘密研发CEO级AI决策系统扎克伯格秘密研发CEO级AI决策系统