谷歌TurboQuant算法震撼发布 内存需求降温还是悖论再现?

2026-03-26 13:07:56未知 作者:徽声在线

徽声在线3月26日讯(编辑 李阳)美东时间周二,科技巨头谷歌抛出一枚重磅炸弹——其研发的超高效AI内存压缩算法TurboQuant正式亮相,瞬间在硅谷科技圈引发轩然大波。


谷歌宣称,这项创新算法能够在确保大型语言模型运行准确性的前提下,将缓存内存占用至少削减6倍,同时性能提升高达8倍。这意味着,人工智能可以在更小的内存空间里存储并处理更多信息,为AI技术的发展开辟了新的可能性。

TurboQuant算法的发布,犹如一颗投入平静湖面的石子,在美股市场激起层层涟漪。芯片股应声下跌,谷歌与华尔街也围绕一个核心问题展开了激烈讨论:当前困扰科技行业的内存芯片短缺危机,是否将因此迎来转机?

TurboQuant:何方神圣?

那么,TurboQuant究竟是什么?它又有何神奇之处呢?

据谷歌官方介绍,TurboQuant是一种先进的压缩方法,它能够在不牺牲任何精度的情况下,显著减小模型体积,特别适用于键值缓存(KV Cache)压缩和向量搜索。其实现原理主要依赖于两个关键步骤:

1、高质量压缩(PolarQuant method):TurboQuant首先对数据向量进行随机旋转,这一巧妙操作简化了数据的几何结构,使得标准的高质量量化器能够轻松应用于向量的各个部分。第一阶段利用了大部分压缩能力,保留了原始向量的主要概念和特征。
2、消除隐藏误差:TurboQuant利用剩余的少量压缩能力(仅1比特),将QJL算法应用于第一阶段遗留的微小误差。QJL阶段如同一位严谨的数学误差检查员,消除偏差,确保注意力评分的准确性。

简而言之,TurboQuant在保持AI模型核心结构不变的前提下,实现了对AI模型的高效压缩,且无需预处理或特定校准数据。

为了验证TurboQuant的性能,谷歌使用了开源的长上下文模型(Gemma和Mistral),在包括LongBench、Needle In A Haystack、ZeroSCROLLS、RULER和L-Eval在内的多项基准测试中,对TurboQuant、PolarQuant和KIVI三种算法进行了严格评估。

实验结果显示,TurboQuant在点积失真和召回率方面均表现出色,同时最大限度地减少了键值(KV)内存占用。


上图展示了TurboQuant、PolarQuant和KIVI基线算法在问答、代码生成和摘要等不同任务中的综合性能对比。

谷歌进一步透露,TurboQuant在所有基准测试中均取得了优异的下游结果,同时将键值内存大小至少减少了6倍。

谷歌计划在下个月的ICLR 2026会议上,详细展示其研究成果,并介绍实现这种压缩的两种方法:量化方法PolarQuant和名为QJL的训练和优化方法。

谷歌的DeepSeek时刻?

谷歌的这一算法,不禁让人联想到HBO热门电视剧《硅谷》(2014年至2019年播出)中虚构的创业公司Pied Piper。在剧中,Pied Piper同样开发出一种突破性的压缩算法,能够在近乎无损的情况下大幅减小文件大小。


而现实中的谷歌研究院发布的TurboQuant技术,同样致力于在不损失质量的前提下实现极致压缩,但它针对的是人工智能系统的核心瓶颈。

Cloudflare首席执行官Matthew Prince等人甚至将这一时刻称为谷歌的DeepSeek时刻,认为TurboQuant有望像DeepSeek一样,通过极高的效率收益大幅降低AI的运行成本,同时在结果上保持竞争力。


Matthew Prince在X上的一篇文章中写道:“在速度、内存使用、功耗和利用率方面,AI推理仍有巨大的优化空间。”

内存芯片需求或将降温?

谷歌发布TurboQuant算法之际,正值全球存储芯片短缺问题日益严峻之时。

随着全球各大科技巨头全力投入AI基础设施建设,内存需求持续攀升,供不应求的局面短期内难以缓解。各大科技公司的开发人员已经想尽各种创新方法来克服或至少应对内存短缺问题,而谷歌的TurboQuant算法,目前被科技界人士视为一种可能给内存需求降温的可持续方案。

这一预期对于致力于建设AI基础设施的科技巨头们来说,无疑是一个好消息。但对于内存芯片厂商们来说,则可能意味着挑战。

受内存需求可能降温预期的影响,美东时间周三,美股存储芯片板块在开盘后不久便集体跳水:闪迪一度跌6.5%,美光科技跌4%,西部数据跌超4%,希捷科技跌超5%。


闪迪周三早盘一度大跌

周四亚洲时段,截至发稿时,SK海力士下跌4.42%,三星跌3.02%。

Futurum股票研究部门的Shay Boloor表示:

“市场认为这对内存类股票来说是一个潜在的不利因素,因为长上下文AI推理每个工作负载可能需要的内存现在可能大幅减少。”

大摩持不同观点

然而,也有华尔街巨头提出了相反的看法。

比如,Lynx Equity Strategies分析师KC Rajkumar就认为,TurboQuant的技术“颠覆性”可能并没有媒体描述的那么夸张。

他指出,谷歌所谓的“8倍性能提升”是基于与老旧的32-bit模型对比得出的,而当前的推理模型早已广泛采用4-bit量化数据,因此性能提升幅度并没有那么显著。

此外,摩根士丹利还强调,谷歌TurboQuant技术仅作用于推理阶段的键值缓存,对模型权重所占用的HBM无影响,也与训练任务无关。

因此,这并非存储总需求或硬件总量减少6倍,而是通过效率提升增加了单GPU吞吐量——相同硬件可支持4至8倍更长的上下文,或在不触发内存溢出的前提下显著提升批处理规模。

更重要的是,摩根士丹利进一步援引了“杰文斯悖论”(Jevons Paradox)来解释内存需求不会降温的判断。

杰文斯悖论是经济学中的一个重要概念,它揭示了技术进步与资源消耗之间的一种反直觉关系。其定义是:当技术进步提高了效率,资源消耗不仅没有减少,反而激增。例如,瓦特改良的蒸汽机让煤炭燃烧更加高效,但结果却是煤炭需求飙升。

摩根士丹利认为,通过大幅降低单次查询的服务成本,TurboQuant能够让原本只能在云端昂贵集群上运行的模型迁移至本地,有效降低AI规模化部署的门槛,这可能反而能进一步提振整体需求。

实际上,Cloudflare首席执行官Matthew Prince等人提到的DeepSeek,就是杰文斯悖论的一个鲜明例子:在DeepSeek去年年初刚刚发布时,市场也一度担忧AI硬件需求将会降温,但事实是,效率的提升带来了AI应用的进一步普及,AI硬件需求也再次升温。

点击展开全文
你关注的
AI产业链价格全景解析:哪些核心环节正在经历涨价潮?AI产业链价格全景解析:哪些核心环节正在经历涨价潮? 国内首个!新型储能AI分析平台投用 新能源消纳电量提升30%国内首个!新型储能AI分析平台投用 新能源消纳电量提升30% AI大模型“投毒”风波:公募基金在流量营销与合规之间的艰难抉择|基市乱象追踪⑦AI大模型“投毒”风波:公募基金在流量营销与合规之间的艰难抉择|基市乱象追踪⑦
相关文章
谷歌TurboQuant算法震撼发布 内存需求降温还是悖论再现?谷歌TurboQuant算法震撼发布 内存需求降温还是悖论再现? 每经专访高通全球高级副总裁钱堃:6G商业化应用面临四大挑战,将深度重塑AI发展格局每经专访高通全球高级副总裁钱堃:6G商业化应用面临四大挑战,将深度重塑AI发展格局 监管出手终结外卖大战 美团能否借此开启万亿即时零售新纪元?监管出手终结外卖大战 美团能否借此开启万亿即时零售新纪元? 数字龙虾领养、全开源机器人登场 2026全球开发者大会前瞻数字龙虾领养、全开源机器人登场 2026全球开发者大会前瞻 谷歌发布TurboQuant算法:AI内存优化获突破性进展谷歌发布TurboQuant算法:AI内存优化获突破性进展 真我商城即将停运,业务全面融入OPPO体系真我商城即将停运,业务全面融入OPPO体系