根據Google最新研究,其開發的「TurboQuant」演算法,能將大型語言模型(LLM)的KV快取記憶體需求大幅降低至少六倍,並提升速度達八倍,此消息一出,旋即引發記憶體股市場的劇烈震盪。然而,業界分析師普遍認為,市場對此技術的恐慌反應可能過度,因為歷史數據與技術發展趨勢顯示,效率提升反而可能催生更龐大的需求,形成獨特的「傑文斯悖論」效應。
Google TurboQuant技術革新:數據壓縮與效能飛躍
Google近期發布的「TurboQuant」演算法,旨在優化大型語言模型(LLM)中關鍵的KV快取(key-value cache)記憶體瓶頸。Google研究人員表示,這項技術能在不損害模型準確度的情況下,將AI模型的KV記憶體需求降低至少六倍,並將處理速度提升最多八倍。
Google將TurboQuant描述為「數位備忘單」(digital cheat sheet),實際上是充當了AI模型的「短期記憶」。
此項技術的目標是解決傳統壓縮可能導致模型出現「幻覺」(hallucinate)或出錯的問題,同時有效擴充快取空間。然而,這項技術消息卻在記憶體市場投下震撼彈,導致記憶體大廠美光(Micron Technology, Inc.)與電腦儲存設備領導服務商Sandisk等記憶體相關股,於「26日」股價受到顯著衝擊。
市場恐慌過度?專家剖析背後數據與傑文斯悖論
儘管市場對TurboQuant的反應劇烈,但多位分析師指出,此恐慌可能過度。瑞穗(Mizuho)科技產業專家Jordan Klein便指出,TurboQuant並非全新技術,其技術草稿早在「2025年4月」就已在網路流傳。他認為:
「如果這項技術真的好到能在Google內部大量使用,相信我,他們絕對不會發表論文公開它。」
此外,歷史數據也支持「效率提升反而帶動需求」的觀點,這正是所謂的「傑文斯悖論」(Jevons’ Paradox)。舉例來說,「2025年1月」中國的DeepSeek模型問世,展現了降低AI模型訓練成本的能力,一度引發市場對雲端商AI晶片投資過度的擔憂。然而,隨後卻是AI服務需求的大幅增長,反而證明了擴大投資的合理性。
記憶體產業前景:效率提升如何轉化為投資報酬率?
業界專家普遍認為,TurboQuant這類提升記憶體使用效率的技術,長遠來看將推動整體需求。美銀證券(BofA Securities)分析師Wamsi Mohan引述Sandisk財務長Luis Visoso的說法指出:
「TurboQuant能提升超大規模資料中心資本支出的投報率(ROI),而效率的提升反將推高需求。」
Mohan也因此將Sandisk的投資評等維持在「買進」,目標價為900美元。摩根士丹利(Morgan Stanley,通稱大摩)分析師Joseph Moore也補充,Google對KV快取效率的提升,對整體記憶體需求的直接影響有限,因為這些數據主要儲存在高頻寬記憶體(HBM)中,而該組件的容量並不會因此改變。
儘管有這些分析,市場短期反應仍顯悲觀。美光「26日」終場續挫6.97%,收355.46美元,創下「1月5日」以來收盤新低。Sandisk同步慘跌11.02%,收603.17美元,創「3月9日」以來收盤新低,顯示市場仍在消化與評估這項新技術的潛在影響。
數據背後的啟示:AI記憶體市場的長期展望
綜合各方數據與專家分析,儘管Google TurboQuant技術短期內引發記憶體股市場的波動,但從長遠來看,這類提升效率的技術更可能成為AI產業擴張的催化劑。隨著AI模型訓練與推論成本的降低,AI應用將更加普及,進而刺激對更高性能、更大容量記憶體的整體需求。因此,記憶體產業的發展重心,將持續聚焦於技術創新與成本效益的平衡,以應對AI時代持續演進的挑戰與龐大商機。

