近期華爾街傳來一記震撼彈,美國記憶體晶片類股的市值在一週內驟降近千億美元,約新臺幣3.2兆元。這波劇烈震盪的源頭,竟是科技巨擘Google發布的一份研究報告。該報告揭示一項名為「TurboQuant」的全新演算法,聲稱能在大幅壓縮人工智慧模型體積的同時,維持輸出準確度,進而顯著降低AI運算所需的記憶體容量與能源消耗。這項技術的潛力,不僅動搖了投資人對AI硬體需求持續飆升的預期,也讓先前因AI熱潮而備受追捧的記憶體與儲存設備供應商面臨獲利了結的沉重賣壓。
現象觀察:Google AI演算法引爆記憶體股災
首先,我們觀察到這波由Google「TurboQuant」演算法所引發的市場連鎖反應。過去一年,受惠於AI模型對龐大資料中心運算能力的需求,高階記憶體(HBM)持續供不應求,相關供應商如美光科技(Micron)、SanDisk、威騰電子(Western Digital)及希捷科技(Seagate)等,股價表現一度超越輝達(Nvidia)等AI晶片巨頭。然而,Google的最新研究論文一出,瞬間讓市場風雲變色。美光科技作為美國高頻寬記憶體(HBM)的領導供應商,其股價自上週五收盤以來重挫15%,市值蒸發超過700億美元(約新臺幣2.24兆元)。同樣地,快閃記憶體設備製造商SanDisk市值蒸發約150億美元,而威騰電子與希捷科技也各自損失數十億美元的市值,顯示市場對AI硬體需求前景的擔憂。
原因剖析:TurboQuant壓縮技術的顛覆性
其次,深入剖析這場市場震盪的核心原因,正是Google所發布的「TurboQuant」演算法。這項技術的突破在於,它能讓AI模型在不犧牲準確度的前提下,大幅縮減其所需的記憶體容量。這意味著,未來的AI模型將能在記憶體容量需求小得多的硬體上順利運行。對於原本預期AI將持續「鯨吞蠶食」龐大儲存容量的投資人而言,這無疑是一個出乎意料的轉變。過去,運行Google Gemini或OpenAI ChatGPT等大型AI平台,都需裝置大量高頻寬記憶體晶片。如果透過軟體優化,能以更少的硬體資源達成相同甚至更佳的效能,那麼記憶體的需求增長曲線勢必會重新評估。
總部位於加州的資產管理公司Informed Momentum投資長普倫提斯(Travis Prentice)表示:「這些股票之前已經歷驚人的漲幅,因此任何邊際新聞,都可能引發股價回檔,都是非常理性的反應。記憶體類股的漲勢,看起來還沒結束,但市場期望已經極高,所以在當前動盪的市場環境中,投資人獲利了結是合理的舉動。」
影響評估:短期震盪與長期策略轉變
再者,對於這項新技術的影響,業界分析師抱持著不同的看法。摩根士丹利(Morgan Stanley,簡稱大摩)分析師透過報告指出,像TurboQuant這類的效率提升技術,確實能減少運行AI模型所需的基礎設施。他們認為,「如果模型能在大幅降低記憶體需求的情況下運行,且不流失效能,那麼提供每次查詢服務的成本將顯著下降,進而帶來更具利潤的AI商業部署。」這可能導致AI應用從大型雲端叢集向本地端硬體部署的轉移,有效降低大規模部署AI的門檻。然而,大摩也補充說明,這項技術對記憶體與運算產業的影響屬於「短期」,因為AI運行成本的降低,長期來看反而會刺激並增加整體AI應用需求。
這也解釋了為何在華爾街廣泛的拋售潮中,投資人選擇獲利了結。近期市場除了Google演算法的影響,亦受中東局勢等宏觀因素攪動,使得投資人對風險資產的態度更趨謹慎。例如,日本索尼(Sony)上週已宣布調漲PlayStation 5 (PS5)售價20%,部分原因即是受記憶體零件成本飆升所致,這也側面印證了AI發展所帶來的「擠壓效應」,已影響到電子產品供應鏈的其他環節。
趨勢預測:AI成本效益化與新一波需求浪潮
最後,展望未來,Google TurboQuant這類技術的出現,預示著人工智慧產業正朝向「成本效益化」的方向邁進。雖然短期內可能對記憶體供應商造成壓力,但長期而言,更低的運算與記憶體成本,將有助於加速AI技術的普及與應用。當AI模型的部署門檻降低,將能觸及更廣泛的企業與個人用戶,進而催生出新一波的AI應用需求。這種需求不僅可能在數量上彌補單一模型記憶體需求的下降,甚至可能因為應用場景的擴大而帶來更為龐大的總體需求。因此,對於記憶體產業而言,這或許不是終結,而是一個轉型與重新定義價值的契機,促使廠商專注於更高附加價值、更高效能的記憶體解決方案。

