Google研究團隊24日發表最新AI壓縮演算法「TurboQuant」,宣稱能將大型語言模型的記憶體需求降低6倍,並將推論速度提升8倍。市場一度擔憂記憶體需求將因「效率提升」而大幅萎縮,導致三星、SK海力士及美光等指標股出現劇烈波動,且影響一路向亞洲股市擴散。然而,產業界與研調機構隨即提出反向觀點,指出這場技術變革並非記憶體產業的終點,反而可能觸發經濟學著名的「傑文斯悖論」(Jevons Paradox)。
記憶體大怒神2/經濟學傑文斯悖論 吹記憶體反攻號角
- 記者|鏡週刊
傑文斯悖論最早由英國經濟學家威廉·斯坦利·傑文斯(William Stanley Jevons)在1865年的著作《煤炭問題》(The Coal Question)中提出,意思是當技術進步提高了資源的使用效率時,該資源的總消耗量反而會增加,而不是減少。
若帶入AI情境,意味著當AI運算成本因演算法優化而斷崖式下跌,原本昂貴、受限的AI應用將迎來爆炸性增長。去年1月中國的低成本開源模型DeepSeek橫空出世,也曾一度引發市場擔憂雲端商對AI晶片的投資過多、效率過低,導致美股斯達克綜合指數(Nasdaq)單日蒸發超過 1兆美元,輝達(Nvidia)市值單日暴跌約5,890億美元。然而,後續證實更高效的模型大幅增加了AI需求。
TrendForce(集邦)針對TurboQuant發布的最新報告便指出,推理成本驟降反而會激發長文與多代理系統的龐大需求,加速人工智慧向邊緣端落地。並且,TurboQuant技術從改變資料表徵切入,未來有望成為晶片加速的標配。TrendForce指出,記憶體快取壓力緩解,將極大化既有資源效益,不僅未減弱高頻寬記憶體(HBM)需求,更全面推升動態隨機存取記憶體(DRAM)與快閃記憶體(Flash)做為運算延伸層的容量升級。
摩根史丹利半導體產業首席分析師Joseph Moore更重申對美光(Micron)和晟碟(SanDisk)的「加碼」評級,並指出TurboQuant「減少6倍記憶體使用量」其實是指 「KV 快取(Key-Value Cache)」 的記憶體占用,而非AI系統的總記憶體需求。KV快取主要影響推理時的上下文長度,但並不改變模型權重(Model Weights)本身對HBM的龐大需求。
業界專家進一步分析,當單一模型的記憶體占用量降低,開發者並不會因此滿足,而是會傾向在同一硬體配置下運行更複雜、更龐大的模型,或是啟動多智能體(Multi-Agent)協作系統。換言之,節省下來的記憶體空間會立即被新的應用填滿。這種「供給創造需求」的模式,正是記憶體產業長期成長的動力來源。
相關文章