有著“HBM(高帶寬記憶體)之父”之稱的韓國教授認為,AI(人工智慧)計算主導權正在從GPU轉向記憶體。
近日,據韓媒報導,被稱為“HBM之父”的韓國科學技術院電氣與電子工程學院教授金正浩表示,AI晶片格局即將發生根本性變化,當前由英偉達主導、以GPU為核心的體系,最終轉變為受記憶體主導的架構。
隨著AI從生成式模型邁向Agentic AI(智能體)時代,記憶體正成為關鍵的發展制約因素。金正浩指出,這一轉變可被概括為“上下文工程(context engineering)”的興起,AI需要同時處理海量文檔、視頻及多模態數據。
金正浩表示,為支撐這一趨勢,記憶體帶寬與容量需實現最高達1000倍的提升,方能保障系統的速度與準確性。當輸入規模擴大100至1000倍時,記憶體需求可能呈指數級增長,最高甚至達到百萬倍。
在此背景下,金正浩指出,當前通過堆疊DRAM(動態隨機記憶體)以實現超高帶寬的HBM產品,或難以滿足智能體時代的需求。作為下一代路徑,他重點看好HBF(High Bandwidth Flash,高帶寬閃存)技術。作為一種新型存儲技術,HBF方案通過堆疊NAND閃存來替代DRAM,構建類似“巨型書架”的長期存儲體系,從而在容量上實現數量級躍升。
金正浩進一步表示,AI產業的權力格局或將因此發生轉移,由GPU向記憶體傾斜。儘管現階段計算架構仍以GPU和CPU為核心,但未來的系統將圍繞超大容量記憶體(如HBM與HBF)構建,處理器則更像是嵌入其中的組件。
這一構想在產業界已有初步體現。今年2月,SK海力士在提交至電氣與電子工程師學會(IEEE)的論文中提出了“H3架構”,混合配置HBM高帶寬記憶體與HBF高帶寬閃存,論文表示,HBF與HBM 相比,帶寬相當、容量更大、訪問延遲更長、寫入耐久更差、功耗更高,因此H3將HBF作為HBM的“二級擴展”,HBF存儲只讀數據、HBM則負責其餘數據。
金正浩認為,HBF工程樣品預計將在2027年前後問世,穀歌、英偉達或AMD等廠商最快可能於2028年開始採用該技術。此外,圍繞HBF的競賽或將重演HBM時代的格局,三星電子與SK海力士有望再度正面交鋒。
來源:中國澎湃新聞