隨著人工智慧(AI)技術快速發展,無論是訓練 ChatGPT 等大型語言模型(Large Language Models, LLM),或是進行高效能推論運算,系統除了需要 GPU 提供強大的平行運算能力外,記憶體的資料存取效能同樣成為關鍵瓶頸。其中,高頻寬記憶體(HBM)已成為 AI 顯示卡與 AI 加速器不可或缺的核心元件,負責即時儲存並供應大量運算資料。全球 AI 晶片龍頭輝達(NVIDIA)的高階顯示卡與加速器產品,也全面導入 HBM 架構。
相較於傳統型 DRAM,HBM 的單位成本較高,價格往往高出數倍,且近年來隨著 AI 算力需求快速成長而持續上漲。目前全球 HBM 市場由 SK...
本篇文章限「免費會員」閱讀
加入會員即可解鎖完整專業內容,掌握最新產業趨勢。