近期輝達(NVIDIA)GB200AI伺服器出貨遞延雜音四起,輝達執行長黃仁勳18日接受外媒《連線雜誌》(Wired)專訪時闢謠,高呼「GB200正滿載生產、進展順利」,並大讚最新Blackwell平台伺服器在推理過程中兼顧高效和節能之餘,效能更大增30倍。
黃仁勳並直言,「愈來愈多公司爭相建置AI能量,三個月的時間差可能就會改變遊戲規則。」法人指出,黃仁勳出面闢謠,並對Blackwell平台伺服器「超強效能」信心喊話,有穩定軍心味道,也為鴻海、廣達、緯創、英業達等GB200 AI伺服器代工廠出貨吞定心丸。
鴻海、廣達等首批出貨GB200 AI伺服器的代工廠先前均透露,將於年底前小量出貨,明年第1季放量。如今黃仁勳出面穩軍心,代工廠大量認列GB200 AI伺服器機櫃出貨實質營收貢獻,可望如先前預期推進。
廣達指出,高頻、高算力伺服器產品在驗證過程中,從前段晶片組良率到後段裝機測試等,一定會出現各式各樣問題,供應鏈勢必會一層一層解決,確保量產良率。
輝達Blackwell平台AI晶片正陸續交付,「地表最強AI晶片」GB200伺服器出貨放量在即,市場對出貨進度關注節節升溫。
研調機構集邦科技(TrendForce)17日示警,由於高速互通介面、熱設計功耗(TDP)等關鍵零組件設計規格明顯高於主流,供應鏈需要更多時間調校優化,AI伺服器機櫃放量出貨時程恐遞延至明年第2季甚至第3季,比業界預期晚一季到半年。
黃仁勳受訪透露Blackwell平台AI晶片出貨進展順利,也點出其超強效能。黃仁勳表示,過去通常需花費數月處理訓練模型所需數據,接著再訓練模型,透過Blackwell可提升訓練模型效率,將時間壓縮至原先三分之一到四分之一,假如原先需要六個月,現在僅需耗時一個半月左右。
談及Blackwell推理能力,黃仁勳指出,推理過程遵循的不是零樣本學習或單樣本學習,而是長期思考模式,本質上是AI先在腦海中構思各種不同解法,再用更多算力,提供更適當的答案,稱之為測試階段標準化(test time scaling)或推理階段標準化(inference time scaling),Blackwell伺服器在推理過程中兼顧高效和節能。
<摘錄經濟>