Musk急叩黃仁勳加價插隊 GB200急單360台1月底交貨 智慧應用 影音
Microchip
世平

Musk急叩黃仁勳加價插隊 GB200急單360台1月底交貨

  • 陳玉娟新竹

Elon Musk旗下xAI計劃以10萬顆GPU建構全球最大AI訓練叢集,訓練Grok 2 AI模型。法新社
Elon Musk旗下xAI計劃以10萬顆GPU建構全球最大AI訓練叢集,訓練Grok 2 AI模型。法新社

Elon Musk旗下的AI新創公司「xAI」對於AI需求殷切,近日傳出直接找上黃仁勳加價插隊,急單規模達10.8億美元,全交付鴻海代工。

NVIDIA執行長黃仁勳公開多次強調,新一代Blackwell AI晶片的設計瑕疵在台積電協助下,生產已獲得解決,來自微軟(Microsoft)、Meta等客戶的需求強烈。

他於最近一次法說會還表示,「每個人都希望擁有最多,也希望成為第一。」鴻海更直言GB200於 11月量產、12月出貨。

但近日市場又再傳出下游零組件測試良率不佳,致使GB200量產再度延後至2025年3月,同時微軟也動手砍單,部分延至下半年轉採GB300。對此,供應鏈則表示,微軟只是調整訂單比重。

針對Blackwell因設計問題延後量產,黃仁勳多次公開承諾Blackwell於11月開始量產出貨,且需求十分強勁,Blackwell GPU未來12個月的產能已被預訂一空,現在才下單,恐要等到2025年底才能拿到貨。

台積電董事長魏哲家也信心高喊:「AI is Real」,2024年下半持續觀察到客戶極其強勁的AI相關需求,進而提升先進製程產能利用率。

GB200超級晶片由2顆Blackwell架構B200 GPU和1顆Arm架構的Grace CPU所組成,3月GTC時,原先供應鏈即預期2024年第4季開始量產出貨,不過8月卻傳出Blackwell有設計缺陷,甚至可能是台積電CoWoS-L良率低落,致使放量進度將延至第1季。

市場更盛傳NVIDIA、台積電為此鬧得不愉快。然在黃仁勳後來親自回應Blackwell有設計瑕疵,且百分之百是NVIDIA的錯,同時也強調在台積電的協助下,問題已經解決,Blackwell於11月開始量產,2025年首季開始放量。

儘管黃仁勳掛保證,近日市場卻又傳出GB200因下游零組件測試良率不佳,放量時程再度延後至2025年3月,且也使得大客戶微軟砍單。

對此,供應鏈則表示,首先微軟並未砍單,只是調整B200與B300的採購比重,據了解,微軟2025、2026年的GB200/GB300伺服器機櫃訂單量合計約1.6萬台;B300先前為B200 Ultra,GB200 Ultra也改為GB300,價格進一步提升,預計2025年第3季出貨。

值得注意的是,Tesla執行長Elon Musk對於AI佈建也相當積極,先前也釋出建構全球最大GPU叢集的願景。

Musk指出,與甲骨文 (Oracle)分道揚鑣後,旗下xAI計劃以10萬顆GPU建構全球最大AI訓練叢集,未來目標將使用30萬顆B200 GPU,而在此之前,甲骨文已提供xAI總計2.4萬顆Hopper GPU,訓練Grok 2 AI模型。

近日則是傳出Musk說到做到,已向NVIDIA下單1,600台GB200 NVL72伺服器機櫃,更直接找上黃仁勳加價插隊,要求1月底先交貨360台。

GB200 NVL72機櫃是由36顆Grace CPU及72顆B200 GPU組成,以每台整機成本最低300萬美元估算,急單規模達10.8億美元,包括之後訂單全交付鴻海代工。

據了解,此急單也是插隊,排在微軟、Meta之前交貨,因此誤傳為NVIDIA的大客戶出貨排程有所變化。

鴻海日前就指出,AI伺服器方面需求強勁,鴻海為NVIDIA的重要供應商,預計需求將逐季成長,鴻海也擴大產能以滿足「非常瘋狂」的需求。

以此估算,其AI伺服器於2025年佔整體伺服器營收約5成,目標在全球AI伺服器市場佔據4成版圖。

責任編輯:陳奭璁