ChatGPT與NVIDIA齊推動!AI生態火熱成供應鏈運轉動力 智慧應用 影音
DFORUM
ST Microsite

ChatGPT與NVIDIA齊推動!AI生態火熱成供應鏈運轉動力

  • 陳婉潔DIGITIMES企劃

AI產業正處於蓬勃發展階段,尤其是以大語言模型為代表的生成式AI技術引起了廣泛關注。ChatGPT作為大語言模型的代表,其應用不僅可以應用於自然語言生成、語音識別等方面,還可以應用於供應鏈管理、產品設計等方面。因此,各大企業紛紛投入大量資源,研發自己的大語言模型,以推進AI技術的發展。這些應用背後,需要大量的晶片運算能量來支持,因此,相關的硬體技術也在逐步成熟。

OpenAI的ChatGPT引發了自然語言生成的熱潮,包含Google、Meta等各家封閉或開放的大型語言模型也紛紛出現,這些模型背後都依靠大量運算資源支撐。ChatGPT只是冰山一角,更多AI應用正在發展,它們同樣需要強大的運算能力才有辦法發展。

OpenAI的ChatGPT與NVIDIA可以說是2023年半導體供應鏈回溫的關鍵。NVIDIA

OpenAI的ChatGPT與NVIDIA可以說是2023年半導體供應鏈回溫的關鍵。NVIDIA

也因此,在需求的推動之下,AI資料中心所需要的大量基於FPGA的高速交換設備、資料中心內部需要的記憶體、處理器以及儲存空間所帶來的需求,為從原料、零組件、組裝代工廠、品牌廠、軟體服務廠等各式企業,到最終使用者享受到的AI服務,這些生態所組成的上、中、下游網路、相關的晶片供應鏈在景氣的谷底帶來回春的希望。

AI運算主角們

AI發展需要什麼樣的晶片?從模型訓練到推論,不同階段需要不同產品架構的幫助。現在最熱門的主要是資料中心這一段,但是在個人AIGC工具蓬勃發展之下,筆者也相信,終端的AI解決方案也同樣會發展起來。

先回到資料中心的部分,目前NVIDIA旗下主力A100、H100和針對中國市場的特製降規版A800、H800可以說是目前AI演算力的核心動力,以演算力佔比來看,NVIDIA佔了超過8成以上,在這場AI大賽中,NVIDIA無疑是最大的贏家,畢竟其研發超過十幾年的CUDA軟體環境仍是目前支援最完整的AI加速平台,Google、Amazon和微軟都採購了大量NVIDIA晶片來訓練模型,並且提供推論服務,藉此加速AI發展,即便 Google有自行發展的Tensor晶片,Amazon也同樣提供自行研發的Trainium晶片,成為可供客戶選擇雲端使用的運算能力來源之一,但這些只是作為補充方案,避免NVIDIA供貨不足的備援,而非主力。

AMD緊追其後,提出高階MI300與NVIDIA競爭,既有的MI200系列亦有一定比例的佔有率,但整體而言,其AI加速設備佔比有限,不過資料中心處理器在新的EPYC方案推出之後頗有斬獲。英特爾也有提供訓練與推論全套解決方案,但除處理器外並沒有太多獲得採用。

AMD和英特爾的AI加速方案多半都只是用作填補NVIDIA的高價和供應短缺帶來的市場空白,並非AI服務業者的首選,且因為軟體與生態不足,所以市占仍有限。AMD最新的MI300加速晶片,號稱可以提供較NVIDIA的H100更高的訓練效能,不過因為才剛推出目前市場接受度還不高,但是AMD的資料中心處理器在性能與成本上的綜合優勢吸引了一線雲端服務大廠的採用。英特爾則是提供了一整套包括訓練加速器,以及Xeon處理器方案,同時涵蓋雲端與終端,但因為雲端處理器的推出時程一再推遲,有不少客戶轉而使用AMD的處理器方案。

哪些供應鏈業者會受益?

構建AI資料中心不僅需要運算晶片,還需其他半導體元件,也就是供應鏈上的各個環節都會牽連到。

舉例來說,AI晶片的出貨動能主要來自NVIDIA,而NVIDIA的代工夥伴為台積電,其最新的H100與H800 AI加速器上面使用的記憶體為SK Hynix所提供的HBM3記憶體,三星與美光2023年稍晚也會開始供應HBM3記憶體產品。

然而雲端服務業者所建立的AI伺服器當然不會只有一大堆H100裸卡而已,而是必須組裝成伺服器,然後透過基於FPGA的高速網路互連,為了滿足AI訓練與推論工作的龐大運算需求,伺服器還必須要配備大量的處理器與記憶體及儲存空間。這也代表,因為PC市場衰退面臨業績急凍的處理器、記憶體與儲存設備業者,在資料中心業績方面可望迎來成長。

調研機構集邦科技就預估,在聊天機器人相關應用的成長加持下,2023年全球AI伺服器出貨量年成長達到8%,高於總體伺服器出貨量的1.31%。而到2026年的3年複合成長率,也將達到10.8%。

同時,我們也可以看到記憶體價格已經開始止跌回穩,伺服器業者,如緯創、緯穎第1季也都繳出好成績,台積電在景氣低迷的第1季業績仍有微幅成長,主要也是來自AI應用資料中心需求成長的貢獻。

AIGC也有機會帶動商務PC需求成長

AI不僅在雲端發展,終端也有龐大需求,特別是圖像AI工具,如Stable Diffusion,儘管許多人將其用於產生美女圖片,但在各種商業應用,如室內設計、廣告圖片生成和服裝虛擬代言人物等方面也將產生巨大商機,這些需求雖用不上H100之類的專業AI加速器,但需要大容量VRAM的娛樂顯示卡進行運算加速,畢竟使用配備大容量VRAM的顯示卡來算圖只需要幾秒鐘,如果純粹使用CPU運算,可能就需要花費數十倍以上的時間。因此,未來這些需求可能為娛樂顯示卡開拓新的出路,同時也提高相關記憶體企業的出貨量。

而隨著Google IO在各類AI技術的發表,我們也可以看到未來基於小模型的終端AI將是兵家必爭之地,這些都將產生新類型的應用與設備需求,帶動供應鏈的成長。

綜上,AI生態蓬勃發展,不僅驅動專業AI晶片的需求,也帶動相關半導體供應鏈加速運轉。AI才剛起步,供應鏈還有大有可為。

議題精選-COMPUTEX 2023