一旦Open AI建立完整的生態系,就可以主導整個商機,影響力越大的品牌與解決方案,將會成為市場上的領導者。微軟(Microsoft)刻意造成「生成式AI等於Open AI」印象,加上Office 365的優勢條件,微軟可能是很大的受益者。
由於需要強大的數據運算能力,在資料中心晶片市佔遙遙領先的NVIDIA成為最大的獲利者,台積電也因為是代工夥伴而受惠。現在NVIDIA跟英特爾(Intel)叫板,甚至暢言「CPU時代已經結束」!
導入AI不外乎是為了使用者忠誠度、提高效率,提升競爭力等。估計Open AI的市場規模,將從2023年的2億美元,增加到2024年的10億美元。
遊戲開發商可以利用各種AI工具加速產品的開發,並以各種內容的整合開發出新的商機與市場區隔。市場剛剛起飛,但速度也可能像ChatGPT一樣迅雷不及掩耳!
相較於現在的檢索模式,對話式檢索機制成本必然會增加,光是學習自然語言的運算機制,各種伺服器、資料中心的投資就以1,000億美元的規模來計算。
Open AI需要導入1萬顆以上的NVIDIA A100繪圖晶片,相關資本支出與背後的維護都非常驚人。另據Semi Analysis估計,Google自主開發的Google TPU v4,資本支出高達200億美元,這大約是Alphabet 2022全年資本支出的64%。
可以預期「超巨量型資料中心」(Hyperscale Data Center)將是軍火競賽的一環,起步較早的微軟與AWS都是領先者。但無論是內部或外部的連結,都是資料中心管理者很大的挑戰。
我們同時可以見到傳輸速度不斷的提升,到2025年時,使用800G數據傳輸速度的Switch將高達2,500萬個,這與2022年還是主流的100G相比,已經不可以道里計!
整體而言,資料中心的演化,從最早的儲存資料進化到演算,現在則是分散處理,藉以取得最佳化的成果。為了有效管理這樣的需求,除了過去倚重的CPU之外,現在資料中心更關注DPU(Data Processing Unit)的進展。
這些可以有效管理儲存數據的微處理器,將是下一波需求的主流。相較於過去專注在特定功能的微處理器,DPU更重視整合性的功能。簡單來說,CPU用於一般的運算功能,GPU是加速運算功能,而DPU是專注資料處理功能。
「Scaling AI Compute」是從資料中心的運算,延伸到網通過程,以及邊緣端的多元AI運算機制。基於提高運算效能、降低功耗等多方面的考慮,大家把希望寄託在晶圓製造與EDA工具的進化。
如何以ASIC半導體晶片為基礎,生產出可以符合差異化需求的硬體設備,也都是製造廠非常大的考驗。