先進AI晶片發展趨勢 智慧應用 影音
Microchip
Event

先進AI晶片發展趨勢

  • 陳婉潔DIGITIMES企劃

人工智慧(AI)技術的快速發展,為各行各業帶來了革命性的變革。AI晶片作為實現AI應用的核心硬體,在市場需求的驅動下,也迎來了前所未有的發展機遇,而隨著AI應用場景的不斷拓展,對AI晶片的性能和能效提出了越來越高的要求,也為晶片設計和製造帶來了新的機遇與挑戰。根據市場研究機構預測,到2027年,全球AI晶片市場規模將達到1,200億美元,顯示出AI晶片在未來幾年將維持高速成長的趨勢。

AI晶片的關鍵技術與發展

1.    AI模型的演進推動晶片效能提升

近年來,AI技術的快速發展很大程度上得益於大型AI模型的突破,尤其是自然語言處理領域的大型語言模型(Large Language Model;LLM),如OpenAI的GPT系列模型。這些大型語言模型動輒擁有數百億乃至上兆的參數量,其訓練和推理都需要龐大的運算資源。以即將推出的GPT-4為例,其參數量預計將達到1.76兆,訓練所需的算力高達10^10^的Petaflops級別,比現有的GPT-3高出數個數量級。為了應對這些大型AI模型的運算挑戰,GPU、ASIC等AI加速晶片必須在運算效能、記憶體頻寬、功耗效率等方面實現突破性的提升。

2.    邏輯晶片的發展

在AI晶片領域,GPU和ASIC是目前最主要的兩類邏輯晶片。GPU憑藉其高度平行化的架構和豐富的軟體生態,已經成為AI訓練和推論的標準硬體平台。NVIDIA憑藉在GPU領域的領先優勢,在AI晶片市場佔據了80%以上的份額。但隨著AI應用的專用化趨勢日益明顯,為特定AI任務定製的ASIC晶片開始受到青睞。相比於通用GPU,ASIC能夠提供更高的運算效能和能效,但缺點是設計成本高、靈活性差。未來,GPU和ASIC將在AI晶片市場形成分工與互補。值得關注的是,先進製程技術的演進,如2奈米、3奈米製程的導入,將為邏輯晶片的性能和能效帶來新的突破。

3.    記憶體晶片的發展

記憶體存取頻寬和容量是制約AI系統效能提升的關鍵瓶頸之一。當前主流的DRAM技術已經難以滿足未來大型AI模型的記憶體需求。為了突破這一瓶頸,高頻寬記憶體(HBM)、GDDR等新型記憶體技術已經廣泛在AI晶片中得到應用。而與傳統DDR記憶體相比,HBM採用2.5D晶片堆疊技術,可提供高達900GB/s以上的頻寬,且功耗更低,在其絕對性能優勢下,目前幾乎所有的HBM產能都已經被搶光。未來,隨著製程的進一步微縮,HBM的容量和速度有望進一步提升。此外,基於新型非揮發性記憶體(如MRAM、ReRAM)的AI晶片也是一個值得關注的方向,其有望實現更高的記憶體密度和更低的靜態功耗。

4.    先進封裝技術促進異質整合

除了晶片本身的創新,先進封裝技術的發展也為AI晶片的設計帶來了新的機遇。2.5D/3D封裝技術能夠將多個異構晶片(如邏輯晶片、記憶體晶片、光學晶片)整合在同一個封裝中,大幅提升晶片間的互連頻寬,突破了單一晶片的設計限制。例如,AMD最新推出的MI300系列AI加速卡,採用了創新的2.5D晶片堆疊設計,將GPU晶片與高頻寬HBM記憶體整合在一起,顯著提升了整體效能。未來,多晶片模組化設計有望成為AI晶片的主流趨勢,以應對日益複雜的AI應用場景。

半導體大廠與科技巨頭的AI晶片競賽

1.    NVIDIA、AMD、Intel的高階AI晶片

在AI晶片市場,NVIDIA、AMD、Intel三大廠商正展開激烈的競爭。NVIDIA憑藉在GPU領域的領先優勢,以及豐富的CUDA軟體生態,在AI訓練和推論市場佔據了絕對的主導地位。NVIDIA目前主打的H100 GPU,擁有800億個晶體管,可提供高達1000 TFLOPS的FP16運算效能,而不久前才公布的B100/B200及基於該架構的伺服器,不僅在運算性能與功耗均衡性都有極大突破,其推論速度號稱較H100快了30倍,同時降低25倍的TCO與能耗。

AMD作為NVIDIA的最大競爭對手,近年來在AI晶片領域發力,推出了CDNA架構的Instinct系列加速卡。其最新的MI300加速卡,整合了GPU和HBM記憶體,單精度浮點運算效能高達383 TFLOPS,作為NVIDIA的替代方案仍有一定市場。Intel在AI晶片領域的佈局相對較晚,但其在GPU、FPGA、Habana AI加速器等多個賽道同時發力,其最新的Gaudi 3晶片在理論性能上已經追上NVIDIA,但在應用生態上仍有所不足。

2.    雲端平台大廠推出自研AI晶片

除了傳統的半導體大廠,雲端平台大廠也紛紛進軍AI晶片領域。為了降低對NVIDIA等廠商的依賴,提升自身在AI市場的競爭力,亞馬遜、Google、微軟等雲端平台大廠紛紛推出了自研的AI晶片。

•    亞馬遜發布了基於Arm架構的Graviton系列通用CPU,以及針對AI訓練的Trainium系列加速器。最新發布的Trainium2加速器,採用5奈米製程,運算效能是前代產品的3倍,能效則提高了2倍。

•    Google則是圍繞其TPU(Tensor Processing Unit)系列晶片展開AI布局。TPU是專為Google TensorFlow軟體架構優化的ASIC晶片,可提供高達每秒420兆次的運算效能。最新發布的第五代TPU,採用9奈米製程,單晶片可提供高達4 PFLOPS的運算效能。

3.    AI新創公司的專用晶片研發

除了既有的產業大廠,一批AI晶片新創公司也正在崛起,它們專注於針對特定AI應用開發專用晶片。例如,Cerebras Systems開發了號稱「全球最大的AI晶片」的晶圓級處理器(Wafer Scale Engine),其最新一代產品WSE-2擁有2.6兆個電晶體,專為大規模AI模型訓練而優化。Groq、Graphcore、Mythic等新創公司也都推出了獨特的AI加速器架構,試圖在AI晶片市場分一杯羹。

AI晶片生態系統與供應鏈變革

眾所周知,AI晶片的發展離不開完整的產業生態系統與供應鏈支援。

在晶片製造環節,台積電憑藉先進製程技術的領先優勢,成為AI晶片產業鏈中無可替代的關鍵角色。而IP供應商與設計服務公司的崛起,則為AI晶片設計提供了標準化的IP模組與專業化的設計服務,有助於加速AI晶片的開發進程。此外,開源硬體與RISC-V架構的興起,也為AI晶片帶來了新的發展機遇,有望進一步降低設計門檻,促進生態系統的繁榮。

展望未來,隨著AI技術的持續發展和應用場景的不斷拓展,AI晶片設計與製造必將迎來更大的創新與變革,成為推動整個半導體產業發展的重要引擎。

關鍵字
議題精選-COMPUTEX 2024