施耐德
DTF0810

人工智慧晶片競技場

  • 林育中
Google的TPU最偏向效能、特化;Intel的CPU+FPGA偏彈性、通用,而NVIDIA的GP2U介於中間但是往通用之途多邁了一步。(source: NVIDIA、Google & Intel)

由於人工智慧在實際世界應用的逐漸崛起,企圖以晶片線路的特化來加速演算法的學習(learning)和推論(inference)變成人工智慧發展的主要方向之一。

人工智慧晶片現在浮在檯面上的主要有三個例子:NVIDIA的GPU、Intel的CPU+FPGA和Google的TPU(Tensor Processing Unit)。批評者說GPU適用於人工智慧只是歷史的巧合-GPU中的平行處理(parallel processing)、多核心(multi-core)以及可程式化的流水線 (Programmable pipeline) 處理人工智慧中特定的問題極有效率。在2009年Google Brain的計畫中吳恩達發現GPU可以加速深度學習100倍。

不管這是不是真的巧合,NVIDIA利用了它產品適用於現階段人工智慧應用的機會,讓其新產品GP2U(General-Purpose computing Graphics Processing Unit)更趨向人工智慧的應用;也利用先入者的機遇,在晶片市場領先,並且取得用戶需求的回饋。

Intel的CPU常年領先自不待說,但是對於人工智慧應用,CPU的常規架構負擔太重,執行人工智慧特殊工作也不夠有效率,因此加入FPGA、甚至GPU以多晶片封裝的方式增加系統能力的彈性,對人工智慧工作者是自開ASIC晶片外的另一種選擇。

Google第一代的TPU因AlphaGo已聲動天下,它的核心功能區塊就只是矩陣的運算,因此減省輕快。其主要的優勢在於推論的速度,所以在與頂尖圍棋手對奕時能如此的羽扇綸巾。第二代的Google Cloud TPU則以加速學習為主要目的,彌補第一代的不足。

這三個常被拿來比較的人工智慧晶片其實就只在效能與彈性之間錯落。如果將之擺放在一維的光譜上,Google的TPU在光譜最偏向效能、特化的那一端;Intel的CPU+FPGA在光譜偏彈性、通用的另一端,而NVIDIA的GP2U座落於中間但是往通用之途多邁了一步。

僅僅三個典型的例子卻顯示出這麼豐富的樣態,說明人工智慧晶片尚在初發的階段,所以科技部的「前瞻晶片系統及半導體設計」中關於人工智慧晶片的部份是有機會嶄露頭角的。

人工智慧晶片競爭的主軸是什麼?我認為有兩個:一個是演算法,另一個是市場定位。以第一代的TPU為例,其特化的計算能力是矩陣的運算,這是神經網路學派中深度學習的重要計算工具,也是有些其它人工智慧演算法學派中重要的計算工具之一。但有些其它學派還需要另外的計算工具,而且演算法還在快速的進步之中。特殊化計算法的選取與設計是人工智慧晶片設計的最重要工作。

人工智慧的應用現在被說成似乎無所不在、無所不能,但是距離普適性(universal)的人工智慧還早得很呢!看單只是下圍棋這樣規則明確、價值清楚的遊戲,Google都要花兩代的晶片來完善。這個階段能做得好的,就只是在一特定領域的應用。這樣的應用領域多如繁星,因此市場定位重要。挑對了領域,發展、應用極致化的演算法,將之實施於線路,這就是我們的容身之處。黑洞公司雖大,宇宙總不能給他們占全了!

現為DIGITIMES顧問,1988年獲物理學博士學位,任教於中央大學,後轉往科技產業發展。曾任茂德科技董事及副總、普天茂德科技總經理、康帝科技總經理等職位。曾於 Taiwan Semicon 任諮詢委員,主持黃光論壇。2001~2002 獲選為台灣半導體產業協會監事、監事長。現在於台大物理系訪問研究,主要研究領域為自旋電子學相關物質及機制的基礎研究。