聯發科梁伯嵩:AI模型訓練運算需求 成長速度超越摩爾定律 智慧應用 影音
DFORUM
DForum0522

聯發科梁伯嵩:AI模型訓練運算需求 成長速度超越摩爾定律

  • 劉憲杰台北

聯發科梁伯嵩指出AI模型訓練運算需求,成長速度已超越摩爾定律。符世旻攝
聯發科梁伯嵩指出AI模型訓練運算需求,成長速度已超越摩爾定律。符世旻攝

聯發科前瞻技術平台資深處長梁伯嵩博士在AI Expo 2023首日論壇上,針對AI與半導體在未來的共同發展提出看法。

梁伯嵩強調,AI模型訓練所帶來的運算需求,將會是未來帶動晶片成長的關鍵,其成長速度更已經超越摩爾定律。然而,目前台灣在大型AI模型的發展上,普遍還是選擇整合資料後,傳送給海外的AI模型訓練,這除了會有資料庫不可信的問題,也對台灣累積自身在AI領域的知識及IP非常不利,更有可能限制台灣在AI應用上的發展機會。

梁伯嵩指出,大型AI模型訓練已經是先進國家高度關注的重點趨勢,如美國、中國、歐洲、日本、南韓都為此投入相當的資本,來建置百億億級超級電腦,為的就是在本地也建立自己的模型,累積AI相關資本及技術能力。

不過,台灣至今都還沒有任何一個百億億級的超級電腦建置計畫,梁伯嵩表示,這點令人擔憂,對於不少台灣的半導體和ICT產業來說,AI技術都是決定其未來競爭力的關鍵,在IC設計產業更是如此,這也是為何台灣無論如何都應該要有本地的大型AI模型訓練計畫。

梁伯嵩認為,面對大型AI模型的潮流,台灣應該針對公開資料和具備隱私性的非公開資料,採取不同的做法和態度,在公開資料方面,台灣可以儘可能參與國際生態體系,並和微軟(Microsoft)、Google、NVIDIA等大廠合作,但針對一些政府、企業的核心內部資料,影響到關鍵技術、專利,甚至國安相關資料,應該自主訓練大型AI神經網路來因應。

除了防止資料外流,用自主訓練的模型將能夠進一步提高運算效率和正確性,避免被國際大資料庫內部的偏誤影響,模型的結構也更能符合台灣公、私部門的實際需求。

梁伯嵩表示,超級電腦算力過去大約每10年就會增加100倍,但因為晶片技術及結構升級,提升百倍算力的代價,在成本上僅增加5倍,功耗則增加2.6倍,相較於算力的提升算是非常划算。不過,考量到大型AI模型訓練的演算需求真的太過龐大,短時間內應該還是會在可接受的範圍內,維持或縮減部分AI功能,以降低整體運算成本,推動生成式AI的普及化和大眾化,中長期則得仰賴晶片技術的提升,並建置更多超級電腦來完成模型訓練。

熟悉台灣IC設計業界人士指出,過去台灣業者並未在大型運算晶片領域有太多著墨,甚或近期各家業者都強調,初步將會以邊緣運算晶片為主,但其實領先大廠包括聯發科、聯詠、瑞昱等業者,都在擴大自身的AI晶片技術及產品線,就算無法達到美系大廠的等級,但未來有可能逐步推出運算能力較強的ASIC產品,來尋求其他發展機會。


責任編輯:張興民


議題精選-AI Expo 2023報導集錦