AWS推出3款由自行研發晶片支援的新Amazon EC2執行個體 智慧應用 影音
EVmember
member

AWS推出3款由自行研發晶片支援的新Amazon EC2執行個體

  • 黎思慧台北

AWS於12月1日re:Invent年度盛會上宣布,推出3款由自行研發晶片支援的新Amazon Elastic Compute Cloud(Amazon EC2)執行個體,説明客戶借重Amazon EC2的運作顯著地改善工作負載的效能、成本和能源效率。

新C7g執行個體由Amazon Graviton3處理器支援,和由Amazon Graviton2處理器支援的當前一代C6g執行個體相比,效能提高25%。由Amazon Trainium晶片支援的新Trn1執行個體為在Amazon EC2絕大多數機器學習模型的訓練中提供最佳性價比以及最快的訓練速度。

而全新自行研發Amazon Nitro SSDs(固態驅動器)的新儲存優化型Im4gn/Is4gen/I4i執行個體可為I/O密集型工作負載提供最佳儲存效能。上述這些基於AWS自行研發晶片的新Amazon EC2執行個體的發布,幫助AWS為客戶提供支援著最關鍵的業務應用程式。

AWS Amazon EC2副總裁David Brown表示:「我們對自行研發晶片的持續投入與升級,已經讓客戶在當前一些最關鍵工作負載中獲得巨大的性價比優勢。客戶希望我們在每一代新的EC2執行個體上不斷地有所突破,我們的創新意味著為客戶提供改變遊戲規則、且為AWS獨有的全新執行個體,讓客戶在執行其最重要的工作負載時,獲得比其他任何地方都要更好的性價比。」

C7g執行個體由新的Amazon Graviton3處理器支援,與由Amazon Graviton2處理器支援的當前一代C6g執行個體相比,效能提高達25%

Amazon Graviton2的運算執行個體自2020年推出以來,被眾多客戶如DirecTV、Discovery、Epic Games、Formula 1、Honeycomb.io、Intuit、Lyft、MercardoLibre、NextRoll、Nielsen、SmugMug、Snap、Splunk和Sprinklr等在生產中使用,並已獲得在效能上的顯著提升以及成本的樽節。

基於Graviton2的系列執行個體共有12種,包括通用型、運算優化型、記憶體優化型、儲存優化型、突發效能型和加速運算型等執行個體,讓客戶擁有雲端最深入和最廣泛的運算選擇,兼顧性價比和效能。

隨著客戶於雲端開展出更多運算密集型工作負載如高效能運算(HPC)、遊戲和機器學習推論,相應的運算、儲存、記憶體和網路需求也隨之成長,客戶需要尋求更佳的性價比和效能來執行這些工作負載。

由Amazon Graviton3處理器支援的C7g執行個體,與由Graviton2處理器支援的前一代C6g執行個體相比,可將運算密集型工作負載效能提高達25%。Amazon Graviton3處理器與Graviton2相比,為科學運算、機器學習和媒體編碼工作負載提供高達2倍的浮點運算效能,為加密工作負載速度提升高達2倍,為機器學習工作負載提供高達3倍的效能。

Amazon Graviton3處理器的能源效率也更高,在相同效能下,與同類型EC2執行個體對比,可節省高達60%的能源消耗。C7g執行個體為雲端第一個採用最新DDR5記憶體的執行個體,與基於Amazon Graviton2的執行個體相比,它能提高50%的記憶體頻寬,進而也提升科學運算等記憶體密集型應用的效能。

與基於Amazon Graviton2的執行個體相比,C7g執行個體的網路頻寬也高出20%。C7g 執行個體支援 Elastic Fabric Adapter(EFA),允許應用程式直接與網路介面卡通訊,提供更低且更一致的延遲,提高需要大規模平行處理(如HPC和視訊編碼)的應用程式效能。C7g執行個體現已提供預覽版。

段標:由Amazon Trainium晶片支援的新Trn1執行個體,能為在Amazon EC2絕大多數機器學習模型的訓練中提供最佳性價比和最快的訓練速度

越來越多客戶正在打造、訓練和部署機器學習模型,得以支援能夠重塑其業務和其客戶體驗的應用程式。為了確保提高準確性,這些機器學習模型必須建構於越來越多的訓練資料上,導致其訓練成本越來越高。這可能會限制客戶能夠部署的機器學習模型數量。

AWS為機器學習提供最廣泛和最深入的運算服務選項,包括採用NVIDIA A100 Tensor Core GPU的EC2 P4d執行個體,和採用Habana Labs Gaudi加速器的EC2 DL1執行個體。但是,即使擁有當今最快的加速執行個體,在部署到生產之前,訓練著越來越大的機器學習模型仍非常昂貴和耗時。

由Amazon Trainium晶片支援的Trn1執行個體,為在Amazon EC2中深度學習模型的訓練上提供最佳性價比以及最快的機器學習模型訓練速度;與P4d執行個體相比,透過Trn1執行個體訓練深度學習模型的成本降低達40%。

Trn1執行個體提供800Gbps EFA網路頻寬(比最新基於GPU的EC2執行個體高出兩倍),並與Amazon FSx for Lustre高效能儲存整合,讓客戶得以啟動具有EC2 UltraClusters功能的Trn1執行個體。

透過EC2 UltraClusters,開發人員可以將機器學習訓練擴展到超過上萬個與PB級網路互連的Trainium加速器,讓客戶能夠按照需求存取超級運算等級的效能,即便是最大型和最複雜的模型,訓練時間也可從幾個月縮短到幾天。Trn1執行個體現已提供預覽版。

段標:採用全新Amazon Nitro SSDs的Im4gn/Is4gen/I4i執行個體可為I/O密集型工作負載提供最佳儲存效能

如今,客戶將I3/I3en儲存優化型執行個體用於需要直接存取儲存於本機資料集的應用程式,比如橫向擴展的交易型和關聯式資料庫(如MySOL和PostgreSQL),NoSQL資料庫(如Cassandra、MongoDB、Redis等),大數據(如Hadoop)和資料分析工作負載(如Spark、Hive、Presto等)。

I3/I3en執行個體以低成本提供NVMe SSD支援的執行個體儲存,針對低延遲、高I/O效能和傳輸量進行優化。客戶喜歡I3/I3en執行個體提供的快速交易處理能力,但隨著其工作負載的不斷升級—在更大規模的資料集上處理更複雜的交易,他們需要在不增加成本的情況下獲得更高的運算效能和更快的資料存取速度。

Im4gn/Is4gen/I4i執行個體旨在透過架構,最大化提升I/O密集型工作負載的儲存效能。Im4gn/Is4gen/I4i執行個體透過自行研發的Amazon Nitro SSDs提供高達30TB的NVMe儲存,與上一代I3執行個體相比,I/O延遲降低 60%,延遲可變性則降低 75%,從而最大限度地提升應用程式效能。

Amazon Nitro SSDs透過優化儲存堆疊、虛擬化管理程式和硬體與Amazon Nitro系統緊密整合。相較於商用SSD,AWS同時管理Amazon Nitro SSDs的硬體和韌體,使SSD更新的交付速度更快,讓客戶可以從改進的功能中獲益。Im4gn執行個體(現已可用)採用Amazon Graviton2處理器,與I3執行個體相比,性價比提高多達40%,每TB儲存成本降低多達44%。

Is4gen執行個體(現已可用)也採用Amazon Graviton2處理器,與I3en執行個體相比,每TB儲存成本降低多達15%,運算效能提高多達48%。I4 i執行個體(即將可用)採用Intel第三代可擴展處理器(Ice Lake),與前一代I3執行個體相比,運算效能提高多達55%。