採用浸沒式冷卻技術 使機房PUE大幅降低
對於高密度資料中心而言,現今要迫切解決的首要課題便是降低PUE。然而愈來愈多企業發現,散熱負荷過高,為PUE降不下來的關鍵,係因空氣並非好的冷媒,因而促使液冷散熱技術逐漸崛起。
成立於1970年、深耕熱處理銅銲工藝長達半世紀的高力熱處理工業,因應未來環境可持續發展趨勢,多年前跨足液冷技術、研發此領域當中的浸沒式散熱解決方案,希冀透過更節能、更省水的冷卻方式,不僅有效帶走機櫃的熱,也能協助降低PUE。
高力熱能事業部協理林岳宏指出,根據美國國家再生能源實驗室公佈的資料,可看出不同冷卻方式對資料中心能耗所產生的影響,其中有望讓PUE降至1.05以下的方式,唯獨直接液冷技術。
林岳宏說,假定有一座發熱量達100kW的機櫃,如果採用氣冷,可推算其熱傳導係數是0.026 W/m°C,相較水的0.64、介電液的0.064或0.125,單憑此數據即可印證水與介電液都是優於空氣的冷媒。此外空氣的流體比熱為1.01 kJ/kg°C,亦遠遜於水的4.07、介電液的1.09或1.97,意謂氣冷方式需要靠更大的驅動力來帶走熱,能耗自然偏高。
延續上述假設,於單一機櫃內置入發熱量100kW的氣冷伺服器,機櫃內空氣風速高達13.9m/s,推算其所需風扇/泵數量多達640個,意即1U配置16個,單單風扇/泵耗電量即為20kW,僅這部份的能耗就讓PUE須從1.2起跳,還不加計冰水主機、冷卻水塔的耗電,導致整體下修的空間有限。
若以100kW機櫃、環境溫度攝氏30度為比較基準,可推估氣冷方式的總耗電量為147.08kW、耗水量為2,356.2立方公尺;因水冷片僅適用於解除CPU/GPU等局部熱源,若採「水+部份氣冷」的總耗電量為107.74kW,耗水量為1,725.9立方公尺;而介電液(浸沒式)的總耗電量為106.71或106.91kW,耗水量為1,709.4或1,079.4立方公尺。因此無論從省電或省水的角度來看,浸沒式散熱技術均居於領先地位,對照現階段台灣缺水現象,更凸顯此項技術的優勢。
「若採用浸沒式散熱技術的液冷資料中心,進一步導入廢熱回收再利用,可望使PUE繼續探低,甚至到達小於1地步。」林岳宏解釋,此運用方式須以高緯度地區為前提,可在液冷機櫃、CDU冷卻單元及溫水槽之外結合板式熱交換器,將熱回收供民生用熱水;或結合水源熱泵,製成熱水做為民生之用;或結合吸收式冰水機,製冷做為民生空調。
他引述德國壓縮機廠計算資料指出,假使熱泵蒸發溫度為0,每輸出100kW加熱量需耗用27kW電力,若能利用廢熱將熱泵蒸發溫度提高到20度,則同樣輸出100kW加熱量,僅需消耗17kW電力,形同協助熱泵節省10kW電力。
著眼於此,高力熱處理工業將持續推廣浸沒式散熱方案,致力成為「潔淨能源、能源管理、循環經濟」的技術整合領導者。
- 鎖定綠色、安全、智慧化 開啟5G時代機房致勝密碼
- 建立能耗測量機制 打造可持續發展的綠色資料中心
- 運用MDC、模組化UPS等利器 滿足未來機房基礎建設
- 思科偕同施耐德 建立智能維運的邊緣資料中心
- 擁抱公有雲 助企業急遽削減碳足跡
- 採用浸沒式冷卻技術 使機房PUE大幅降低
- 中華電信翻新機房規格 重塑IDC服務新未來
- 依IT架構及未來業務成長性 選擇最適合電力系統
- 施耐德EcoStruxure IT Advisor助遠傳催生業界首創DaaS服務
- 空調系統結合化學濾網 訂閱式AMC控制方案全面控制5G機房
- 藉由合適的測試儀器 快速解除PoE疑難雜症
- 參酌ASHRAE標準 善用節能技術實踐合理PUE目標
- 聚焦CAT.6A、OM4/OS2主流媒介 滿足高速傳輸佈線需求