1. <small id="7qjag"></small>
    <small id="7qjag"></small>

  2. <p id="7qjag"></p>

    麻豆精品一卡二卡三卡 ,国产成人久久av免费高潮,热久久视久久精品18,成人无码看片在线观看免费 ,玩弄少妇肉体到高潮动态图,国产精品久久久久久影视不卡,国产成人无码免费看片软件,免费人成激情视频在线观看冫

    液冷新時代 智算大有為 浩云長盛液冷數據中心最佳實踐

    來源: 中關村在線2023-08-21 13:25:38
      



    【資料圖】

    浩云長盛廣州二號云計算基地,是華南區首家大型商用液冷數據中心,采用冷板式液冷技術,助力AI算力業務降本增效:提升算力性能10%,降低GPU芯片維護成本50%,節省IB線纜投資30%。

    低碳與數字雙驅動,未來GPU資源持續火熱


    數據中心是國家信息化戰略的重要基礎設施底座,發展的好壞快慢直接影響戰略落地。政策、經濟、社會、技術都在為數據中心行業高質量發展提供新動能?!丁笆奈濉币巹潯访鞔_指出,到2025年,數字經濟核心產業增加值占GDP比重達到10%,同時到2025年單位GDP能耗下降13.5%,從發展規劃中一葉知秋,中國數字經濟既要快速發展,更要高質量發展。

    2023年3月,Open AI的ChatGPT 4.0大模型發布,將人工智能的應用推向了新的高度,該模型在許多專業測試中的表現“超出了人類水平”,“比以往任何時候都更具創造性和協作性”,“可以更準確地解決難題”,ChatGPT單月訪問量突破10億次。與此同時,各個行業都在積極探索人工智能與行業結合之路,如微軟將ChatGPT接入Office 365,工作效率成倍增加。

    這一股AI浪潮也沖擊了算力基礎設施底座。人工智能深度神經網絡算法(DNL)需要處理大量且并行的卷積運算,而GPU顯卡則能很好地匹配這種特性?;跇I務側的帶動,加上A100的禁售,用于大模型訓練的GPU一卡難求,價格變化更是按天衡量,8卡H100服務器從60萬到150萬只用了3個月的時間。未來,GPU短缺的趨勢可能會維持,OpenAI的ChatGPT GPT 4.0在大約10000-25000張A100上進行了訓練,而GPT 5.0將可能需要30000-50000個H100。

    低碳高密 風退液進


    這一系列宏觀環境的變化,對數據中心行業發展方向產生了諸多影響,風冷末端到底能不能適應這一變化?在我們看來,風冷不能很好匹配業務需求的變化。

    首先,風冷不能很好應對PUE挑戰,目前各省對數據中心PUE已經有明確的指導,以廣東省為例,廣東省工業和信息化廳印發了廣東省5G基站和數據中心(IDC)總體布局規劃(2021-2025)的通知,新建數據中心PUE不高于1.3,這對于廣東地區來說,是非常具備挑戰性要求。

    其次,風冷的散熱效率和制冷精度不夠高。GPU芯片的功耗一定是趨向高密的,英偉達GPU A100/H100 單卡功率接近400W,芯片熱流密度 50W/平方厘米,4U整機服務器功率接近 5.5kW/臺,英偉達主推的下一代算力卡,A800/H800算力是上一代的3倍,價格只有原來的2倍,功耗接近2倍,單卡功率接近700W,熱流密度87.5W/平方厘米,4U整機接近9kW,算力硬件功率越來越高,芯片熱流密度越來越大,傳統風冷難匹配:

    1. 風冷制冷效率低,不適合高功率機柜。風冷密閉通道支持的合理功率區間4~6kW,但單個4U的H800整機已經接近9kW,此時風冷制冷對于如此高密設備的散熱有點力不從心,少量服務器場景下,能采用隔機柜部署方式應急,這種非集約化部署模式在規?;乃懔鼍跋?,散熱效果并不佳,個別客戶會把GPU服務器外殼打開,增加散熱面積。這種部署方式沒有經過專業的CFD仿真驗證,既不安全,又會造成機柜資源浪費。

    2. 風冷制冷對于熱源(GPU)的制冷不夠精準。純氣流組織散熱支持的芯片熱流密度極限約10W/平方厘米,達不到H800對散熱效率的要求。芯片長期工作在高溫狀態,會導致性能降低,英偉達同樣性能服務器,液冷版本和風冷版本性能差距在10%;同時,根據“十度法則”,從室溫起,電子元器件每增加十度,失效率增加一倍,壽命也會降低,GPU備件失效率增加,繼而導致整個生命周下期算力成本增加。

    實踐中常常會有通道溫度低,但是芯片溫度高的情況發生,長時間高溫運行,GPU的壽命短和性能低,導致經濟成本和時間成本都增加,由此可見在算力場景,風冷并不是最合適的。液冷是通過高比熱容的冷液直接帶走熱量,這種高效的散熱方式逐漸進入大家的視野。

    液冷解決方案,是GPU算力的最優解


    浩云長盛廣州二號云計算基地,位于廣東省廣州市番禺區,大灣區的中心和智能汽車產業中心(雙中心),本項目按照國標CQC A級標準設計,定位為智能制造AI算力基地,是華南區首家大規模商用液冷數據中心,支持功率密度8~19KW以上,單系統PUE 1.1以下,為華南區智能制造、AI超算高質量發展提供可靠數字基礎設施底座。


    冷板式液冷基本原理

    液冷基本原理是采用液體作為傳熱工質在冷板內部流道流動,通過熱傳遞對熱源實現冷卻的非接觸液體冷卻技術。在冷板式液冷系統中,需要專用的液冷服務器,服務器芯片等發熱器件不直接接觸液體,而是通過裝配在需要冷卻的電子元器件上的冷板進行散熱,達到精確制冷的目的,讓GPU運行溫度更低。

    二次側采用25%乙二醇加去離子水的混合液,保障換熱高效的同時兼顧安全穩定。進水溫度35-45℃范圍之間,出水溫度在45-55℃左右,進出水溫高,系統通過自然冷卻為芯片降溫,降低系統PUE。一次側和二次側通過板換實現熱交換,二次側的水泵將熱量從板換中帶出到冷卻塔散掉。

    整個系統來看,跟傳統的制冷方式是有區別的:

    1. 換熱次數少,傳統冷機系統5次換熱,冷板液冷3次,更少的冷量損耗;

    2. 精準散熱,冷板式液冷能夠針對GPU芯片單點降溫,且冷液的比熱容是空氣的4倍,換熱效率更高,對GPU更友好;

    3. 無壓縮機,風扇等部件,系統PUE更低,設備噪音更小。

    冷板式液冷對比傳統氣流交換方式,在綜合性能上有質的飛躍,更貼合算力業務的特點,液冷系統單柜功率密度支持19kW以上,能提高散熱效率,降低GPU工作溫度達20℃以上。

    當然,浩云長盛認為目前最佳的方案,應該是風液結合的方案,通道散熱風液結合,液冷協助GPU散熱,風冷作為輔助散熱,帶走其余部件的熱量;液冷機柜和風冷機柜混合部署,客戶的普通機柜和算力機柜能夠就近協作,提升配合效率,且方便維護。

    液冷是算力業務的剛需


    過去,對于最終用戶來說,用什么樣的制冷方式并不重要,風冷,水冷,間接蒸發,只要能達到功率需求都可以接受,但是在算力時代,思維方式可能要做一些改變了,因為算力資產越來越難獲取,也越來越昂貴,而制冷方式的匹配與否,直接影響到業務上線速度和投資成本。

    第一,相對風冷制冷環境,液冷能夠提升GPU性能10%。根據設定,GPU長期高溫運行性能會降低,液冷能提供高效的熱散能力,提升GPU使用性能,根據OPPO算力團隊在IDCC論壇上表示,通過驗證,同樣的算力配置,服務器在液冷方式下運行比風冷效率提升約10%,意味著同樣的算力,液冷的學習周期比風冷短10%,業務能更早搶占市場。

    第二,液冷能夠降低IB線纜部署成本30%以上。單臺H800服務器4U即達9kW,采用傳統的風冷制冷,單柜僅能放置1臺,且需隔機柜部署,如果采用冷板式液冷方式,單柜可直接布置2臺H800服務器,無需隔機柜部署。以單排微模塊15個機柜為例, 7臺H800服務器需要14個機柜位,線纜總長度49A(A為相鄰兩個機柜間的平均線纜連接距離),如果每柜可以放2臺,則只需要4個機柜位置(如下圖),線纜總長度16A,IB線纜長度節省超50%以上,而IB線纜每根價格在萬元級別,長度越長價格越貴??紤]到價格與長度的關系非線性,且與場景有關,項目節省線纜金額在30%以上。


    風冷部署與液冷部署線纜使用長度對比

    我們相信,傳輸距離變短也會有利于算力模塊之間的數據共享速率提升。有客戶明確要求,服務器到IB交換機柜的走線距離小于30米。

    第三,液冷能夠降低GPU維護成本50%,提升投資收益。液冷冷板針對GPU精準、高效的散熱,降低GPU使用溫度可達20℃,根據“十度法則”,GPU故障率減少至少50%(在風冷故障率基礎之上),繼而減少GPU備件購買量,未來GPU市場的不確定性,也會導致GPU的采購難度會加大,采購成本增加,因此維持較低的GPU故障率能夠節省投資成本和時間成本,更不會因為GPU卡緊缺,而影響業務連續性。

    綜上,對于最終客戶來說,隨著未來技術的迭代,GPU功耗增加,液冷已經不再是改善需求,而是智能算力的剛需。

    關鍵詞:

    責任編輯:sdnew003

    相關新聞

    版權與免責聲明:

    1 本網注明“來源:×××”(非商業周刊網)的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責,本網不承擔此類稿件侵權行為的連帶責任。

    2 在本網的新聞頁面或BBS上進行跟帖或發表言論者,文責自負。

    3 相關信息并未經過本網站證實,不對您構成任何投資建議,據此操作,風險自擔。

    4 如涉及作品內容、版權等其它問題,請在30日內同本網聯系。

    主站蜘蛛池模板: 未满十八18勿进黄网站| 国产欠欠欠18一区二区| 精品国产乱码久久久久久浪潮小说| 国产精品久久久久电影院| 国产激情久久久久久熟女老人| 国产一区二区精品久久| 狠狠色婷婷丁香综合久久| 色诱久久久久综合网ywww| 国产日产欧洲无码视频无遮挡| 亚洲精品字幕| 制服丝袜美腿一区二区| 国产女精品视频网站免费| 免费人成网站视频在线观看国内| 男女裸交免费无遮挡全过程| 亚洲大乳高潮日本专区| 欧美内射深插日本少妇| 狠狠婷婷色五月中文字幕| 国产精品欧美亚洲韩国日本久久 | 98视频精品全部国产| 亚洲成av人影院| 国产精品青草久久久久福利99| 久久精品国产99国产精品亚洲| 亚洲美免无码中文字幕在线 | 久久久久人妻一区精品色| 一本精品中文字幕在线| 亚洲妇女无套内射精| 亚洲精品久久国产高清| 国产内射一区亚洲| 久久99国产精品二区| 996久久国产精品线观看| 伊人久久大香线蕉av仙人 | 久久不见久久见免费影院| 男女做爰猛烈啪啪吃奶动| 亚洲欧美vr色区| 日本熟日本熟妇中文在线观看| 亚洲欧美日韩一区二区| 激情航班h版在线观看| 人妻少妇偷人精品无码 | 双腿张开被9个男人调教| 亚洲全国最大的人成网站| 亚洲日韩久热中文字幕|