過(guò)去幾年來(lái),很多數(shù)據(jù)中采用了某種形式的液體冷卻技術(shù)。此外,芯片制造商開始設(shè)計(jì)功能更強(qiáng)大的核心處理器,由于這些處理器功率越來(lái)越高,很難采用空冷技術(shù)進(jìn)行有效冷卻,采用液體冷卻技術(shù)成為了更好的選擇。 在不同領(lǐng)域,人們對(duì)液體冷卻技術(shù)的認(rèn)識(shí)和興趣明顯增強(qiáng),這是由各種應(yīng)用和動(dòng)機(jī)驅(qū)動(dòng)的。50年前,液冷技術(shù)最初用于早期的大型機(jī),而現(xiàn)在開始與新的超級(jí)計(jì)算機(jī)和高性能計(jì)算(HPC)系統(tǒng)重新融合。盡管如此,IT設(shè)備采用的空氣冷卻技術(shù)仍然占據(jù)了大多數(shù)傳統(tǒng)數(shù)據(jù)中心制冷的主導(dǎo)地位。然而,驅(qū)動(dòng)企業(yè)和托管設(shè)施市場(chǎng)采用冷卻技術(shù)的主要因素是功能、性能、成本效益。 人們可以從初始前期投資(CapEx)、運(yùn)營(yíng)成本(OpEx)和投資回報(bào)率(ROI)這幾種不同的角度看待成本效益。此外,對(duì)于數(shù)據(jù)中心設(shè)施和IT設(shè)備來(lái)說(shuō),這些因素的影響也不盡相同。在此關(guān)頭,盡管目前數(shù)據(jù)中心設(shè)施在物理空間和電力容量方面都發(fā)生了變化,但風(fēng)冷IT設(shè)備與數(shù)據(jù)中心設(shè)計(jì)和構(gòu)建的結(jié)合已經(jīng)相對(duì)成熟。相對(duì)于數(shù)據(jù)中心設(shè)施的IT設(shè)備指標(biāo)集中在機(jī)架數(shù)量和機(jī)架的功率密度上。對(duì)于給定數(shù)量的IT設(shè)備功率負(fù)載(需要多少空間和功率分配(每個(gè)機(jī)架的IT設(shè)備數(shù)量和大?。﹣?lái)說(shuō),這最終成為一項(xiàng)經(jīng)濟(jì)決策。 例如在大型數(shù)據(jù)中心,每個(gè)機(jī)架的平均功率5kW,并部署了200個(gè)機(jī)架,而每個(gè)機(jī)架部署數(shù)十個(gè)IT設(shè)備和PDU。如果設(shè)備部署在托管數(shù)據(jù)中心中,則用戶只需要為所需的空間和IT設(shè)備使用的電費(fèi)支付費(fèi)用。顯然,如果每機(jī)架的功率為10kW,則機(jī)架和空間的數(shù)量可以減少50%,但總功率卻是相同的。這個(gè)比率顯然被過(guò)度簡(jiǎn)化了,還有許多其他因素(網(wǎng)絡(luò)電纜和設(shè)備,以及存儲(chǔ)系統(tǒng)和服務(wù)器/刀片服務(wù)器的功率密度類型)會(huì)影響這個(gè)比率降低的準(zhǔn)確性。 盡管毫無(wú)疑問(wèn), IT設(shè)備功率密度平均要求已經(jīng)提高到可以滿足性能要求,但從理論上講,這應(yīng)該需要較少的空間和每兆瓦的關(guān)鍵負(fù)載所需的機(jī)架數(shù)量。實(shí)際上,這種機(jī)架功率密度比會(huì)影響數(shù)據(jù)中心設(shè)施的資本支出和運(yùn)營(yíng)支出,以及IT設(shè)備所有者/用戶,這就是為什么將其稱為“機(jī)架經(jīng)濟(jì)學(xué)(rackonomics)”,這是Blade Network Technologies公司在2008年提出的概念。 實(shí)際上,許多老舊的數(shù)據(jù)中心設(shè)施(企業(yè)內(nèi)部部署數(shù)據(jù)中心或托管數(shù)據(jù)中心)每個(gè)機(jī)架功率有效地限制在5kW左右,但較新的數(shù)據(jù)中心設(shè)施的設(shè)計(jì)為每個(gè)機(jī)架10至20 kW。 這仍然不能確保完全實(shí)現(xiàn)更高的功率/空間比的最大好處。這個(gè)比率假定所有機(jī)架實(shí)際上都已加載到接近或處于最高功率水平,而在混合IT設(shè)備環(huán)境中通常不是這種情況。在許多典型的企業(yè)方案中,每個(gè)機(jī)架的最大功率與最小功率之比為5:1到10:1,每個(gè)機(jī)架的最大功率和平均功率之比可能為3:1到5:1。這些比率影響了機(jī)架經(jīng)濟(jì)學(xué)。 即使在使用數(shù)千臺(tái)1U服務(wù)器或刀片式服務(wù)器的超大型數(shù)據(jù)中心環(huán)境中,它們的平均功率密度也很少達(dá)到或超過(guò)每機(jī)架10kW到15kW。這在一定程度上受限于風(fēng)扇功率和散熱成本,隨著功率密度的增加(冷卻系統(tǒng)和內(nèi)部IT設(shè)備風(fēng)扇),這些成本往往會(huì)大幅增加。盡管超大規(guī)模數(shù)據(jù)中心運(yùn)營(yíng)商(托管數(shù)據(jù)中心和互聯(lián)網(wǎng)云計(jì)算服務(wù))建造了大型數(shù)據(jù)中心設(shè)施,但相對(duì)于電力和冷卻基礎(chǔ)設(shè)施成本而言,大型建筑外殼成本在資本支出中所占比例相對(duì)較低。 液體冷卻方案主要集中在更高的功率密度應(yīng)用(例如每個(gè)機(jī)架25 kW、50 kW和100 kW)??稍诳諝饫鋮s設(shè)施中以最小的影響或無(wú)影響的方式進(jìn)行部署。例如,在每個(gè)機(jī)架50kW時(shí),它只需要20個(gè)液冷IT設(shè)備機(jī)架來(lái)提供1MW的電力容量。在許多情況下,液冷IT設(shè)備不需要機(jī)械冷卻和冷卻水。這節(jié)省了冷水機(jī)組的資本支出和運(yùn)營(yíng)成本,同時(shí)減少了80%的機(jī)架、PDU和相關(guān)設(shè)備的成本。 似乎出現(xiàn)的問(wèn)題之一是內(nèi)排式、后門式或封閉式機(jī)柜液體冷卻系統(tǒng)(用于標(biāo)準(zhǔn)風(fēng)冷IT系統(tǒng))的成本要比傳統(tǒng)數(shù)據(jù)中心空氣冷卻系統(tǒng)的成本更加昂貴。盡管這在一定程度上是正確的,但管道成本與將它們改裝到運(yùn)營(yíng)數(shù)據(jù)中心的現(xiàn)有冷卻系統(tǒng)中有關(guān)。確實(shí),目前液冷IT設(shè)備比其空氣冷卻設(shè)備更昂貴。但是,其價(jià)格是受幾個(gè)因素驅(qū)動(dòng)的。第一個(gè)是數(shù)量,特別是部署高功率的小容量水冷服務(wù)器的成本,其功率密度通常為每1U 為1到2 kW。 在此,基于CPU和內(nèi)存的液冷散熱器的液冷服務(wù)器開始改變機(jī)架經(jīng)濟(jì)學(xué)。像聯(lián)想這樣的主要OEM廠商一直在提供更多具有液體冷卻功能的高性能計(jì)算(HPC)服務(wù)器和刀片服務(wù)器產(chǎn)品。這些機(jī)架式服務(wù)器的機(jī)架能夠以50至60 kW的功率運(yùn)行。盡管目前還沒(méi)有直接的成本競(jìng)爭(zhēng)優(yōu)勢(shì)(部分是由于銷量低),但機(jī)架經(jīng)濟(jì)學(xué)的比率開始變得更加明顯。冷卻運(yùn)營(yíng)成本(OpEx)也可以發(fā)揮作用,因?yàn)樗鼈兛梢允褂脺厮ǚ螦SHRAE W4標(biāo)準(zhǔn))運(yùn)行。 另一方面,開放計(jì)算項(xiàng)目(OCP)組織于2018年7月推出了高級(jí)冷卻解決方案(ACS)子項(xiàng)目,重點(diǎn)關(guān)注如何使用液體冷卻來(lái)提高冷卻性能和能源效率以及降低成本的硬件。 今年7月,Cerebras Systems公司推出晶圓級(jí)引擎(WSE)處理器,該公司這是有史以來(lái)其生產(chǎn)的規(guī)模最大的商用芯片,旨在解決深度學(xué)習(xí)計(jì)算問(wèn)題。晶圓級(jí)引擎(WSE)將1.2萬(wàn)億個(gè)晶體管封裝在一個(gè)215 x 215毫米的芯片上,該芯片具有通過(guò)100Pbit/s互連連接的40萬(wàn)個(gè)經(jīng)過(guò)人工智能優(yōu)化的內(nèi)核。晶圓級(jí)引擎(WSE)的最大功率為15kW,因此它需要采用液冷技術(shù)。 實(shí)際上,很難將相對(duì)的便利性與“機(jī)架和堆疊”相匹配,并為大多數(shù)風(fēng)冷IT設(shè)備提供服務(wù)。此外,人們已經(jīng)看到了用于風(fēng)冷IT設(shè)備的冷卻系統(tǒng)以及IT設(shè)備本身的巨大改進(jìn)。但是,這種簡(jiǎn)單性并不是突然發(fā)生的。數(shù)據(jù)中心布局和機(jī)柜從從大型主機(jī)時(shí)代的從頂部到底部氣流的前置、固態(tài)前端IT機(jī)柜發(fā)展到當(dāng)今的熱通道/冷通道布局,已經(jīng)花費(fèi)了很多年。實(shí)際上,即使到上世紀(jì)90年代后期,通用IT設(shè)備機(jī)柜也很少。 液體冷卻系統(tǒng)具有多種形式,仍在不斷發(fā)展,并且具有許多技術(shù)優(yōu)勢(shì)。但是,由于尺寸等問(wèn)題在供應(yīng)商之間不能互換,這也阻礙了一些用戶的購(gòu)買和使用,并且可能無(wú)法迅速接受變化。十多年前,當(dāng)互聯(lián)網(wǎng)巨頭首次開始使用自然冷卻技術(shù)時(shí),傳統(tǒng)的企業(yè)數(shù)據(jù)中心用戶對(duì)此并不在意。 傳統(tǒng)的數(shù)據(jù)中心花費(fèi)多年的時(shí)間才超越了ASHRAE的第一版“熱指南”(2004年),該指南定義了最初的推薦的68°F至77°F環(huán)境范圍。2011年,ASHRAE發(fā)布了第三版的“熱指南”,其中包含了直接在空氣中自然冷卻信息。它還引入了“允許的”環(huán)境包絡(luò)類別A1-A4,IT設(shè)備進(jìn)氣溫度高達(dá)113°F。自2006年以來(lái),很少有人知道ASHRAE推出的液體冷卻指南。 今年,ASHRAE發(fā)布了一份名為“水冷式服務(wù)器——通用設(shè)計(jì)、組件和流程”的白皮書。目前,包括ASHRAE、綠色網(wǎng)格開放計(jì)算項(xiàng)目(OPC)、Open 19和美國(guó)能源部(DOE)在內(nèi)的多個(gè)組織正在合作,為液體冷卻創(chuàng)建框架、指南和規(guī)范,其中包括適用于IT設(shè)備和機(jī)架的外形尺寸、管道、快速斷開無(wú)滴漏接頭、冷卻液分配歧管等冷卻設(shè)備。 為了應(yīng)對(duì)氣候變化,數(shù)據(jù)中心行業(yè)和IT設(shè)備制造商在整體能效方面進(jìn)行了許多改進(jìn)。Nautilus公司的漂浮式數(shù)據(jù)中心以及微軟公司的水下數(shù)據(jù)中心(例如Natick項(xiàng)目)通過(guò)使用海水進(jìn)行冷卻來(lái)宣傳其冷卻效率。與傳統(tǒng)的基于壓縮機(jī)的機(jī)械冷卻相比,其排入水中的廢熱能效更高。但是,即使PUE為1.0x,其熱量也會(huì)被排到外界環(huán)境中,因此水下數(shù)據(jù)中心仍然無(wú)法真正緩解氣候變化。 盡管在能源回收方面已經(jīng)做了一些努力,但要有效地回收IT設(shè)備的余熱是非常困難或昂貴的。采用液體冷卻技術(shù)的好處之一在于ASHRAE W4(不超過(guò)113°F)和W5(高于113°F)兩類IT設(shè)備,它們可以在140°F到150°F的溫度下輸送絕緣流體,這些流體的溫度范圍為很大一部分能量回收提供了更具成本效益的機(jī)會(huì)。 隨進(jìn)入下一個(gè)十年,建設(shè)和運(yùn)營(yíng)千兆瓦級(jí)園區(qū)的超大規(guī)模數(shù)據(jù)中心已成為新常態(tài),這在提高能源效率和利用可持續(xù)能源方面處于領(lǐng)先地位。人們相信,液體冷卻技術(shù)的不斷發(fā)展和應(yīng)用范圍的擴(kuò)大將由這些超大規(guī)模數(shù)據(jù)中心運(yùn)營(yíng)商成為市場(chǎng)主導(dǎo),而不僅僅是為了“機(jī)架經(jīng)濟(jì)學(xué)”。 來(lái)源:外電翻譯,如需轉(zhuǎn)載,請(qǐng)標(biāo)明來(lái)源 |
|
來(lái)自: mrjiangkai > 《待分類》