Vuosien ajan tarinadatakeskusenergiankulutus seurasi ennustettavaa kaaria. Digitalisaatio oli toki kasvussa, mutta parempien palvelimien, virtualisoinnin ja pilvikonsolidoinnin tuomat tehokkuusedut pitivät sähkön kokonaiskulutuksen yllättävän tasaisena. Globaali palvelinkeskusten virrantarve pysyi noin prosentissa sähkön kokonaiskulutuksesta – noin 200 terawattituntia vuodessa – suurimman osan vuosikymmenestä.
Se aikakausi on päättymässä.
Generatiivisen tekoälyn, kryptovaluutan louhinnan, reunalaskennan lähentyminen ja yhdistettyjen laitteiden eksponentiaalinen kasvu on rikkonut vanhan tehokkuuskäyrän. Alan arvioiden mukaan datakeskusten virrantarve kasvaa vuositasolla, jota ei ole nähty 2000-luvun alun jälkeen. Joillakin alueilla – Irlannissa, Pohjois-Virginiassa ja Singaporessa – datakeskusten osuus sähkön kokonaiskulutuksesta on jo 15–25 prosenttia, mikä pakottaa sääntelyviranomaiset määräämään lykkäyksiä uudisrakentamiselle.
Tätä taustaa vasten infrastruktuurivalinnat, jotka ennen tuntuivat teknisiltä yksityiskohdilta – jäähdytysarkkitehtuuri, sähkönjakelun topologia, telinetiheyden suunnittelu – ovat tulleet kokoushuoneen päätöksiksi. Energiakustannukset eivät ole enää rivikohta. Se on kasvun este.
Power Usage Effectiveness eli PUE on ollut palvelinkeskusteollisuuden vakiotehokkuusmittari lähes kahden vuosikymmenen ajan. Se on yksinkertainen suhde: laitoksen kokonaisteho jaettuna IT-laitteiden teholla.
PUE 2,0 tarkoittaa, että jokaista palvelimia ja tallennustilaa käyttävää wattia kohden toinen watti menee jäähdytykseen, valaistukseen, virranmuunnoshäviöihin ja muihin yleiskustannuksiin. PUE 1,2 tarkoittaa, että yleiskulut kuluttavat vain 0,2 wattia IT-wattia kohden.
Alalla on laajalti hyväksyttyjä PUE-tasoja:
| Taso | PUE | DCiE | Mitä se tarkoittaa |
|---|---|---|---|
| Platina | <1.25 | >0,80 | Maailmanluokan tehokkuus, vaatii yleensä vapaata jäähdytystä tai nestejäähdytystä |
| Kulta | 1,25 - 1,43 | 0,70 - 0,80 | Erittäin tehokas, saavutettavissa nykyaikaisilla malleilla kohtuullisessa ilmastossa |
| Hopea | 1,43 - 1,67 | 0,60 - 0,70 | Hyväksyttävä vanhempiin tiloihin tai lämpimämpään ilmastoon |
| Pronssi | 1.67 – 2.00 | 0,50 - 0,60 | Tyypillistä vanhoille datakeskuksille, joissa ei ole suuria jälkiasennuksia |
| Reilu | 2.00 – 2.50 | 0,40 - 0,50 | Huono tehokkuus, korkeat käyttökustannukset |
| Huono | >2.50 | <0,40 | Kriittinen tehottomuus, vaatii todennäköisesti välitöntä huomiota |
Ongelmana on, että monet organisaatiot eivät itse asiassa tiedä PUE:taan. He arvioivat. He arvaavat. Tai ne mittaavat vain pääkäyttömittarista ja olettavat loput.
Vuonna 2023 tehdyssä teollisuustutkimuksessa havaittiin, että lähes 40 prosenttia palvelinkeskusten operaattoreista ei ollut koskaan mitannut PUE:ta telinetasolla. Niissä, jotka niin tekivät, ero ilmoitetun ja todellisen PUE:n välillä oli keskimäärin 0,3 pistettä, mikä riittää siirtämään laitoksen kultaisesta hopeaksi kenenkään huomaamatta.
Sen ymmärtäminen, miksi PUE vaihtelee niin paljon, alkaa tarkastelemalla, mihin palvelinkeskuksesta virta lähtee.
Tyypillisessä ilmajäähdytteisessä laitoksessa, jonka PUE on noin 1,8, jakautuminen näyttää suunnilleen tältä:
Jäähdytyskuorma on suurin muuttuja. Lauhkeassa ilmastossa ulkoilmaa ilmaiseen jäähdytykseen käyttävä laitos saattaa käyttää vain 15 prosenttia ei-IT-tehostaan jäähdytykseen. Sama laitos trooppisessa ilmastossa, jossa on mekaaninen jäähdytys ympäri vuoden, saattaa kuluttaa 40 prosenttia.
Tästä syystä yhteissijoituspalveluntarjoajat mainostavat PUE:ta laitostasolla, mutta toimittavat PUE:ta asiakasmittarissa – eri numerot, erilaiset vaikutukset. Asiakas maksaa kaiken.
Perinteinen palvelinkeskusten hallinta olettaa suhteellisen staattista ympäristöä. Telineet täyttyivät kuukausien tai vuosien aikana. Jäähdytystä voi säätää hitaasti. Sähkönjakelu oli ylimitoitettu ensimmäisestä päivästä lähtien.
Pilviaika muutti oletukset. Telineet täyttyvät nyt päivissä. Työkuormat siirtyvät automaattisesti palvelimien välillä. Tiheät tekoälyklusterit voivat kuluttaa kolme kertaa enemmän tehoa kuin vierekkäiset yleiskäyttöiset laskentatelineet.
Nämä muutokset ovat pakottaneet pohtimaan infrastruktuurin hallintaa uudelleen. Kolme trendiä erottuu.
Ensinnäkin tiheys kasvaa epätasaisesti.Tavallinen palvelinteline kymmenen vuotta sitten kulutti 5-8 kilowattia. Nykyään yleiskäyttöiset telineet kuluttavat 10-15 kilowattia. Suorituskykyiset tietojenkäsittely- ja tekoälyharjoitustelineet ylittävät rutiininomaisesti 30 kilowattia telinettä kohti. Jotkut ylittävät 50 kilowattia.
Tämä luo lämmönhallinnan haasteita, joita ilmajäähdytyksen on vaikea ratkaista. 20 kilowatin teholla telinettä kohti ilmajäähdytys pysyy tehokkaana asianmukaisella suojauksella. 30 kilowatin teholla siitä tulee marginaalinen. Yli 40 kilowatin teholla nestejäähdytys siirtyy valinnaisesta välttämättömään.
Toiseksi kapasiteetin suunnittelusta on tullut ennakoivaa.Vanha menetelmä – osta enemmän kapasiteettia kuin tarvitaan ja anna sen olla käyttämättömänä – ei enää toimi mittakaavassa. Tyhjällä kapasiteetilla on sekä pääomakustannukset että jatkuvat ylläpitokustannukset.
Nykyaikaiset infrastruktuurin hallintajärjestelmät käyttävät historiallisia tietoja ja työkuormitusennusteita ennustaakseen, milloin virta, jäähdytys tai telinetila loppuvat. Parhaat järjestelmät voivat suositella, määritetäänkö nykyinen kapasiteetti uudelleen vai tilataanko uusia laitteita päiviä tai viikkoja ennen kuin rajoituksesta tulee kriittinen.
Kolmanneksi näkyvyysvaatimuksia ovat mmpaned.Perinteinen datakeskus saattaa seurata tehoa PDU-tasolla. Nykyaikainen laitos tarvitsee näkyvyyttä telinetasolla, joskus palvelintasolla ja yhä enemmän työkuormitustasolla – kun tiedetään, mikä virtuaalikone tai kontti käyttää mitäkin virtaa.
Palvelinkeskuksen infrastruktuuriHallintaohjelmisto (DCIM) on ollut olemassa yli kymmenen vuoden ajan, mutta käyttöönotto on edelleen epätasaista. Alle puolet yritysten datakeskuksista on ottanut käyttöön täyden DCIM-järjestelmän. Monet niistä käyttivät vain murto-osan kyvyistään.
Oikein toteutettu DCIM-järjestelmä tekee neljä asiaa:
Omaisuudenhoito.Jokaista palvelinta, kytkintä, PDU:ta ja jäähdytysyksikköä seurataan konfiguroinnin hallintatietokannassa (CMDB). Sijainti, teho, verkkoyhteydet, huoltohistoria – kaikki. Tämä kuulostaa yksinkertaiselta, mutta monet organisaatiot seuraavat edelleen omaisuutta laskentataulukoissa, joiden päivitysten välillä kuluu kuukausia.
Reaaliaikainen seuranta.Tehonkulutus PDU- tai telinetasolla, lämpötila ja kosteus syöttö- ja paluupisteissä, jäähdytysjärjestelmän tila, UPS:n akun kunto. Hälytykset laukeavat, kun parametrit poikkeavat asetuspisteistä. Tavoitteena on havaita ongelmat ennen kuin ne aiheuttavat seisokkeja.
Kapasiteetin suunnittelu.Järjestelmä tietää, kuinka paljon tehoa ja jäähdytyskapasiteettia on käytettävissä, kuinka paljon on käytössä ja kuinka paljon on varattu tulevaa käyttöönottoa varten. Se voi mallintaa uuden suuritiheyksisen telineen lisäämisen tai vanhojen palvelimien poistamisen vaikutuksia.
Visualisointi.Palvelinkeskuksen digitaalinen kaksoiskappale – teline telineeltä, laatta laatalta – näyttää nykyiset olosuhteet ja antaa käyttäjille mahdollisuuden simuloida muutoksia. 10 kilowatin kuormituksen lisääminen riville kolme, sarake neljä: ylittääkö se jäähdytyskapasiteetin? Järjestelmä vastaa ennen kuin kukaan siirtää laitteita.
Palvelinkeskusten energiankulutuksen leikkaaminen ei ole mystistä. Menetelmät tunnetaan hyvin. Haasteena on täytäntöönpanokuri.
Nosta tuloilman lämpötilaa.Useimmat konesalit käyvät kylmänä – 18–20 astetta jäähdytysyksikön paluussa – koska niin operaattorit ovat aina tehneet. ASHRAE-ohjeet suosittelevat nyt 24-27 astetta. Jokainen asteen lisäys vähentää jäähdytysenergiaa noin 4 prosenttia. Ajaminen 26 asteessa 20 asteen sijaan säästää 20-25 prosenttia jäähdytystehoa.
Poista kuuman ja kylmän ilman sekoittuminen.Kuumakäytävän suoja, kylmäkäytävän suojaus tai pystysuorat poistokanavat pakottavat jäähdytysilman menemään sinne, missä sitä tarvitaan, sen sijaan, että se juokseisi telineiden etuosan läpi. Pelkkä suojaus vähentää jäähdytysenergiaa tyypillisesti 15-25 prosenttia.
Käytä säädettävänopeuksisia käyttöjä.Vakionopeudella toimivat puhaltimet ja pumput tuhlaavat energiaa osittaisella kuormituksella. Säädettävät nopeudet sovittavat ilmavirran ja veden virtauksen todelliseen tarpeeseen. Jälkiasennuksen takaisinmaksuajat ovat tyypillisesti 1-3 vuotta.
Optimoi UPS:n toiminta.Useimmat UPS-järjestelmät toimivat kaksoismuunnostilassa jatkuvasti – muuttavat vaihtovirran tasavirtaan ja takaisin vaihtovirtaan, vaikka sähkövirta olisi puhdasta. Nykyaikaiset UPS-järjestelmät voivat siirtyä säästötilaan, kun virranlaatu sen sallii, ja saavuttaa 99 prosentin hyötysuhteen 94-96 prosentin sijaan. Kompromissi on lyhyt siirtoaika akkuun, jos verkkovirta katkeaa. IT-kuormituksille, joissa on tällaisia siirtoja varten suunniteltuja virtalähteitä, riski on minimaalinen.
Hyväksy korkeamman jännitteen jakelu.Tehonjako 415 V jännitteellä 208 V:n sijaan vähentää jakeluhäviöitä noin 25 prosenttia. Tämä vaatii yhteensopivia PDU:ita ja palvelinvirtalähteitä, mutta monet nykyaikaiset laitteet tukevat sitä.
Shangyu CPSY Company, korkean teknologian yritys, joka keskittyy palvelinkeskusten infrastruktuuriin, raportoi modulaaristen palvelinkeskusratkaisujensa PUE-arvoksi 1,3. Tämä asettaa yrityksen kultatasolle ja siirtyy kohti platinaa.
Väitetty 25 prosentin energiansäästö verrattuna perinteisiin malleihin johtuu useista tekijöistä. Modulaariset UPS-järjestelmät, joiden hyötysuhde on 97,4 prosenttia järjestelmätasolla, vähentävät jakeluhäviöitä, jotka muuten ovat 15-20 prosenttia. Tarkkuusilmastointilaitteet säädettävänopeuksisilla kompressoreilla ja EC-puhaltimilla säätävät jäähdytystehoa todellista lämpökuormitusta vastaavaksi sen sijaan, että ne toimisivat kiinteällä teholla. Ja fyysinen asettelu – kuumakäytävän suojaus, optimaalinen telineväli, korotettu lattia oikean kokoisilla rei'itetyillä laatoilla – käsittelee ilmavirran hallintaa, joka heikentää monia muuten tehokkaita tiloja.
Yhtiön sertifiointiportfolioon kuuluvat ISO 9001 (laadunhallinta) ja ISO 27001 (tietoturvallisuuden hallinta). Sen asiakkaiden käyttöönotot sisältävät kumppanuuksia Huawein, ZTE:n ja Inspurin kanssa, ja sen vientilaitokset sijaitsevat Yhdysvalloissa, Isossa-Britanniassa, Saksassa, Ranskassa ja Australiassa.
Nestejäähdytys oli vuosien ajan niche-tekniikka superlaskentakeskuksille. Se muuttuu nopeasti.
Tekoälyharjoitusklusterit, joissa käytetään NVIDIA H100:ta tai tulevia B200-grafiikkasuorittimia, tuottavat 30–50 kilowattia telinettä kohti puhtaasti ilmajäähdytteisissä kokoonpanoissa. Näillä tiheyksillä ilmajäähdytys vaatii suuria ilmavirtausnopeuksia – kovaäänisiä puhaltimia, syviä telineitä ja vielä marginaalista lämmönsäätöä.
Nestejäähdytys suoraan sirulle poistaa 60-80 prosenttia lämmöstä lähteellä. Sirut juoksevat viileämmin. Tuulettimet pyörivät hitaammin. Huoneilmastointilaite käsittelee vain virtalähteistä, muistista ja muista komponenteista tulevan lämmön.
Tehokkuushyöty on huomattava. Tilat, joissa on suora jäähdytys sirulle, ilmoittavat PUE-arvot 1,1–1,2. Kompromissit ovat korkeammat pääomakustannukset, monimutkaisempi vuotojen hallinta ja laitostason vedenkäsittelyn tarve.
Täysi upotusjäähdytys – kokonaisten palvelinten upottaminen dielektriseen nesteeseen – laskee PUE:n alle 1.1:n, mutta pysyy erikoistuneena. Useimmat kaupalliset palvelinkeskukset ottavat käyttöön suoran sirujäähdytyksen ja myöhemmin upottamisen tietyillä tiheästi vyöhykkeillä.
SHANGYU-palvelinkeskusalusta sisältää säännökset sekä ilma- että nestejäähdytysarkkitehtuureista, ja tiedostetaan, että tulevat suuren tiheyden käyttöönotot edellyttävät nestepohjaista lämmönhallintaa tilojen suunnittelusta riippumatta.
Useimmat palvelinkeskusten toimintatiimit toimivat edelleen reaktiivisesti. Hälytys soi. Joku tutkii. Korjaus on otettu käyttöön. Kierto toistuu.
Siirtyminen ennakoivaan hallintaan edellyttää kolmea ominaisuutta, joita monilta organisaatioilta puuttuu.
Täydelliset määritystiedot.Perusta on tietää, mitä datakeskuksessa on – jokainen palvelin, jokainen kytkin, jokainen PDU, jokainen jäähdytysyksikkö. Ilman tarkkoja CMDB-tietoja kapasiteetin suunnittelu on arvailua.
Rakeinen telemetria.Telinetason tehomittaus on minimi. Palvelinkohtainen tehonmittaus on parempi. Työkuormitustason tehonjako on paras, mutta vaikein saavuttaa.
Analyysi, joka erottaa signaalin melusta.Lämpötilapiikki yhdessä telineessä voi tarkoittaa vioittunutta tuuletinta. Lämpötilapiikki puolessa konesalissa voi tarkoittaa jäähdyttimen vikaa. Järjestelmän on erotettava ja suositeltava vastauksia sen mukaisesti.
SHANGYU:n DCIM-alusta tarjoaa SNMP- ja Modbus-laitetuen, verkkopohjaiset ja Windows-sovellusliitännät sekä integroinnin verkkokameroihin tapahtuman laukaisemaa kuvaamista varten. Asetetut tavoitteet ovat yksinkertaisia: vähentää kalliita seisokkeja, leikata päivittäisiä käyttökustannuksia täydellisen ympäristövalvonnan avulla sekä parantaa johdon näkyvyyttä ja jäljitettävyyttä.
Konesalien energiankulutus vastaa noin prosentin maailmanlaajuisesta sähköntarpeesta. Tämä luku kuulostaa pieneltä, kunnes se asetetaan kontekstiin. Se vastaa suunnilleen Yhdistyneen kuningaskunnan sähkön kokonaiskulutusta.
Vielä tärkeämpää on, että kasvuvauhti kiihtyy. Alan ennusteet osoittavat, että palvelinkeskusten virrantarve kasvaa 10–15 prosenttia vuosittain vuoteen 2030 asti, mikä johtuu tekoälyn, pilvipalvelun käyttöönotosta ja yhdistettyjen laitteiden jatkuvasta lisääntymisestä. Tällä vauhdilla datakeskukset kuluttaisivat 3-4 prosenttia maailman sähköstä vuosikymmenen loppuun mennessä.
Tehokkuusedut, jotka pitivät virrankulutuksen tasaisena edellisen vuosikymmenen aikana, johtuivat palvelimien virtualisoinnista (fyysisten palvelinten lukumäärän vähentäminen), parantuneesta aseman tehokkuudesta (siirtyminen pyörivistä levyistä SSD-levyille) ja vapaan jäähdytyksen laajamittaisesta käyttöönotosta (ulkoilman käyttö mekaanisen jäähdytyksen sijaan). Nuo matalalla roikkuvat hedelmät on suurelta osin poimittu.
Seuraava tehokkuuden aalto tulee nestejäähdytyksestä, korkeammasta jännitteen jakelusta, tekoälylle optimoiduista jäähdytyksen ohjauksista ja – mikä ehkä tärkeintä – infrastruktuurikapasiteetin ja todellisen IT-kuormituksen paremmasta kohdistamisesta. Tämä viimeinen osa vaatii sellaista reaaliaikaista näkyvyyttä ja ennakoivaa analytiikkaa, joita DCIM-järjestelmät tarjoavat, mutta harvat tilat käyttävät täysin.
Tiedätkö todellisen PUE:si etkä teknisissä tiedoissa olevan numeron?Jos et ole mitannut UPS-lähdöstä ja IT-laitteiden sisääntulosta, et tiedä. Ero on todellinen yleiskulusi.
Taistelevatko jäähdytysjärjestelmäsi keskenään?Monissa palvelinkeskuksissa CRAC-yksiköissä on päällekkäiset lämpötila- ja kosteusalueet. Yksi yksikkö kuivaa, kun taas toinen kostuttaa. Toinen jäähtyy, kun taas toinen lämmittää. Tämä ei ole epätavallista. Se ei myöskään ole tehokasta.
Mikä on palvelimidesi tyhjäkäyntivirrankulutus?Alan tiedot osoittavat, että tyypilliset yrityspalvelimet kuluttavat 30–40 prosenttia huipputehostaan, kun ne eivät tee mitään. Käyttämättömien palvelimien sammuttaminen tai laittaminen nukkumaan on paras käytettävissä oleva sijoitetun pääoman tuottoprosentti. Se on myös eniten huomiotta jäänyt.
Voisitko nostaa tuloilman lämpötilaa kahdella astetta rikkomatta laitemäärityksiä?Todennäköisesti kyllä. Useimmat laitteet on mitoitettu 25-27 asteen imulämpötiloihin. Useimmat palvelinkeskukset toimivat 20-22 asteen lämpötilassa. Tuo kuuden asteen ero edustaa vuosia tarpeetonta jäähdytysenergiaa.
Milloin viimeksi vahvistit UPS-tehokkuutesi?Tyyppikilven hyötysuhde mitataan täydellä kuormalla täydellisellä tehokertoimella. Todellinen hyötysuhde osittaisella kuormituksella todellisella tehokertoimella voi olla 5-10 pistettä pienempi.