Nieuws

Op bezoek in een datacenter

We werken en leven steeds vaker in de cloud. Onze gegevens staan daarbij op "een" server ergens in "een" datacenter. We vragen ons af hoe zo"n modern clouddatacenter eruitziet en welke technologieën van belang zijn.

Het zal niemand ontgaan zijn: softwaretoepassingen verhuizen steeds meer naar de cloud. Een applicatie draait dus niet langer op het toestel van de eindgebruiker, maar wel in het datacenter op servers van de ontwikkelaar.

Door de opkomst van de cloud rijzen nieuwe en grotere datacenters als paddenstoelen uit de grond. Slechts een beperkt aantal partijen ziet het heel groots, met datacenters van telkens duizenden servers waarmee ze eigen clouddiensten kunnen aanbieden.

De verdienste van die grote jongens is dat hun aandacht voor energie-efficiënte datacenters ook doorsijpelt naar de markt. Zo verbruiken de datacenters van Google minder dan één procent van het verbruik van alle datacenters wereldwijd. Alleen is Google een publieke cloud, en dat is hooguit interessant voor thuisgebruikers en kleinere bedrijven die niet te veel willen betalen.

Een eigen server en opslagapparaten in een datacenter van Google of Amazon plaatsen is echter niet mogelijk. Voor middelgrote en grotere bedrijven is dat evenwel belangrijk. Zij staan dan ook meer open voor een privécloud, al dan niet gecombineerd met een publieke cloud voor de minder gevoelige gegevens. Virtualisatie speelt daarin een belangrijke rol.

Waar zijn mijn data?
Virtualisatie brengt als technologie vooral meer flexibiliteit in een IT-infrastructuur. Het betekent dat één machine wordt opgesplitst in vele, schijnbaar onafhankelijk werkende systemen. Soft- en hardware zijn dankzij virtualisatie zo goed als van elkaar losgemaakt.

Dat maakt wel dat je in een publieke cloud nooit weet waar je data zich precies bevinden: die kunnen iedere dag opnieuw de hele wereld rondgaan. Onder andere bij Google is dat het geval. Deze aanpak heeft zijn voor- en nadelen.

Vooral bedrijven zijn er niet erg happig op dat hun gevoelige informatie – denk aan de boekhouding – ergens buiten de eigen landsgrenzen een plaatsje krijgt. Bovendien vragen bedrijven naar een persoonlijke behandeling en maatwerk, wat ze vaak niet vinden bij diensten als Google.

En dus komen ze bij lokale partijen terecht met een of meerdere datacenters in eigen land. Een bedrijf als Google heeft natuurlijk ook een andere opzet dan een lokaal datacenter. Google kan bovendien veel besparen op energie, omdat ze minder aandacht besteden aan redundantie. Als er iets hapert in een van hun datacenters kunnen ze daar zonder problemen ingrijpen. Er zijn toch nog 39 andere om het over te nemen.

Een ander verschil is dat Google en Facebook de hele keten onder controle hebben. Ze beheersen zowel het datacenter als de hardware die erin komt en de toepassingen die erop draaien.

 

Opmerkelijk is ook dat de grote datacenters van Google en Facebook bijna volledig werken met zelfbouwservers. Je vindt er dus geen kant-en-klare machines van HP of Dell, maar grijze bakken waarvan ze helemaal zelf de inhoud bepalen, tot aan het ontwerp van het moederbord toe. Die aanpak zou efficiënter werkende en goedkopere machines moeten opleveren.

Dat zo’n zelfbouwserver een keertje uitvalt, is geen probleem. Er staan meteen honderd andere servers klaar om het werk over te nemen. Ook het Belgische Belgacom is bezig met het implementeren van dergelijke servers in zijn Netcenter in Evere.

De trend naar zelfbouwservers wordt echter niet helemaal bevestigd door Unisys, een bedrijf dat over de hele wereld IT-diensten levert. Zij zien eerder de opkomst van zogenaamde Vblocks, kant-en-klare racks die servers, opslag en netwerkapparatuur bevatten en enkel wat kabels nodig hebben om hun ding te kunnen doen.

Unisys geeft wel toe dat dit soort oplossingen vooral van tel is voor grote ondernemingen. Een partij als Microsoft plaatst zelfs honderden servers in één container. Ze groeien zo snel dat ze liever een beroep doen op containers dan op de traditionele racks.

Verbruik
De grootste uitdaging voor elk datacenter is de energiefactuur zo laag mogelijk houden. Datacenters verbruiken nu al meer dan twee procent van de wereldwijd beschikbare energie. Binnen enkele jaren zou dit stijgen tot een duizelingwekkende twintig procent.

Toch wordt er alles aan gedaan om het verbruik binnen de perken te houden. De jongste generatie servers is niet alleen veel energiezuiniger, ze is ook veel beter bestand tegen de hitte dan oudere servers. Dit laatste is wellicht nog interessanter voor datacenters: wanneer de gemiddelde temperatuur tot 25 of zelfs 30 graden Celsius mag oplopen in plaats van tot de vroegere norm van 20 graden Celsius, scheelt dit een forse slok op de borrel.

Er zijn echter nog andere manieren waarop de keuze voor nieuwere servers een impact kan hebben op de energiefactuur. Nieuwe, krachtigere servers kunnen het bestaande serverpark reduceren tot een twintigste. Ook het gebruik van bladeservers is goed ingeburgerd, omdat die tot 40 procent minder stroom verbruiken.

Groene koeling
Het in de lucht houden van een datacenter is geen sinecure. Een stabiele en ontdubbelde stroomvoorziening is het allerbelangrijkste, maar ook aangepaste koeling en brandblussystemen zijn essentieel voor de uptime. Vandaag wordt in datacenters vooral gewerkt met een cold corridor of koude gang. Dat betekent dat de ruimte tussen twee rijen van racks wordt gekoeld tot zo’n 24 graden.

Die relatief koude lucht wordt door de ventilators van de apparatuur naar binnen in de racks getrokken, waarna de warmte wordt afgevoerd naar de achterkant van het rack en zo weer naar buiten. Servers kunnen ook gekoeld worden via de buitenlucht in plaats van met energieverslindende airconditioners.

In het verleden werd vaak afgezien van deze groene vorm van koeling, omdat de buitenlucht vaak niet volstond om de temperatuur op een voor de servers aanvaardbaar niveau te houden. Nu deze servers beter tegen de warmte kunnen, ligt die barrière al een stuk lager.

Ook het andere traditionele argument tegen ongefilterde buitenlucht, namelijk de invoer van fijne stofdeeltjes in het datacenter, blijkt minder dramatisch dan eerst gedacht. Uit tests van onder meer Intel blijkt dat servers inderdaad vaker uitvallen wanneer de buitenlucht ongekoeld en ongefilterd het datacenter wordt binnengehaald, maar deze stijging in onbeschikbaarheid weegt vaak niet op tegen de meerkost van koeling door dure airconditioningsystemen.

Getronics gebruikt voor een datacenter in Haarlem een tussenvorm van koeling door buitenlucht, air-to-air free cooling genaamd. Hierbij wordt de buitenlucht wel gebruikt om de lucht in het datacenter te koelen, maar de invoer wordt zo klein mogelijk gehouden.

Hiervoor wordt een soort temperatuuroverdragend wiel gebruikt dat de warme uitgestoten lucht van het datacenter deels afkoelt voor die lucht weer het datacenter binnen gaat. Dit zorgt uiteraard voor een minder drastische koeling dan bij rechtstreeks ingevoerde lucht, maar het datacenter heeft wel meer controle over de luchtvochtigheid. Bovendien wordt de hoeveelheid vervuilende stofdeeltjes zo herleid tot vrijwel nul.

Microsoft heeft iets soortgelijk toegepast in zijn datacenters in Dublin, maar noemt het verwerkingsmechanisme daar een air handling unit. Steeds meer datacenters hebben daarnaast zonnepanelen op het dak. Vooral bij nieuwe datacenters is dit bijna een standaardtoevoeging aan de specificaties.

Zonne-energie wordt dan ook een belangrijk element in de strijd van datacenters tegen de hoge energieprijzen. Interxion heeft intussen al een datacenter in het Belgische Zaventem staan, dat volledig werkt op zonne-, wind- en hydro-elektrische energie.

Multicore
Een belangrijk onderdeel van een server en de opslagapparatuur is de processor. Jarenlang vormde die het kloppend hart van de ICT-vooruitgang: gedreven door de Wet van Moore werd elke achttien maanden de kloksnelheid verdubbeld. Alleen betekende dat ook telkens meer dan een verdubbeling van de benodigde hoeveelheid energie om die processors te laten draaien. En ook de gegenereerde hitte bleef maar stijgen.

Dankzij twee recentere technologieën – multicore en multithreading – kan de wet van Moore behouden blijven zonder dat het energieverbruik evenredig mee stijgt. De stijging van de kloksnelheid heeft plaatsgemaakt voor het aantal kernen op een processor en het aantal threads per kern, die samen de efficiëntie van een processor aanzienlijk verhogen.

Het betekent dat je in een datacenter op een kleinere ruimte meer rekenkracht kunt stoppen dan voorheen.

Slim meten
Ook PDU’s of Power Distribution Units dragen hun steentje bij tot energie-efficiëntere datacenters. PDU’s waren van oudsher zeer elementaire stukjes hardware die de stroom op rackniveau verdeelden naar alle afzonderlijke servers binnen dat rek. Intussen zijn ook deze toestellen intelligent geworden.

Door ze aan software van de PDU-leveranciers te koppelen, zoals APC en Raritan, wordt er de nodige informatie gewonnen. Anders gezegd: door precies te weten welk toestel hoeveel stroom heeft verbruikt en hoe dit verbruik evolueert, kan men alle toestellen efficiënter gaan benutten. Zo kan men bijvoorbeeld beter inschatten waar zich al hotspots aan het vormen zijn en nieuwe toestellen op koelere plaatsen inschakelen.

Maar er is meer. Door energieverbruik rechtstreeks te linken aan specifieke servers kan men klanten ook bewust maken van de impact van hun software. Zo kunnen ze bijvoorbeeld een gedetailleerde facturering voor het energieverbruik meesturen.

Geen 100 procent
De opzet van het datacenter heeft ook gevolgen voor de aangeboden toepassingen en diensten. En daar is de zogenaamde redundantie of betrouwbaarheid niet het grootste aandachtspunt. Zo paste Google enkele maanden geleden zijn dienstverleningsovereenkomst voor zijn online kantoorsoftware Google Apps aan.

De garantie op 100 procent beschikbaarheid werd uit de tekst geschrapt, omdat dat simpelweg onhaalbaar is. Klanten kunnen er dus niet meer van uitgaan dat Google Apps niet af en toe uit de ether gaat. Toch was Gmail in 2010 voor 99,984 procent beschikbaar. Dat is behoorlijk, maar nog een eindje weg van de zogenaamde Ideale Vijf: 99,999 procent.

In augustus zat Amazon Web Services, het cloudplatform van Amazon, met een storing. Amazon Web Services is een dienst waar bedrijven ruimte huren om bijvoorbeeld onlinediensten aan te bieden. Zo hoeven ze niet zelf te investeren in servers en kunnen ze uitbreiden op basis van hun behoeften.

Door de storing waren een paar populaire webdiensten zoals Reddit en Foursquare een tijd lang slecht of niet bereikbaar. Het ging om een technisch probleem met de opslagcomponent in hun cloudplatform, die ervoor zorgde dat er een tijdje niet genoeg opslagcapaciteit was.

Ook gewone datacenters garanderen geen 100 procent, al beweert Interxion wel dat dit op speciale vraag van de klant op papier gezet kan worden. Frappant is wel dat Interxion geen uitgewerkte procedure heeft voor als het toch zwaar misgaat, bijvoorbeeld als er een plotse stroomuitval is en de back-upsystemen niet opstarten of na een tijd uitvallen: “Wij houden geen rekening met dat scenario”, klinkt het daar.

dataDatacenterservertechzone

Gerelateerde artikelen

Volg ons

Bekijk de huidige aanbiedingen bij Coolblue

Bekijk de huidige aanbiedingen bij Coolblue

👉 Bekijk alle deals