Big data stelt extreme eisen aan doorsnee server
Big data kun je analyseren op gewone servers of met meer gespecialiseerde apparatuur. Volgens Dexter Henderson, vicepresident van Power Systems bij IBM, zijn enterprisegradeservers noodzakelijk om het uiterste uit big data te halen. Een bigdatawerklast heeft immers de volgende vereisten:
1. Extreem parallellisme
Geavanceerde bigdata-analytics vereisen een schaalbaar systeem met het vermogen om extreem veel taken gelijktijdig uit te voeren. Hoe meer geheugen, bandbreedte en doorvoer, hoe meer taken gelijktijdig kunnen draaien. Zo’n systeem kan reageren op miljoenen gebeurtenissen per seconde en geavanceerde algoritmes in een kwestie van seconden uitvoeren.
[related_article id=”152275″]
2. Extreme betrouwbaarheid
Big data heeft een computersysteem nodig dat niet alleen betrouwbaar is, maar ook veerkrachtig. Onder de zware werklast kan de temperatuur van de server hoog oplopen. Het systeem moet dat zonder storing kunnen opvangen. Er mag slechts weinig of geen downtime zijn.
3. Extreme flexibiliteit
Computersystemen die een bigdatawerklast uitvoeren, moeten ontworpen zijn met open innovatie en openbrontechnologieën in het achterhoofd. Zo’n architectuur laat meer interoperabiliteit en flexibiliteit toe en vereenvoudigt het beheer van nieuwe werklasten door middel van geavanceerde virtualisatie- en cloudtechnologieën.
Niet voor niets spreekt Gartner liever van extreme data dan van big data…
Volgens Henderson zijn enterprisegradeservers uitermate geschikt voor bigdatawerklasten: hun architectuur is modulair opgebouwd, ze kunnen meer virtuele machines per processorkern draaien, ze bieden geavanceerde mogelijkheden voor virtualisatie en ze hebben betrouwbaarheid ingebakken.
In samenwerking met Smartbiz.be.
Op dinsdag 13 maart houden ZDNet en Smart Business een gratis seminarie over Big Data, in de populaire Business Meets IT-reeks. Meer informatie over het mobile business-seminarie vind je op de website van Business Meets IT.