Business

“Distributed computing is de heilige graal, maar het heeft nooit gewerkt”

Hoe zal de IT er over vijf jaar uitzien? Als iemand daar een goed zicht op heeft, is het Nick Bowen, IBM’s vicepresident technical strategy & worldwide operations. Hij bepaalt de strategie voor de 3.000 researchers die IBM in dienst heeft. Elk jaar stelt hij een document op, het Global Technology Outlook (GTO), dat probeert de grote trends van het moment te detecteren en naar de toekomst door te trekken.

Tijdens een presentatie in Terhulpen ging hij in op de grote lijnen van het GTO 2008, dat momenteel wordt voltooid en dat zal bepalen op welke domeinen IBM volgend jaar zijn research zal richten. In gesprek met IT Professional gaat hij er wat dieper op in.

Eén van de grote thema’s in uw volgende Global Technology Outlook is de verwerking van grote datastromen. Waarom is dat een belangrijke evolutie?

Waar we het over willen hebben is: hoe neem je een stroom van data, afkomstig van sensoren te velde – dat kunnen bijvoorbeeld camera’s of microfoons zijn – breng je die helemaal naar het datacenter, op schijf en misschien in een Blue Gene computer om er business analytics op toe te passen? Hier zitten een aantal kernvaststellingen achter. Ten eerste: we zien heel wat pilootprojecten opduiken.

Bijvoorbeeld: de stad Chicago is camera’s aan het plaatsen, en ik hoorde dat er in elke metrowagen in Singapore vijf camera’s staan. Maar die pilootprojecten staan min of meer los van de IT-systemen. Bovendien is het niet duidelijk of deze pilootprojecten wel schaalbaar zijn. Stel dat je camera’s zet op elke straat, en dan ga je berekenen wat je nodig zult hebben: hoeveel historische gegevens heb je nodig, kijken de camera’s vanuit één hoek of tien hoeken, pas je er beeldherkenning op toe?

Wij hebben een researchproject waarbij je een videocamera kunt aanzetten en een week laten draaien. Achteraf schrijf je dan een toepassing waaraan je kunt vragen: laat mij alle rode auto’s zien die zijn voorbijgereden. Je kunt een toekomst indenken waarbij je sensordata gaat zien als een soort applicatie. Je zou een applicatie kunnen schrijven die kijkt of je de rode kleur op het verkeerslicht ziet én een auto die dan voorbij rijdt. Dat soort dingen waren enkele jaren geleden heel gespecialiseerde hard coded toepassingen, maar het worden meer algemene dingen die je misschien wel in je IT-systemen wilt integreren.

Dus u hebt het eigenlijk over nieuwe soorten middleware die toelaten dat men applicaties schrijft die patronen herkennen?

Het gaat om een heleboel verschillende dingen, afhankelijk van de toepassing. Daarom denken we juist dat het zo’n enorme opportuniteit is. Neem nu dat voorbeeld van de rode auto: dat is beeldherkenning. Wij hebben een prototype gedaan met beeldherkenning waar je zoekt naar de combinatie van iemand die een tas draagt, die neerzet en niet meer terug oppakt.

Je kunt snel applicaties verzinnen die je vandaag absoluut niet zou kunnen schrijven. Wij zouden graag in de GTO deze trend schetsen, en dat dan spiegelen aan de technologische evolutie. Zodat we een idee kunnen krijgen van: kunnen we zo’n groot systeem vandaag bouwen, en kan het misschien over vijf jaar? Vandaag blijkt misschien dat zo’n toepassing 100 miljoen dollar aan computerapparatuur zou kosten. Maar als je bedenkt dat je toch eerst een pilootproject doet, en je houdt rekening met de verwachte verbeteringen qua prijs/prestaties, dan ziet het er misschien heel anders uit.

Een tweede grote thema dat u aansnijdt is de volgende generatie van PDA’s en smartphones. Vandaag zijn PDA’s in bedrijven vooral een bron van hoofdpijn, en wordt er bij softwareontwikkeling pas in de laatste fase aan gedacht.

Dat zeg je correct, PDA’s zijn vandaag een groot pijnpunt. Waarom is dat zo? Een traditionele IT-afdeling wil een bepaalde bestaande toepassing beschikbaar maken op een mobilofoon, maar moet zich dan zorgen maken over het model van die mobilofoon, over het besturingssysteem, over het programmeermodel en over de mobiele operator.

De trend die we beginnen te zien, is dat deze omgeving misschien meer open gaat worden. We zien meer open standaarden opduiken en we zien een vraag vanuit de markt: IT-afdelingen willen een bepaalde clienttoepassing niet testen met tien operatoren en 100 mobilofoons. Misschien gaat de PDA/Smartphone, en het onderscheid tussen die twee laat ik dan even in het midden, meer lijken op het pc-model van vandaag.

Wie vandaag een webtoepassing wil lanceren, die moet dat testen op Firefox en Internet Explorer, en dan kan het draaien op heel veel verschillende plaatsen. Wij denken dat het met PDA’s die richting uit gaat.

Een derde onderwerp waar u mee bezig bent: het internet als platform. Wat bedoelt u daarmee?

Momenteel is er een trend om toepassingen te schrijven die iets gaan ophalen op het internet. Veel websites maken bijvoorbeeld gebruik van de API’s van Google Maps. De vraag die ik zie is: wanneer zal een grote onderneming bereid zijn om een deel van zijn applicatie bij iemand anders te halen via het internet? Als je erover nadenkt, dan is distributed computing altijd de heilige graal geweest. Maar het heeft nooit echt gewerkt, vanwege het probleem van de betrouwbaarheid.

Gaat een bank het datacenter van iemand anders inbouwen in één van zijn kerntoepassingen? Technologisch zijn deze trends aan het gebeuren, maar wij proberen in te schatten hoe dit zal evolueren in de grote datacenters. Onze visie daarop zijn we nog aan het ontwikkelen. In de KMO-markt zie je het al heel duidelijk, daar beginnen bedrijven bijvoorbeeld gratis e-maildiensten te gebruiken.

Toen we voor het eerst hoorden over SOA en Soap, zouden er van die ‘gele gidsen’ van web services ontstaan. Dat hebben we niet echt gezien. Doelt u daarop?

Wel, ik denk dat het wél aan het gebeuren is, maar op een ongecoördineerde manier. Eerst moet er een laag van standaarden zijn. Ik heb in mijn vrije tijd toepassingen geschreven om bijvoorbeeld naar een weersite te gaan en dan naar Google Maps, en daarmee mashups te doen. Dat is eigenlijk vooral een zoekwerk: waar vind ik kaarten? Waar vind ik weerinformatie? Daar moet een standaardlaag opduiken, zodat ik kan vinden wat ik nodig heb.

Ik denk dat we nog erg vroeg zijn in deze evolutie. Als iemand geld gaat investeren door een toepassing te ontwikkelen die zo’n API gebruikt, dan wil hij weten dat de aanbieder van de API niet binnen zes maanden opeens gaat beslissen om zes parameters toe te voegen. Waardoor dan een miljoen programma’s ophouden te werken. Er moet ook een evolutie gebeuren op het vlak van wat ik de governance van die API’s zou noemen.

Uw vierde aandachtspunt is het ‘datacenter van de toekomst’.

Dit is één van de thema’s waar ik het meest enthousiast over ben, want ik ben altijd een server-kerel geweest. Er zijn een verzameling trends waar al veel over is geschreven: energiebeheer, virtualisatie, scale out , multicore, dat is aan het gebeuren. Autonomic computing is ook nog altijd aan het gebeuren. Maar wat als je dat allemaal samen wil bekijken?

Hoe kan ik nu het beste nemen van power management, het beste van server virtualisatie, het beste van storage virtualisatie, het beste van datacenter management en dat allemaal samenbrengen? Er bestaan nog altijd duidelijk gescheiden silo’s van serverbeheer, opslagbeheer en netwerkbeheer. Onze visie hier is dat er misschien een doorbraakidee is. Maar daar zijn we nu nog over aan het nadenken.

Virtualisatie is zo’n technologie die belooft om het datacenter drastisch te vereenvoudigen. Maar meestal voegt een nieuwe technologie uiteindelijk alleen maar een extra laag van complexiteit toe.

Ja. Hier is een macrotrend gaande: elke vijf of tien jaar kijken we naar die grote SMP machines, die eerder duur zijn, en zien we opeens een kleiner, goedkoper alternatief.

En dan denkt iedereen opeens: laten we die kleine dingen gaan kopen. Maar wat ze dan krijgen, is complexiteit. Eén grote SMP machine wordt vervangen door 500 kleine, en dan zien ze dat voor elke tien kleine machines er iemand in dienst moet komen om ze te beheren. In 2000 zouden 1U servers de wereld overnemen. Even later zouden blades de wereld overnemen. In de vroege jaren ’90 ontwikkelden we bij IBM de RS/6000 SP, die zou ook de wereld overnemen.

Mensen willen via virtualisatie hun servers consolideren, maar dat zorgt ervoor dat er nog méér OS images worden gecreëerd, omdat het zo gemakkelijk is. En die arme kerel in het datacenter dàcht dat hij aan het consolideren was omdat hij van 1.000 naar 500 fysieke servers is gegaan, maar tegelijk ging hij van 1.000 operating system images naar 10.000. Ik zou willen dat dit niét gebeurt, en hopelijk vinden we in ons GTO een paar goede ideeën om het tegen te gaan, maar uiteindelijk is het een diep ingebakken probleemgedrag.

blogbusinessitprofessional

Gerelateerde artikelen

Volg ons

Bekijk de huidige aanbiedingen bij Coolblue

Bekijk de huidige aanbiedingen bij Coolblue

👉 Bekijk alle deals