De visie van Sandor Nieuwenhuijs

In-memory database: terug naar af?
28 mrt 2014 - Sandor Nieuwenhuijs

Nu Big Data en analytics hot topics zijn in de IT-wereld, staat ook de in-memory database stevig in de belangstelling. De in-memory technologie oogt een beetje als ‘terug naar af’. Lees de visie van Sandor Nieuwenhuijs

Nu Big Data en analytics hot topics zijn in de IT-wereld, staat ook de in-memory database stevig in de belangstelling. De in-memory technologie oogt een beetje als ‘terug naar af’. Bij de allereerste IT-systemen (ten tijde van de ponskaarten e.d.) was in-memory een gegeven. Er waren geen manieren om data apart vast te leggen. Toen er steeds meer data kwam, was het nodig om iets te vinden waarmee we informatie permanent konden opslaan. Vergelijk het met het menselijke brein. Lange tijd was het gesproken woord de enige manier om kennis over te dragen en zo weer ‘vast te leggen’. Met het ontstaan van het schrift lukte het om informatie permanent vast te leggen. Inmiddels zijn we gewend om veel te onthouden en de rest op te slaan in boeken of digitale systemen die we gemakkelijk kunnen raadplegen.

Gemakkelijk opslaan is één ding, informatie terughalen een ander. Een feit dat in je hoofd zit, is onmiddellijk beschikbaar. Hetzelfde feit opzoeken in de bibliotheek kost echter meer tijd, net zoals data van een disk of tape halen. En tijd is steeds vaker een issue. Bedrijven willen bijvoorbeeld trends kunnen destilleren uit grote hoeveelheden klantgegevens. Hoe sneller dat gebeurt, hoe groter de kans dat je concreet kunt inspelen op gevonden trends. Daarnaast kan de online wereld niet zonder snelle toegang tot data. Als je een reis boekt via het internet, verwacht je direct een bevestiging. Tegelijkertijd wil de touroperator in real-time kunnen spelen met prijzen. Dat is alleen mogelijk als je alle actuele boekings- en beschikbaarheidsgegevens direct kunt ontsluiten. Daar heb je in-memory mogelijkheden voor nodig.

In-memory computing is daarom aan een opmars bezig. Belangrijke enablers zijn de 64 bits- technologie, het steeds goedkopere geheugen en steeds geavanceerdere software om grote hoeveelheden data te beheren. In-memory is op verschillende manieren inzetbaar, variërend van caching–het tijdelijk opslaan van data in geheugen – en index in-memory – waarbij je data in het geheugen indexeert – tot SSD (Solid State Disk), waarbij je alle data op SSD-schijven bewaart.

 

Voordelen en beperkingen

De voordelen van een in-memory database liggen voor de hand. Je kunt veel sneller grote hoeveelheden data ontsluiten, gebruiken en complexere berekeningen maken. Dat betekent onder meer dat je nieuwe dingen kunt doen die eerder niet mogelijk waren. Het is niet erg zinvol om te investeren in in-memory systemen om er vervolgens hetzelfde mee te doen wat je gewend was. Innoveren is dus een wezenlijk onderdeel van in-memory computing. Naast meer snelheid en mogelijkheden om te innoveren kan in-memory computing ook zorgen voor kostenbesparingen, omdat je kleinere systemen nodig hebt. Die hebben minder ruimte en minder stroom en koeling nodig.

Naast deze voordelen is het verstandig ook te kijken naar de beperkingen van in-memory systemen. Zo werkt dit type oplossingen vaak met nieuwe afwijkende talen. Alle opgebouwde SQL-kennis – om maar een voorbeeld te noemen – heeft dan weinig rendement. Daarnaast worden er soms technologieën toegepast die zich nog niet bewezen hebben of waarover nog maar weinig kennis breed beschikbaar is. Verder is het bestaande applicatielandschap lang niet altijd geschikt om met in-memory systemen te werken en is er ook bij in-memory sprake van fysieke grenzen. Mijn advies is dan ook: bezint eer ge begint, zodat initiatieven op dit gebied praktische resultaten opleveren en in-memory computing niet ‘terug naar af’ betekent. (Bron: DutchITChannel)

 

Sandor Nieuwenhuijs is Presales Director Technology bij Oracle.