Was taugt der In-Memory-Ansatz?

Montag, 06. Juni 2011, 23:31 Uhr

Noch keine Kommentare

Vielleicht hat jemand das heute erschienene BI-Spektrum 2/2011 schon durchgeblättert und es gesehen: ab Seite 37 findet sich mein erster Artikel mit dem Titel „Was taugt der In-Memory-Ansatz?“. Die Veröffentlichung ist eine Zusammenfassung meiner Master-Thesis.

Von Mai bis Oktober 2010 habe ich mich in meiner Master-Thesis mit der Performance von In-Memory OLAP-Systemen beschäftigt und einen Benchmark zu deren möglichst Bestimmung entwickelt. Die Performance ist seit jeher eines der größten Probleme beim Betrieb eines BI-Systems. Leider stehen potentielle Anwender relativ verloren da wenn sie auf der Suche noch einem objektiven Benchmark sind. Meine Abschlussarbeit war ein Versuch in diese Richtung…

Eine Zusammenfassung der Master-Thesis ist im heute erschienenen BI-Spektrum 2/2011 ab Seite 37 zu lesen. Darin finden sich die wichtigsten Messergebnisse der von mir betrachteten Syteme IBM Cognos, Infor und Palo. Die komplette Veröffentlichung der Master-Thesis ist auch geplant, allerdings fehlte mir dazu bisher die Zeit. Wer diesen Blog regelmäßig liest, wird auf jeden Fall erfahren, sobald die gesamte Arbeit auch online zur Verfügung steht. Wer auf Nummer sicher gehen will, kann mir auch gerne eine Nachricht über das Kontaktformular schreiben. Dann gibt es auch noch eine eMail sobald alle Inhalte öffentlich sind.

Bis es soweit ist, rufe ich hiermit aber schon mal zu Kommentaren zum Artikel im BI-Spektrum auf. Ich bin nicht überheblich und gehe deshalb auch nicht davon aus, dass mein Benchmark der Wahrheit letztes Schluss ist. Aber aufgrund der nicht vorhandenen Alternativen – oder kennt doch jemand einen objektiven unabhängigen Benchmark für OLAP-Systeme?! – ein erster Ansatz, über den ich gerne diskutiere…

Tags: , ,

Kommentare zu diesem Beitrag

Bisher wurde noch keine Kommentare abgegeben.
Sie können also die oder der Erste sein.

Jetzt einen neuen Kommentar abgeben



(optional, Ihr Name wird entsprechend verlinkt)