TDWI-Kongress 2010, München – Tag 2

Dienstag, 15. Juni 2010, 22:56 Uhr

1 Kommentar

Auch der 2. Konferenztag war irgendwann zu Ende und der schon gestern angekündigte Vortrag von Jos van Dongen sollte für heute mein persönliches Highlight sein. Aber der Reihe nach…

Keynote „Data, Delivery, Trust“, Carsten Bange

Zu Beginn des 2. Konferenztages gab Carsten Bange, Geschäftsführer des BARC Instituts, einen Ausblick auf die zukünftigen BI-Themen. Beim Thema „Data“ machte er audf die hardwareseitigen Entwicklungen aufmerksam. Hier gibt es neben der In-Memory-Technolgie noch den zunehmenden Einsatz von schnelleren Solid State Disks (SSD) sowie auch erste Versuche die Berechnungen nicht mehr (ausschließlich) auf der CPU, sondern auch auf der GPU (Grafikkarte) durchzuführen. Dies alles soll zu weniger Problemen mit der Performance führen, die Total Costs of Ownership (TCO) nachhaltig senken und auch sonste neuartige Analysen möglich machen, die heute noch viel zu aufwendig erscheinen.

Bezüglich der „Delivery“ der Daten merkte Bange an, dass schon heute große Teile der Frontends webbasiert sind. Von dort ist es kein weiter Weg mehr zu mobilen BI-Anwendungen – iPhone, iPad & Co. haben in der Zwischenzeit auch für die nötige Nachfrage gesorgt. Daneben soll die Auslagerung in die Cloud und die Bereitsstellung von BI as a Service zukünftig normal werden. Zu diesem Thema wird es am 3. Konferenztag noch einen Vortrag von Mike  Ferguson geben. Die Benefits dieser Entwicklungen sind geringere Initialkosten sowie eine höhere Flexibillität und Agilität.

Die Themen Metadaten-Management und Datenqualität lassen sich unter „Trust“ zusammenfassen. Nur wenn das nötige Vertrauen in die Daten und Ergebnisse von Business Intelligence existiert wird sich auch die Nutzung verstärken. Außerdem kann eine gute Prozess-Qualität nur dann erreicht werden, wenn die Datenqualität stimmt. Dabei müssen aber tunlichst auch Fragen der Datensicherheit und  -vertraulichkeit bedacht werden. Datenlecks sorgen schnell für ireperable Schäden an der Reputation.

Aus meiner Sicht auf jeden Fall eine interessante Keynote, die angesprochenen Hardware-Themen sollte Jos van Dongen in seinem Vortrag „High Performance Data Warehousing“ am Nachmittag noch weiter und detaillierter ausführen.


Vortrag „Neue Technologien für Data Warehousing versprechen mehr Performance und Skalierbarkeit“

Das Thema Performance sollte mich den ganzen Tag verfolgen, so auch im ersten Vortrag nach der Keynote. Viele Themen aus der Keynote wurden auch hier wieder aufgegriffen. Als Flaschenhals tritt oft die Datenein- und ausgabe zutage. Weit verbreitete SANs eignen sich nicht wirklich für Data Warehouses.

Für die nachhaltige Performance-Steigerung gibt es insgesamt 3 Prinzipien: Appliances, In-Memory und spaltenorientierte Speicherung.

Appliances. Gemeint ist damit die Kombinnation aus Software- und Hardware-Komponenten, die für ihre speziellen Zwecke optimiert und oftmals Out-of-the-Box eingesetzt werden können.

In-Memory-Technologie. Bei der In-Memory-Technologie werden die gesamten Daten nicht mehr auf der (langsamen) Festplatte, sondern im ca. um den Faktor 1000 schnelleren Arbeitsspeicher gehalten. Neben der besseren Performance, verringert sich der Speicherverbrauch in der Regel auch durch den Einsatz von Kompressionsmethoden.

Spaltenorientierte Speicherung. Gegenüber der gewöhnlichen zeilenorientierten Speicherung ebenfalls einen schnelleren Datenzugriffe. Für jede Spalte werden dabei alle eindeutigen Elemente gespeichert und indexiert. Über den Index ist schließlich der schnellere Datenzugriff möglich. Spaltenorientierte Lösungen treten oft zusammen mit der In-Memory-Technolgie auf.


Vortrag „High Speed Data Warehousing“, Jos van Dongen

Der Titel lässt es schon erahnen, wieder ging es um Performance. Jos van Dongen schaffte es aber in sehr kurzweiliger Art und Weise und mit zahlreichen Anekdoten aus der Praxis das Thema aufzubereiten. Auch hier wurde zunächt die Performance als das Problem  Nummer 1 identifiziert. Dem kann mit 3 Strategien  begegnet werden:

  1. Upgrade: Erweiterung der Hardware, z.B. Prozessor, Arbeitsspeicher oder Festplatte
  2. Extend: Datenspeicher ersetzen und Data Marts hinzufügen
  3. Migrate: Paradigmenwechsel durch den Einsatz von Appliances, SaaS und neue Software

Auch bei Jos wurden die SSD wieder erwähnt und diese sollen langsam aber sicher die mechanischen Festplatten ablösen. Immer noch nicht schnell genug? Wie wäre es mit einem FusionIO Drive? Was das ist?! Auch ich wusste es bis heute nicht, FusionIO Drives sind noch schnellere Laufwerke, die Suchmaschine der Wahl liefert  weitere Informationen.

Abschließend auch bei Jos van Dongen noch einmal der Hinweis auf die GPU-Technologie oder auch die Möglichkeit eine Playstation 3 für Analysen einzusetzen.

Ein sehr guter Vortrag und die Empfehlung Jos in seinem Blog und bei Twitter zu folgen.

Tags: , , ,

Kommentare zu diesem Beitrag

  1. […] Der Open-Source-OLAP-Server Palo der Jedox AG setzt seit Anfang an auf die sog. In-Memory-Technologie, d.h. die Daten werden komplett im Arbeitsspeicher gehalten, was eine hohe Zugriffsgeschwindigkeit und demnach schnelle Abfragezeiten ermöglicht. Auf Daten im Hauptspeicher lässt sich in etwa 1000 Mal schnelle zugreifen als auf Daten, die auf der Festplatte gespeichert sind. Über diesen aufgrund steigender Datenmengen bei gleichzeitig steigenden Performance-Anforderungen nötigen Aufstieg in der Speicherhierarchie wusste auch schon Carsten Bange, Geschäftsführer des BARC-Instituts, auf der TDWI-Konferenz 2010 in München im Juni diesen Jahres zu berichten. […]

Jetzt einen neuen Kommentar abgeben



(optional, Ihr Name wird entsprechend verlinkt)