Wenn Sie die Seite nicht korrekt angezeigt bekommen, dann folgen Sie bitte diesem Link.

its-people - People make the difference
  Newsletter 05/2011  
Liebe Leser und Abonnenten,


Wie stelle ich sicher, dass meine Daten korrekt sind? Wie kann ich dafür sorgen, dass meine Nutzer die richtigen Daten zum richtigen Zeitpunkt vorliegen haben? Wie kann ich bei der Datenbeschaffung, der Integration und im Qualitätsmanagement einen möglichst hohen Automatisierungsgrad erreichen? Oder: Sind "In-Memory-Datenbanken" für Business Intelligence (BI) ein Hype oder ein ernstzunehmender Trend?

Fragen, mit welchen sich unsere Experten aus dem Portfoliosegment "Business Intelligence & Data Warehousing (DWH)" häufig auseinandersetzen müssen - sowohl generell, als auch projektspezifisch. Und auch unser aktueller Newsletter beschäftigt sich mit dieser Thematik.

Kontakt

Hotline: +49 69 247519 80

E-Mail: info@its-people.de

Besuchen Sie auch unseren Portfolio Blog

Datenbewirtschaftung, Datenintegration und Datenqualität sind Aufgabenstellungen, welche bei allen unseren Kunden eine hohe Bedeutung haben. Bei Bewirtschaftung denken viele zuerst an Landwirtschaft oder Gebäudemanagement, nämlich an die sinnvolle und wertschöpfende Nutzung von vorhandenen Ressourcen. Gleiches gilt auch für Daten. Aufgabenstellungen der Historisierung, der Archivierung, des Datenmanagements und der Datenanalyse sind nachhaltig, unabhängig von den eingesetzten Programmen, Workflows und Business-Prozessen. In einer globalen, sich schnell verändernden Welt wird Datenbewirtschaftung daher zum zentralen Wettbewerbsvorteil, wenn nicht sogar zur Überlebensstrategie für Unternehmen.

"Bei der Datenintegration greifen alle beteiligten Applikationen auf ein einheitliches Datenmodell zu, um Redundanzen zu vermeiden. Die Semantik ist für alle beteiligten Applikationen gleich." (Quelle: Wikipedia). Zu erwähnen ist, dass es nicht "DAS Data Warehouse" gibt. Ausgehend von einer Referenzarchitektur, bei gleichzeitiger Berücksichtigung der Anforderungen des Unternehmens an das DWH, ist jeweils eine (möglichst) optimal in die bestehende IT- und Unternehmensstrategie integrierte Lösung zu entwickeln. Hierbei bildet eine Datenbank, in welcher die Daten aus verschiedenen heterogenen Quellen integriert und langfristig gespeichert werden, das Herzstück.

Bliebe noch das aktuelle "Lieblingsthema" der Marktteilnehmer, die Datenqualität. Die Widersprüche zwischen Informationen verschiedener Quellsysteme und deren Auswirkungen auf Datawarehouse-Systeme und BI-Lösungen stellen in vielen unserer Projekte eine Herausforderung dar. An dieser Stelle sei hervorgehoben, dass sich its-people stark im Thema "Bereichsübergreifendes Qualitätsmanagement von Kundendaten" im Rahmen der Oracle Solution Partner Community "Business Intelligence" engagiert. Additiv anmerken möchte ich, dass das Thema Datenqualität bereits ein Schwerpunktthema unseres Newsletters vom März 2010 war, welchen wir Ihnen gerne, falls gewünscht, (nochmals) zur Verfügung stellen können.

Viel Spaß beim Lesen des Newsletters.

Mit freundlichen Grüßen

Thomas Algermissen & Thomas Kraemer
Geschäftsführer enterpriser GmbH & Co KG


Aktuelles

Expertenwissen kurzfristig verfügbar
Erfahrene Architektur-Expertin im Oracle-Umfeld sucht neue Herausforderung!

Sabine Heimsath ist ein langjähriges Mitglied des its-people Verbundes. Ihre weitreichenden Fachkompetenzen liegen im Bereich der Daten-/Objektmodellierung, der Objektorientierten Entwicklung in Oracle PL/SQL, des Objektrelationalen Mappings und XML, sowie Oracle Application Express (APEX) und der Architektur, Konzeption und Programmierung in Java.

Sie verfügt über eine ausgeprägte analytische Begabung zur Identifikation kritischer Erfolgsfaktoren im Projekt. Dabei liegen ihre Stärken in der Kommunikation und der Fähigkeit, sich in durchaus recht unterschiedlichen Teams effektiv einzubringen.
Sabine Heimsath
Frau Heimsath verfügt über umfassende Branchenkenntnisse im Bankenbereich, dem Handel sowie im Bereich Dienstleistungen.

Wenn Sie eine entsprechend vielseitige Expertin für Ihr Projekt suchen, zögern Sie nicht, unser Competence Center 'Oracle Technologien' unter hochtaunus@its-people.de zu kontaktieren. Dort erhalten Sie auch gerne weitergehende Informationen zu Frau Heimsath.

Wünschen Sie eine generelle Einschätzung zu verschiedenen Aspekten Ihrer Projekte, stehen Ihnen selbstverständlich auch alle anderen Experten unseres Verbundes sehr gerne zur Verfügung.

Auf uns können Sie sich verlassen! Nehmen Sie uns beim Wort und fordern Sie ein unverbindliches Angebot unter hochtaunus@its-people.de an!


Berichte & Informationen


Herausforderung Datenbewirtschaftung und -Integration
Autor: Sven Bosinger, its-people Hochtaunus GmbH

Wenn man den Hochglanzbroschüren der gängigen BI- Anbieter glauben darf, kommen auf den Anwender in naher Zukunft ungeahnte Analyse und Auswertungsmöglichkeiten zu. Die Fähigkeiten immer mehr Datenquellen per Drag&Drop in einen Bericht einzubinden, werden als ultimative Technologie verkauft. Dadurch sollen aufwendige Data Warehouse (DWH) Projekte nahezu überflüssig und BI-Lösungen somit kostengünstiger gestaltet werden, wenn man mal die teilweise horrenden Lizenzkosten für derartige Werkzeuge bei Seite lässt. Die Integration verschiedener Quellen findet dabei generell im Metadaten-Layer der BI-Applikation statt und wird sozusagen im Bericht "on the fly" durchgeführt. Teilweise werden die Abfragen noch zwischen- gepuffert um die Performance erträglich zu gestalten, was aber im Kern keine Rolle spielt. Sven Bosinger

Doch was ist eigentlich aus der nach wie vor gültigen Aussage "shit in gleich shit out" geworden?

Der zentrale Punkt einer jeglichen BI-Lösung ist nach wie vor die Verlässlichkeit des angebotenen Zahlenmaterials. Man muss sich immer wieder vergegenwärtigen, dass auf der Basis der in einer BI-Lösung dargestellten Sachverhalte mehr oder weniger unternehmenskritische Entscheidungen getroffen werden! So werden anhand von Risikoberichten im Financial Services Umfeld Kauf- oder Verkaufsentscheidungen von Wertpapieren getroffen, oder im Rahmen von Produktplanungen und -entwicklungen auf BI-Analysen der Marktgegebenheiten zurückgegriffen. Beides Beispiele für weitreichende BI-basierte Investitionsentscheidungen, die über das Wohl und Wehe eines Unternehmens entscheiden können.

In Anbetracht dieser Tatsachen, ist es meiner Ansicht nach grob fahrlässig, sich bei der Integration und Aufbereitung der Quelldaten einzig und allein auf die "bunte Welt" der Oberflächenwerkzeuge zu verlassen und auf die zugegeben aufwendigen, aber notwendigen Integrationstätigkeiten, eines klassischen DWH-Ansatzes zu verzichten.

Nach wie vor geben die meisten Unternehmen bei Befragungen bzgl. Ihrer BI-Infrastruktur an, die schwerwiegendsten Probleme im Bereich Datenintegration und Datenqualität zu haben. Dieser Trend ist seit Jahren ungebrochen. D.h. für mich, dass ein Großteil der Unternehmen ihre Datenbewirtschaftung nach wie vor nicht so im Griff hat, wie sie es wollen und brauchen. Auch meine langjährige Erfahrung als Berater in diesem Bereich spiegelt diesen Sachverhalt wieder. Nahezu 90% meiner Projekte in den letzten 5 Jahren haben sich ausschließlich mit den Themen Datenbewirtschaftung, Datenintegration und Datenqualität beschäftigt. Dabei sind die Probleme eigentlich immer wieder dieselben:

  • Wie stelle ich sicher, dass meine Daten korrekt sind?
  • Wie kann ich dafür sorgen, dass meine Nutzer die richtigen Daten zum richtigen Zeitpunkt vorliegen haben?
  • Wie kann ich bei der Datenbeschaffung, der Integration und im Qualitätsmanagement einen möglichst hohen Automatisierungsgrad erreichen?
Auf all diese Fragen haben meines Erachtens die Integrationsansätze der BI-Werkzeuge mit ihren Metadaten-Layern gestützten Integrationen und ihrem Ansatz "Fehlt mir eine Information, dann lad' ich sie mir woher auch immer, schnell in meinen Bericht dazu" keine schlüssige Antwort.

Eigentlich ist diese Vorgehensweise ein Rückfall in die Excel-Sheet-Zeit, bei der mittels Cut&Paste mal schnell ein paar Zahlen in ein Sheet übernommen wurden, ohne Quellangaben, ohne Datenqualitätsprüfungen und ohne Sicherheit das Zahlenmaterial nicht gänzlich aus seinem Kontext gerissen zu haben. Wohin diese Arbeitsweise führt, sollte sich im BI-Umfeld eigentlich schon lange herumgesprochen haben.
Datawarehouse

Doch was ist die Schlussfolgerung aus diesen Überlegungen?

Leider nicht die, die der kostensensible Kunde gerne hören möchte. Nach wie vor ist der zum Teil langwierige Aufbau einer belastbaren und qualitätsgesicherten DWH-Lösung als Basis aller in einem Unternehmen verwendeten BI-Lösungen unumgänglich. Nur hier kann ich über geordnete, qualitätsgesicherte und nachvollziehbare Datenbewirtschaftungsprozesse dafür sorgen, dass auswertbare und korrekte Datenbestände aufgebaut werden.

Ja, das ist mühsam! Ja, das kostet Zeit und Ressourcen! Ja, der Betrieb eines DWH bindet langfristig Mittel!
Aber was ist die Alternative?

Unternehmenskritische Entscheidungen auf schnell "zusammengeschusterten" Berichten zu stützen, von denen sich 2 Monate später keiner mehr erinnern kann, wie die Zahlen zustande gekommen sind? Ich meine das ist keine Alternative!

Sicher mag es den ein oder anderen Ausnahmefall geben, in welchem so verfahren werden kann, die Ausnahme aber zur Regel zu machen, halte ich für gefährlich! Nach wie vor ist ein solides DWH das beste Fundament für eine sichere und korrekte BI-Lösungs-Architektur in einem Unternehmen und in diesem Kontext unverzichtbar.


Lesen Sie mehr

In-Memory-Datenbanken für BI: Hype oder ernstzunehmender Trend?
Autor: Sven Bosinger, its-people Hochtaunus GmbH

Seit geraumer Zeit gibt es im Segment der Datenbank-Software neben den klassischen relationalen Datenbanken (RDBMS) auch die sogenannten In-Memory-Datenbanken. Dabei handelt es sich um eine Technologie, bei der der gesamte Datenbankinhalt ausschließlich im Hauptspeicher des Datenbank-Servers gehalten wird, im Gegensatz zu den klassischen RDBMS, die ihre Daten persistent in einem Dateisystem ablegen.

Die Aufbewahrung der Daten alleine im Hauptspeicher hat natürlich den offensichtlichen Vorteil der viel höheren Zugriffsgeschwindigkeit gegenüber einer dateibasierten Lösung, sowohl bei lesenden als auch bei schreibenden Zugriffen. Allerdings ist ebenso offensichtlich, dass bei einem Neustart des Datenbank-Servers alle im Hauptspeicher vorhandenen Informationen verloren gehen, wenn diese nicht über zusätzliche Sicherungsmechanismen vorher persistent
Sven Bosinger
gespeichert wurden. Besonders kritisch ist dies bei einem Crash, d.h. einem unvorhergesehenen plötzlichen Ausfall des Datenbank-Servers.

Das traditionelle Einsatzgebiet der In-Memory-Datenbanken sind Echtzeitanwendungen, bei denen die Reaktionszeit das Hauptkriterium darstellt, wie zum Beispiel Steuer- und Regelgeräte, die im Millisekunden-Bereich reagieren müssen. In der letzten Zeit wurde diese Technologie aber auch zunehmend für den Einsatz in BI-Systemen entdeckt.

Wo liegen dabei die Vorteile?

Besonders analytische BI-Systeme müssen in der Regel große Datenmengen durchforsten und nach Zusammenhängen oder besonderen Merkmalen in diesen suchen. Häufig werden dazu Aggregationen gebildet, um die zu durchsuchenden Datenmengen signifikant zu verringern und damit die Zugriffszeit auf diese. Diese Aggregationen müssen zusätzlich gespeichert werden, nehmen also Platz in Anspruch, und haben vor allem bei Änderungen der zugrundeliegenden Daten die unangenehme Eigenschaft, neu erstellt werden zu müssen. Dies kostet Zeit und Platz. Durch die unmittelbare Verfügbarkeit der Daten im Hauptspeicher unterliegen die In-Memory-Datenbanken nicht diesem Zwang. Hier werden einfach alle Daten in einen entsprechend großen Hauptspeicher geladen. Zusätzliche Aggregationen zur Verbesserung der Zugriffsgeschwindigkeit sind nicht mehr erforderlich, da der Hauptspeicher sehr effizient vom Server durchsucht werden kann. Dadurch können Änderungen an den Daten vorgenommen werden, ohne dass zusätzliche, nachgelagerte Aggregations-Tätigkeiten notwendig werden. Es wird also sowohl der Lese- als auch vor allem der Schreibzugriff massiv verbessert.

InMemory Der Nachteil, dass die Daten verloren gehen, falls es zu einem Ausfall des Servers kommt, ist in BI-Systemen meistens nicht relevant. Wenn man davon ausgeht, dass in der Regel einem BI-System ein Data Warehouse (DWH) in klassischer RDBMS Technologie zugrunde liegt, und für die BI-Anwendung aus diesem in einem Upload die In-Memory-Datenbank gefüllt wird, so kann der Datenbestand jederzeit aus dem DWH neu erzeugt werden. Eine zusätzliche Persistierung der In-Memory-Datenbank ist also nicht notwendig, bzw. durch das DWH schon vorweggenommen. Lediglich die Änderungen an den im Hauptspeicher befindlichen Daten müssen zum Zwecke der Transaktions- sicherheit asynchron gesichert werden. Diese Änderungen sind von ihrer
Häufigkeit her meistens zu vernachlässigen und haben aufgrund ihrer Asynchronität keine nennenswerten negativen Auswirkungen auf das Gesamtsystem.

In-Memory-Datenbanken sind eine elegante Ergänzung zu bestehenden BI-Lösungen können aber kein klassisches DWH ersetzen. Als additiver Bestandteil einer BI-Lösung, können sie eine wertvolle Ergänzung sein um schnell verfügbare und hoch volatile Daten zu Analysezwecken vorzuhalten.


Partnerschaften


Interner Partner
Christoph Zundel, its-people Hochtaunus

Christoph Zundel ist mittlerweile seit annähernd 5 Jahren sehr erfolgreich innerhalb des its-people Verbundes aktiv. Er hat ein abgeschlossenes Studium der Informatik (FH) und verfügt über ausgeprägtes Wissen und langjährige Erfahrung in der Konzeption, dem Design und der Entwicklung komplexer Data Warehouse Systeme und klassischer OLTP-Datenbanksysteme.

Ebenso erwarb er im Laufe seines Berufsweges weitreichende Erfahrung auf dem Betätigungsfeld des Projektmanagements inklusive Teamleitung. Hierzu zählen insbesondere die technische Projektleitung, die Analyse, die Beratung auf konzeptioneller Ebene sowie die Entwicklung von Extraktions-, Transformations- und Ladesystemen (ETL-Tools) zu seinem Erfahrungsschatz.

Ergänzend zu seinem umfangreichen Profil gehören Beratung und Entwicklung bei Konzernreportings mittels entsprechender Business Intelligence Werkzeuge, komplexe Datenanalysen- und bereinigungen und Performance Tuning SQL und PL/SQL (Oracle) zum Fachgebiet von Christoph Zundel.

Weitere Informationen über den Professional erhalten Sie gerne beim Competence Center Business Intelligence & Data Warehouse unter hochtaunus@its-people.de.


Christoph Zundel
Lesen Sie mehr


Externer Partner
Beraterexzellenz - Wie gut sind Ihre Berater? Erfahren Sie es jetzt mit dem kostenlosen Online-Quick-Check

Aristoteles Onassis sagte einmal: "Ich würde alles noch einmal so machen, wie ich es getan habe. Bis auf eine Ausnahme: Ich würde früher bessere Berater suchen." Er wusste: Berater operieren häufig am offenen Herzen eines Unternehmens. Wenn sie zum Beispiel gerade im BPM-Umfeld in der Organisation, am Business-Workflow oder in IT-Systemen Geschäftsprozesse anpassen, stellt sich sowohl für Beratungskunden wie auch für Beratungsunternehmen die Frage: "Wie gut sind Ihre Berater?" Die Qualität der Berater entscheidet häufig, ob ein Vorhaben zum großen Erfolg wird oder in einem Desaster endet. Doch wie kann die Qualität von Beratung festgestellt und wie kann Beratungsqualität optimiert werden? Beraterexzellenz
Dieser Frage haben sich unter dem Begriff Beraterexzellenz® einige Beratungsprofis mit jahrzehntelanger Consulting-Erfahrung verschrieben. Seit vielen Jahren bringen Jörg Osarek, Andreas Hoffmann und Sigrid Hauer mit Unterstützung ihres Beraterexzellenz-Expertennetzwerks ihren Kunden das Thema "Steigerung der Beratungsqualität" in Form von Trainings für kleine und große Consulting-Organisationen näher. 2008 haben Osarek und Hoffmann dazu das Buch: "Die Exzellenz-Formel - Das Handwerkszeug für Berater" auf den Markt gebracht, welches die Stufen von den Basisfähigkeiten des Beratens bis zur Beraterexzellenz aufzeigt. Nun haben sie ihr Angebot neu strukturiert und in klar abgegrenzte Leistungspakete gefasst, die alle dem einen Ziel dienen: Die Beratungsqualität in Consulting-Organisationen zu optimieren.

Beraterexzellenz-Minibook Die Angebotspalette reicht von Intensiv-Trainings für Berater über ein Führungskräfte-Coaching für Consulting-Leiter bis hin zum Rettungsdienst für Beratungsprojekte in Schieflage. Besonders interessant sind dabei zwei kostenlose Angebote: Ein freier PDF-Auszug aus dem Buch: "Die Exzellenz-Formel" (http://www.beraterexzellenz.de/auszug-buch.html ) und ein kostenloser Online-Quick-Check (http://www.beraterexzellenz.de/quick-check.html ). Mit zehn bis zwanzig Minuten investierter Zeit erhalten Interessenten von Beratungsunternehmen oder Beratungskunden eine anonyme, professionelle Grob-Einschätzung der Beratungsqualität ihrer Berater.

Dabei analysiert der Online-Quick-Check Basis-Beraterfähigkeiten, professionelle bis exzellente Beraterfähigkeiten, das Repertoire der Berater sowie die Marktreflektion der Beratungstätigkeit. "Wir haben für den Online-Quick-Check die Hürden bewusst so tief wie möglich gelegt.", so Osarek, "Sie müssen sich bei uns nicht anmelden. Wir wollen auch keine E-Mail-Adressen, Telefonnummern oder Firmennamen sammeln. Der Quick-Check dient dazu, dass sie als Beratungsunternehmen oder Beratungskunde einen strukturierten Denkanstoß erhalten, wie es um ihre Beratungsqualität bestellt ist sowie Hinweise, wo sie vielleicht noch etwas verbessern können, wenn sie dies wollen."

Newsletter-Archiv