Umsetzung von BI-Projekten: Agiles Vorgehen ist Pflicht

Business Intelligence-(BI)-Projekte stellen Daten aus verschiedenen Quellen in einer Datenbank zusammen und optimieren diese für Analysen, Dashboards und Berichte. Ziel ist es also aus vielen Daten Informationen zu gewinnen, die dann zur Entscheidungsunterstützung verwendet werden können.

Seit dem es BI-Tools gibt, versuchen die Hersteller den Anwender zu überzeugen, dass die Auswertung durch den Zugang zu vielfältigen Datenquellen gleich auf den produktiven Quelldaten erfolgen soll. Verstärkt wird dieses Vorgehen in den letzten Jahren durch den In-Memory-Hype, also die Daten in den Arbeitsspeicher zu bringen und dort zu analysieren. Selfservice-Tools wie PowerBI, IBM Watson, Qlik oder Tableau, die natürliche sprachgesteuerte Abfragen, grafische Analyse-Vorschläge und simple Datenübernahmen sowie Modellierungen möglich machen, zielen weiter in die Richtung die Datenkonsolidierung in diese Tools zu verlagern. Preiswerte Cloud-Modelle bringen Fachabteilungen in die Lage, ohne Hilfe der IT flexibel und schnell Auswertungen durchzuführen.

Das Vorgehen muss zum Projekt passen
Für BI-Projekte bedeutet das, dass wir Berater mit der Fachabteilung sowohl über die BI-Strategie als auch die Umsetzung sprechen. Dabei müssen BI-Projekte heute innerhalb weniger Tage verwertbare Ergebnisse liefern und parallel aber auch nachhaltige Datenstrukturen mit entsprechenden ETL-Prozessen aufbauen. Deshalb ist ein agiles und auf das BI-Projekt passendes Vorgehen immer gewünscht. Dabei ist ein MIX aus Prototyping und anforderungsgetriebener Entwicklung durchaus auch im Wasserfallmodell sinnvoll. Allerdings immer in kleinen schnellen Schritten. Ziel ist die erzielten Ergebnisse immer wieder zu hinterfragen und gegebenenfalls auch auf neue Wünsche anzupassen, die erst im Verlauf des Projekts aufkommen.

Die Toolauswahl ist einfach und kompliziert zugleich. Zuerst ist die Auswahl der Werkzeuge für die Präsentation interessant, vor allem für das Prototyping. Hier werden Tools wie PowerBI, Qlik aber auch Excel bevorzugt, obwohl auch die bekannten Hersteller wie IBM Cognos Tools dafür anbieten, die später für das Standardreporting benötigt werden. Letztendlich ist es eine Frage des Geschmacks, des Preises und der Strategie (ein Tool oder mehrere).

Die Frage der Datenbank
Während die Fachabteilung schon erste Auswertungen mit Teilen der zukünftigen Datenquellen erstellt, kann im Hintergrund die Grundlage für die Datenkonsolidierung geschaffen werden.

Firmen mit nur einer Datenquelle bleiben sicher bei den Selfservice Tools, alle anderen, werden eine Datenbank, z.B. Microsoft SQL-Server, und ein ETL-Tool, z.B. Talend oder SSIS, auswählen. Beim Datenmodell bietet heute DataVault die Möglichkeit eine Kern-Schicht einzuziehen, um die Daten flexibel zu laden, zu historisieren und kleine Marts aufzusetzen, die mit den Selfservice Tools verbunden werden können, aber auch für Standardberichte und Dashboard-Storys verwendet werden.

Zum guten Schluss werden dann Standardberichte implementiert und die nötigen Anforderungen werden durch das Prototyping unterstützt. Sinnvolle Fragebögen helfen hier weiter. Der Aufwand dafür wird von allen Beteiligten meist unterschätzt. Die Fachabteilung die Berichte selbst erstellen zu lassen funktioniert aber nur, wenn Poweruser entsprechend Ressourcen bekommen. Sonst ist die Implementation den Beratern zu überlassen. Die Durchläufe Prototyping, ETL und Erstellung Standardberichte laufen so lange immer wieder durch, bis alle Informationswünsche erfüllt sind. Das bedeutet: Ein BI-System bleibt sein Leben lang agil und wird ständig weiterentwickelt.

 

 

Hinterlassen Sie einen Kommentar

Nach oben