Schlagwort-Archive: PowerPivot

Dashboards mit Excel erstellen?

Wie geht man beim Aufbau eines Dashboards vor? Was ist dabei zu beachten? Wie sollten die Daten verdichtet werden? Mit welchen Excel-Techniken sollte man arbeiten? Wir denken dabei vom Ziel her. Hier folgen Hinweise, die Ihnen nach unserer Meinung beim Aufbau eines Dashboards helfen können. Denn zu 80% besteht ein Dashboards aus einem Datenmodell, nur zu 20% aus „schönen Diagrammen&Tabellen“!

Ich beobachte bei Projekten meist eine Vorgehensweise, bei der erst einmal alle verfügbaren Daten in irgendeiner Form „eingesammelt“ werden, meist nach der Devise: „Was ich schon habe, kann mir niemand mehr wegnehmen“. Dann folgt eine Überlegung, welche Kennzahl können daraus gebildet , welche Diagramme erzeugt werden. Das geht einher mit den Überlegungen, welche Informationen die Empfänger wohl haben möchten (oder müssten?), ohne dass dazu ein Dialog geführt wird. Daraus ergeben sich nach meiner Beobachtung sehr unhandliche Modelle, obwohl eine andere Vorgehensweise mlgw. zielführender sein könnte.

Empfängerorientierung als Voraussetzung

Im ersten Schritt würde ich den Informationsbedarf der Empfänger klären, verbunden mit der Frage nach Vorstellungen zur Usability. Dazu kann man bereits einige dynamische Diagramme, Tabellen, Kennzahlenbäume vorstellen und das Feedback aufnehmen Durch die Reaktion auf solche Beispiele (ohne echte Daten) kann man oft auch erkennen, was Empfänger wirklich wollen und benötigen. Denn oft ist ihnen das selbst nicht bewusst, wird aber mit solchen Beispielen klarer Beispiele.

Umsetzung – zielorientiert und top down

Mit diesen recht konkreten Vorstellungen kann man sich an die eigentliche Umsetzung machen, denn nun hat man eine Zielvorgabe und kann von dieser aus rückwärts gehen:

  1. Vom Ziel ausgehend (interaktive Diagramme, Tabellen, Kennzahlenbäume), beschreiben Sie die dafür notwendigen Daten. Denn vielleicht werden noch besondere Elemente zu Visualisierung gewünscht. Auch dafür werden Zahlen benötigt, denn Diagramme sind visualisierte Zahlen. Diese Zahlen, die nicht aus den Datenquellen stammen, müssen automatisch generiert werden und in einer bestimmten Struktur bereitgestellt. Dabei helfen zahlreiche Excel-Funktionen.
  2. Die Beschreibung der im ersten Schritt gewünschten Visualisierungen verdeutlicht die Zahlen, die dafür in Form von Tabellen oder Einzelwerten vorliegen müssen. Vor allem werden auf dieser Ebene die Daten für verschiedene Selektionskriterien (Kategorie, Zeit, Geografie) bereitgestellt und aufbereitet.
  3. Die Beschreibung der im Schritt davor erwünschten Datenselektion schafft Klarheit darüber, welche Daten aus den Datenquellen benötigt werden. Spätestens hier sollte man sich darüber im Klaren sein, in welchem Umfang historische Daten aus den Datenquellen übernommen werden müssen.
  4. Welche Daten werden aus welchen Quellen benötigt? Wie stark müssen die Daten transformiert und verdichtet werden? Wie wichtig ist eine permanente oder monatliche Aktualisierung?
Die Abbildung zeigt alle Schritte auf und zeigt die dafür benötigten oder zur Verfügung stehenden Excel-Techniken..

In der Beispieldatei werden die wünschenswerten Excel-Techniken zur Erstellung eines Dashboards aufgelistet. Planung, Tests mit den Datenquellen und Erstellung des Dashboards benötigen nach meiner Erfahrung nach dieser Vorgehensweise ca. 3-5 Personentage.

Weitere Anregungen finden Sie hier…..

PowerPivot vs. Power Query, was ist der Unterschied?

Meist begegnen uns in unseren Seminaren Excel-Anwender, die durch von Microsoft verwendeten Begriff verwirrt sind und die PowerTools verwechseln oder gar keine Vorstellung von der Nützlichkeit dieser Tools haben. Denn leider fördern die gewählten Namen auch nicht gerade das Verständnis. Das Problem liegt m.E. darin, dass die verwendeten Begriff von „Programmierern“ festgelegt wurden und nicht von „Kommunikatoren“. Anders ist es m.E. ist es nicht zu erklären, warum die Festlegung der Namen nicht aus der perspektive von Anwendern gewählt wurde. Doch halt, bei Power Query hat Microsoft dazu gelernt, denn es heißt ja nun „Daten abrufen und Transformieren! In diesem Beitrag sollen die Unterschiede und Gemeinsamkeiten kurz beschrieben werden. zu beiden Tools finden Sie in diesem BLOG ausführliche Beschreibungen der Funktionalitäten.

Weiterlesen

Cube-Funktionen

Die Cubefunktionen gibt es seit EXCEL 2007. Wofür werden sie benötigt? In vielen Unternehmen wird der SQL Server von Microsoft als Datenbank-System für(z.B.)  SAP eingesetzt. Der SQL Serer ermöglicht über  die so genannten Server Analysis Services das Online Analytical Processing (OLAP). Dabei werden Daten aus relationalen Datentabellen in mehrdimensionalen Datenstrukturen (Cube) zusammengeführt. Mit den Cube-Funktionen kann man von Excel aus Daten direkt aus einem (OLAP-)Datenmodell abfragen. Da PowerPivot-Modelle nichts anders als lokale Cubes sind, können Sie mit Cube-Funktionen direkt auf den lokalen Cube von PowerPivot zugreifen und so bspw. Dashboards erstellen.
Weiterlesen

Coming soon: 48. Controlling Forum an der Hochschule Pforzheim

Auf dem 48. Controlling Forum  der Hochschule Pforzheim geht es am 23. September 2016 um Integriertes Reporting und Daten­analyse mit Microsoft. Sehen Sie an einigen typischen Anwendungs­fällen aus dem Controlling, wie Ihnen Power Query, Power Pivot, Power View und Power Map die Arbeit erleichtern können und wie man als Controller damit sinn­voll arbeiten kann. Weiterlesen

BI mit Tools von Microsoft – aus Sicht eines Controllers

Smarte BI-Tools: Übersicht über einige Tools von Microsoft & Co.

Microsoft hat sich für die kommenden Jahre das Thema Business Intelligence groß auf die Fahnen geschrieben. Zusammen mit Big Data ist es derzeit in aller Munde, nahezu jedes Unternehmen scheint nun Nutzen aus der „neuen“ Technik ziehen zu wollen, Manager erwarten sich Absatzsteigerung und Erhöhung des Marktanteils. Durch genauere Kenntnis der Daten von bestehenden und potentiellen Kunden, sowie der Analyse von Zusammenhängen in der Vergangenheit erhofft man sich Wettbewerbsvorteile.

Große Datenmengen werden hierzu gesammelt – Stichwort Big Data und analysiert. Früher hätten nun Statistiker ihr Werk getan, heute ist oft das Controlling mit der Analyse beauftragt.

Das Controlling befindet sich also wieder mitten drin – zwischen IT-Abteilung mit den großen Datenbanken und dem Informationsempfänger, der nur eine aussagekräftige Grafik, ein paar signifikante Kennzahlen oder gar die ach so beliebte Ampel sehen möchte. Alles auf einer Din-A4 Seite. Hinzu kommt der Ruf nach Self-BI. Dieser Begriff suggeriert, dass der End-User der Daten sich die Information selbst, also ohne weitere Hilfe, aus den Rohdaten generieren kann.

Was steckt denn nun dahinter, hinter den ganzen neuen Techniken?

Weiterlesen

Was ist OLAP?

In vielen Unternehmen wird der SQL Server von Microsoft als Datenbank-System für(z.B.)  SAP eingesetzt. Der SQL Server ermöglicht über  die so genannten Server Analysis Services das Online Analytical Processing (OLAP). Dabei werden Daten aus relationalen Datentabellen in mehrdimensionalen Datenstrukturen (Cube) zusammengeführt. Microsoft hat durch ein Entwicklerteam diese OLAP-Fähigkeiten als PowerPivot in Excel integriert. Daher sind PowerPivot-Modelle nichts anders als lokale Cubes, die durch eine Pivot-Tabelle ein BI-Tool werden und als Dashboard verwendet werden können.  Anfang des neuen Jahrtausends konnte man innerhalb von Excel mit Hilfe von MS Query ebenfalls lokale Cubes erzeugen. In unserem Seminar bis 2005 angebotenen Seminar OLAP für Controller, haben wir diese  damals neue Technologie mit ihren Möglichkeiten erklärt. Inzwischen finden sich OLAP-basierte BI-Systeme in den meisten Unternehmen wieder. Dennoch stellen wir immer wieder fest, dass das notwendige Wissen zu dieser Technologie kaum vorhanden ist und diese Systeme daher oft nicht effizient genutzt werden können. Daher haben wir unsere Seminarunterlage noch einmal durchgesehen, aktualisiert und hier als kleine Serie eingestellt.

Weiterlesen

Was bedeute OLAP?

OLAP-Systeme beziehen ihre Daten entweder aus den operationalen Datenbeständen eines Unternehmens oder aus einem Data-Warehouse (Datenlager). Der Einsatz eines Data-Warehouse verhindert, dass die Analysedaten mit den transaktionsorientierten Datenbeständen in Kontakt kommen und die Leistungsfähigkeit beeinträchtigt wird. Ebenso ist die Leistung eines OLAP-Systems von der verwendeten Datenhaltungsform und deren Anbindung an den Analyse-Client abhängig.

Weiterlesen

Welche Arten von OLAP gibt es?

OLAP ist nicht gleich OLAP.

Es wird zwischen ROLAP (relationales OLAP= relationale Datenbank als Quelle), MOLAP (multidimensionales OLAP  = multidimensionale Datenbank als Quelle) und HOLAP („hybrides OLAP =  Zwischenform ROLAP und MOLAP) unterschieden.

Weiterlesen

Entstehungsgeschichte von OLAP

Die ersten Ansätze zur Entwicklung von Software zur Analyse mehrdimensionaler Daten reichen 50 Jahre zurück.

Rein technisch betrachtet handelt es sich bei den genannten Daten um Matrizen entsprechender Dimensionalität. Ende der 60er Jahre wurden am MIT – Massachusetts Institute of Technology Versuche gestartet, solche Matrizen mit Hilfe von FORTRAN  zu analysieren. FORTRAN bietet gute Unterstützung zur Matrizenrechnung, ist aber andererseits durch die Tatsache eingeschränkt, dass alle Daten komplett im Hauptspeicher vorgehalten werden müssen.

Anfang der 70er Jahre gründeten drei Mitarbeiter der Sloan School des MIT die Softwareschmiede MDS (Management Decision Systems) mit dem Ziel eine universell einsetzbare FORTRAN Bibliothek zur Analyse diskbasierter, mehrdimensionaler Matrizen zu entwickeln. Zunächst wurde die Bibliothek nur von den MDS Consultants zur Erstellung von Marketing-Analysen für einzelne Kunden eingesetzt.

1972 wurde aus dem entstandenen Software-Mix aus Analysefunktionen und Datenmanagement eine Programmiersprache entwickelt. Das Ergebnis war das Software-Tool Express zur Erstellung von Matrix-Modellen zur Durchführung von Marketinganalysen.

1974 begann der Verkauf von Express als kommerzielles Software-Produkt. Mittlerweile befindet sich Express im Besitz von Oracle und wurde zum vollwertigen OLAP-Produkt weiterentwickelt.

Nahezu parallel und unabhängig von Express entstand System W DSS. Die Herstellerfirma Comshare entstand Mitte der 60er Jahre im Umfeld der University of Berkeley in Kalifornien. Anfang der 70er Jahre konzentrierte sich Comshare auf Analyse, Modellierung und Ausgabe von Daten im Finanzbereich. Hierzu wurde eine spezialisierte Sprache zur Daten-Modellierung (FCS) von einer britischen Firma lizenziert und stetig weiterentwickelt. FCS unterstützte keine mehrdimensionalen Daten und kann daher nicht als frühes OLAP-Produkt bezeichnet werden.

1978/79 konnte FCS den Anforderungen von Comshare nicht mehr genügen und stand danach Pate für System WDSS. Dieses neue Produkt war speziell ausgelegt für die fortgeschrittene Analyse von mehrdimensionalen Daten aus dem Finanzbereich und daher ein Vorläufer heutiger OLAP-Systeme.

OLAP als Produktkategorie wurde letztendlich von Arbor Software realisiert. Arbor wurde 1991 mit dem Ziel gegründet, einen mehrdimensionalen Datenbankserver zu entwickeln. Das resultierende Produkte – Arbor Essbase – wurde 1992 in einer ersten Version auf den Markt gebracht. Inzwischen gehört das Produkt zu ORACLE.

Literatur:

Reinke, Helmut/ Schuster, Helmut: OLAP verstehen, Microsoft Press, (2000)

Held, Bernd/, Erb, Harmut, Advanced Controlling mit Excel, Franzis Verlag, (2006)

Wenn Ihnen dieser Beitrag gefallen hat, dann teilen  Sie ihn gerne. Falls Sie Anmerkungen haben, schreiben Sie bitte einen Kommentar, oder senden Sie mir eine Mail an info@prt.de.

Anforderungen von OLAP (Codd’sche Regeln)

Der OLAP-Begriff wurde 1993 von Edgar F. Codd geprägt. Codd verwendete den Ausdruck OLAP für eine Software, die in der Lage ist, Unternehmensinformationen hierarchisch zu gliedern. Er entwickelte 12 Regeln, die eine Anforderungsliste an ein OLAP-System darstellen. Diese sind als Codd’schen Regeln bekannt

  1. Multidimensionale Sicht auf die Daten (wichtigstes Kriterium für OLAP)
  2. Transparenz (klare Trennung zwischen Benutzerschnittstelle und der zu Grunde liegenden Architektur)
  3. Zugriffsmöglichkeiten (Import der Basisdaten aus externen oder operativen Datenbeständen)
  4. Konsistente Leistungsfähigkeit der Berichterstattung (möglichst schnelle Reporting-Funktionalität)
  5. Client-Server-Architektur (auf den Verwendungszweck optimierte Lastverteilung)
  6. Generische Dimensionalität (alle Dimensionen in ihrer Struktur und Funktionalität einheitlich)
  7. Dynamische Handhabung dünn besetzter Matrizen (dynamische Speicherstrukturanpassung)
  8. Mehrbenutzerunterstützung
  9. Unbeschränkte dimensionsübergreifende Operationen
  10. Intuitive Datenanalyse (direkte Navigation innerhalb der Datenwürfel)
  11. Flexibles Berichtswesen (Ergebnisse im Report frei verwendbar)
  12. Unbegrenzte Anzahl von Dimensionen (= n-Dimensionen) und Konsolidierungsebenen (15 bis 20 Dimensionen mit beliebig vielen Aggregationsstufen)

 Literatur:

Reinke, Helmut/ Schuster, Helmut: OLAP verstehen, Microsoft Press, (2000)

Held, Bernd/, Erb, Harmut, Advanced Controlling mit Excel, Franzis Verlag, (2006)

Wenn Ihnen dieser Beitrag gefallen hat, dann teilen  Sie ihn gerne. Falls Sie Anmerkungen haben, schreiben Sie bitte einen Kommentar, oder senden Sie mir eine Mail an info@prt.de.