Business Intelligence (BI) will dabei helfen, Datenschätze in Unternehmen zu heben. Dazu vereinigen diese Werkzeuge oftmals Informationen aus verschiedensten Quellen, ermöglichen schnelle Auswertungen und können über Dashboards stets den Überblick zu aktuellen Entwicklungen geben. Fabian Tschök von der Agentur Sandstorm erklärt in seinem Beitrag, warum das oftmals so verbreitete Excel für diese Aufgabe nicht besonders geeignet ist. In der Folge zeigt er auf, was spezielle BI-Tools können.
Inhaltsverzeichnis
Wozu überhaupt Business Intelligence?
Business Intelligence, kurz BI, gehört in der öffentlichen Wahrnehmung in die Kategorie der Digitalisierungs-Buzzwords, die man nicht ernst nehmen muss – zu Unrecht, wie ich finde. Die Menge an Daten, die in Unternehmen entsteht, ist schließlich immens. Gemeinhin werden Daten dabei als das neue Erdöl angesehen. Doch was nützen einem die vielen Ölquellen, wenn man über keine sinnvollen Fördermöglichkeiten verfügt?
Es gehört längst zum Tagesgeschäft, Daten in verschiedensten Systemen zu generieren, speichern und nutzen. Beinahe jedes Ereignis wird dafür dokumentiert: Kundengespräche & Leads in Salesforce, Telefonate im OMS, Meetings in Google-Docs-Protokollen, Websitebesuche in Google Analytics, Projektstatus in Jira, usw. usf.
Mein Punkt ist: Umfängliche Daten sind in den allermeisten Fällen bereits da. Was hingegen fehlt, ist ihre sinnvolle Verknüpfung und Auswertung.
Übrigens: Für den deutsche Mittelstand ist vielfach Excel nach wie vor das Allheilmittel der Datenanalyse. Warum ich darin ein Problem sehe? Darauf komme ich gleich zu sprechen. Wir schauen uns weiter unten außerdem an, wie eine gut organisierte Business Intelligence aussehen kann und welche Vorteile sie bietet.
Denn der Erfolg moderner Unternehmen begründet sich auch auf einer intelligenten und aussagekräftigen Datenanalyse. Durch die kontinuierliche Analyse geschäftsspezifischer Daten lässt sich präventiv erkennen, wo Chancen warten und Gefahren lauern. An den Erfolg knüpfen sich einige zu erfüllende Faktoren. Unter anderem: Agilität. Nahezu alle Business- und HR-Konferenzen fordern eindringlich Agilität von Unternehmen, Teams und Menschen. In der praktischen Umsetzung steckt dann noch jede Menge Potential.
BI für KMU: Status Quo
Die technischen Grundlagen sind auf jeden Fall inzwischen vorhanden. Bemerkenswerte Fortschritte hat es in den letzten Jahren und Jahrzehnten vor allem hinsichtlich „Effizienz“ und „Größe“ der verarbeitbaren Rohdatenmengen gegeben. Handelsübliche Computersysteme konnten Mitte der 90er Jahre ca. 40.000 Datensätze bearbeiten, bevor sie an Hard- und Software-Limits stießen. Bereits mit der nächsten Software-Generation und einem verbesserten Speichermanagement stiegen die Analysekapazitäten um den Faktor 10 auf 400.000 Datensätze. Seit den 2000ern tendieren die Kosten pro Datensatz gegen Null und die Rechenkapazität privater Computer bewegt sich in den Millionen.
Diese immense Rechenleistung wird in den meisten Fällen leider nur im einstelligen Prozentbereich abgerufen. Ein Grund dafür sind Datensilos.
Datensilos
Datensilos sind, wie der Name bereits erahnen lässt, abgegrenzte und für sich eigene Daten eines Systems, wie bspw. CRM-Daten, ERP-Daten, usw. Jedes Datensilo enthält die eigenen Daten und womöglich noch eigene Auswertungen.
Die Ursache dafür liegt in der typischen heterogenen Software-Landschaft und einer oft unzureichende Datenintegration. Doch was bedeuten diese Daten im Gesamtzusammenhang des Unternehmens? Werden Wissenssilos, sogenannte Flaschenhälse, bei einzelnen Teammitgliedern wahrgenommen, so wird in der Regel direkt versucht, das Wissen zu teilen und auf mehr Teammitglieder zu verteilen. Warum wird nichts für eine Zusammenführung von Datensilos unternommen? Sind die Quellsysteme zu komplex? Ist die Vernetzung technisch zu anspruchsvoll?
Das Ergebnis dieser Entwicklung im Mittelstand? „Business Intelligence by Excel.“
Excel
Microsoft Excel, als eines der am weitesten verbreiteten Business-Tools, wird in nahezu jedem Unternehmen verwendet. Am häufigsten werden dabei Daten händisch, manchmal mit Visual Basic oder durch Makros gesammelt, aggregiert und zu Berichten und Analysen zusammengefasst. Die starke Verbreitung und Bekanntheit machen es zu einem (auf den ersten Blick) vielseitigen Werkzeug für Geschäftsanalysen und Berichte.
Je mehr Plattformen, Systeme, Logins und Datensilos jedoch vorhanden sind, umso schwierig wird es, alle in einem System zu vereinen. An dieser Stelle kommen Tabellenkalkulationen an ihre natürlichen Grenzen. Die Nachteile der Tabellenkalkulationen als Business Intelligence Tools lassen sich folgendermaßen kategorisieren:
- Datenzuverlässigkeit: Daten in Tabellen ändern sich im Laufe der Zeit. Neue Einträge werden hinzugefügt, alte gelöscht und bei einigen ändern sich sogar die Werte im Nachgang. Im Laufe der Zeit und mit zunehmender Beteiligung von weiteren Benutzern ist es fast unmöglich zu wissen, welche Version nun die richtige ist („Single-Version of Truth“).
- Datenkomplexität: Je nachdem wie sich die Daten weiterentwickeln (z.B. mehr Quellen, weitere Makros, komplexere Formeln mit Zugriff auf unterschiedliche Tabellenblätter und Tabellen), desto herausfordernder wird es, Fehler und Inkonsistenzen zu beseitigen sowie ihren Ursprung zu finden.
- Zusammenarbeit & Zugänglichkeit: Im Allgemeinen sind Tabellenkalkulationen für jeweils einen Benutzer zur Zeit konzipiert. Daher ist es nicht möglich, gleichzeitig mit mehreren Personen an einer Tabellenkalkulation zu arbeiten, was zum Versenden von Tabellenkalkulationen per E-Mail oder dem Ablegen in Netzwerk-Ordnern mit geteiltem Zugriff führt. Daraus entstehen wiederum gern zahlreiche Versionen für verschiedene Benutzer mit potenziell widersprüchlichen Ergebnissen. Einige Tools versuchen, diese Lücke zu schließen, indem sie Tabellenkalkulation in die Cloud bringen. Das aber birgt mögliche Probleme mit der Datensicherheit.
- Zugriffsrechte: Tabellenkalkulationen bieten nur sehr vereinfachte Zugriffsrechte, d.h. Schreib- oder Leserechte sowie Passwortschutz. Eine komplexe Benutzerverwaltung auf Datenebene ist nicht vorgesehen. Dies führt wiederum zu verschiedenen Excel-Tabellen für verschiedene Nutzer mit verschiedenen Daten und potentiellen Fehlerquellen.
- Funktionalität: Erzeugte Berichte sind in Excel standardmäßig statisch. Der Vergleich verschiedener Zeiträume, Projekte, Teams, Produkte, Regionen, etc. ist machbar, jedoch recht umständlich. Eine vollständige Datenanalyse ist nur mit großem Zeitaufwand möglich. Soll der Bericht zudem in gewisser Weise interaktiv sein, so braucht es dafür umfangreiche Kenntnisse und die nötige Umsetzungszeit.
- Zusammengehörende Daten: Die Kombination und Zusammenführung verschiedener Arten von Daten, der Aufbau von Beziehungen zwischen verschiedenen Quellen ist sehr schwierig.
- Skalierbarkeit: Je komplexer die Datensätze werden, desto schwieriger wird es für lokale Desktop-PCs oder Tablets, die Verarbeitung responsiv und flüssig durchzuführen.
- Daten veröffentlichen: Eine automatische Veröffentlichung von Berichten und Daten in anderen Systemen (Intranets, Blogs, Websites, Drittanbieteranwendungen) oder der Versand per E-Mail an vordefinierte Empfänger ist nicht möglich.
Crux der Reports
Regelmäßige Reports, insbesondere die, die in größeren Zeitabständen verschickt werden, gleichen stets dem Blick in den Rückspiegel. Sie haben sicher eine Daseinsberechtigung. Sie sind sinnvoll, wenn es um einen retrospektiven Blick auf einen Zeitraum geht, dessen Auswertung nicht zeitkritisch ist. Der Übersicht halber ist dies insbesondere für Management Summaries ein übliches Mittel des Controllings – sind die Reports mit einer handvoll KPIs doch sehr bequem. Doch beschäftigen sich die Empfänger wirklich mit den Zahlen, oder wird nur geschaut, ob alles im sprichwörtlich „grünen Bereich“ ist?
Einer agilen Arbeitsweise steht all dies im Weg, sind die Reports im Moment des Versandes doch bereits veraltet. Prognosen über zukünftige Entwicklungen finden in Reports zudem eher selten statt.
Gleiches gilt für Auffälligkeiten. Werden solche erkannt, so ist in den meisten Fällen ein Vergleich zum vorangegangenen Zeitraum möglich. Alles darüber hinaus, ist meist nicht Teil des Reports und erzeugt im Sonderfall erheblichen Mehraufwand.
Das führt uns zur Crux: Die Reports sind per se nicht dynamisch. Sie bilden einen spezifischen Ausschnitt (inhaltlich und zeitlich) der Realität ab. Gibt es eine hohe Standardabweichung in den Daten, so muss manuell nachgeforscht werden, wie diese zustande kam. „Drilldowns“ über bestimmte Datengruppen oder zusätzliche Vergleiche sind nicht verfügbar und müssen händisch umgesetzt werden. Die Logik eines BI-Tools kann Excel per se leider nicht abbilden.
BI für KMU: Wie es aussehen sollte
Okay, genug geschimpft und gemeckert. Verlassen wir den „Problem Space“ und kommen ohne weitere Umschweife zum „Solution Space“.
Wissensinseln verbinden
Der größte Vorteil von Business Intelligence liegt in der Verbindung der bereits angesprochenen Datensilos. Starten wir mit einem vermeintlich trivialen Beispiel. Google Analytics oder Matomo gehören zum Rüstzeug des 21. Jahrhunderts. Die Einbindung der entsprechenden Skripte auf der eigenen Homepage geschieht teilweise automatisch. Doch wird mit den Daten auch gearbeitet?
Stellen wir uns einmal vor, welchen Mehrwert die Verknüpfung von Daten aus Google Analytics mit den Verkaufszahlen aus dem ERP und den Kundendaten des CRMs generieren kann:
- Mit Web-Analytics können Sie exakt nachvollziehen, wie sich Website-Besucher durch die Seiten navigieren, wo sie aussteigen und wo sie verweilen.
- Das ERP gibt zusätzlich Auskunft darüber, wie die zur Verfügung stehenden Ressourcen des Unternehmens verwendet werden. Somit lässt sich bspw. nachvollziehen, welche Produkte/Dienstleistungen bestellt wurden und durch wen.
- Das CRM zeigt zusätzlich auf, wie die Kommunikation mit den Kunden stattfand.
Verbinden Sie diese Datensilos durch ein BI-Tool, können Sie die gesamte Customer Journey sehr einfach visualisieren und nachvollziehen. Die Analyse offenbart in der Folge Verbesserungspotentiale entlang sämtlicher Teilbereiche. Wo gibt es Unklarheiten auf der Website? Wie einfach ist der Bestellvorgang? Wie lange dauert der Versand zum Kunden? Gibt es Retouren? Wieso wird Ware retourniert? Wie zufrieden sind die Kunden? Und so weiter und so fort.
Die Macht der Dashboards
Der Dreh- und Angelpunkt in BI-Tools sind üblicherweise Dashboards. Dashboards vereinen thematisch zusammengehörende Analysen. Diese speisen sich wiederum aus den verschiedenen Datensilos und machen sie das erste Mal kombiniert greifbar.
Dashboards eignen sich ideal zur Visualisierung von Projekten, Abteilungen (Marketing, Sales, Produktion, Finanzen, …), oder Performance und Operations. Der Clou: Jedes Dashboard lässt sich durch Filter und gezieltes User Management auf die entsprechenden Zielgruppen, wie bspw. Geschäftsführung, Management, Teamleiter, uvw. anpassen. Jeder bekommt somit stets die für ihn relevanten Zahlen und das quasi auf Knopfdruck. Die Anwendungsfälle sind schier unermesslich.
Dashboards können zudem auf verschiedenste Art und Weise interaktiv sein. Das reicht vom einfachen Anzeigen von Werten, wenn auf sie mit der Maus gezeigt wird, bis hin zur Nutzung einzelner ausgewählter Chart-Werte als komplexe Filtermöglichkeiten, auf die das gesamte Dashboard reagiert und somit die Schaffung eines benutzerspezifischen Drilldowns ermöglicht.
Diese Interaktivität sorgt außerdem dafür, dass Zahlen und Daten plötzlich viel attraktiver sind und wirken. Dies spornt jeden an, sich ernsthaft mit den zahlreichen Facetten der Geschäftsdaten zu beschäftigen und nicht nur auf den monatlichen Report zu warten!
Lesen Sie dazu auch: Key Performance Indicators festlegen und in Dashboards verfolgen…
Generelle Vor- und Nachteile der BI-Tools
Innerhalb der letzten Jahre konnte man generell beobachten, dass sich der Bereich der Datenanalyse rasanter denn je weiterentwickelt hat. Zahlreiche BI-Tools, vor allem als Software as a Service (SaaS), wurden veröffentlicht. Datenanalysetools sind zunehmend keine Nischenprodukte mehr und sie werden immer einfacher zu bedienen für Endnutzer: Vom ersten Kontakt mit dem BI-Tool bis zur fertigen Analyse vergehen jetzt Minuten und keine Tage mehr. Dieser Wandel der BI-Tools ist sehr begrüßenswert, denn der Nicht-Einsatz wird sonst doch oftmals mit fehlender Zeit und zu wenig Know-how begründet.
Diese Werkzeuge setzen dabei vermehrt auf eine Registrierung via Facebook, Twitter oder Google, um schnell neue Nutzer zu gewinnen. Ebenso achten sie darauf, die Zeit bis zur ersten Analyse durch die schnelle und simple Integration vorhandener Daten deutlich zu verkürzen, etwa über Google Sheets, CSV- und Excel-Dateien oder generische SQL-Importer. Diese Herangehensweise reduziert die technische Hürde der Tools spürbar und öffnet diese zunehmend für kleine und mittelständische Unternehmen, private Anwender und Non-Professionals. Des Weiteren ist insgesamt zu beobachten, dass die Benutzeroberflächen stark vereinfacht wurden.
Ein weiterer Trend ist der Versuch, sinnvolle Analysen komplett automatisch aus den gegebenen Daten zu erzeugen. Die Bandbreite reicht in der Ausführung von Trial-and-Error bis hin zur Nutzung von Machine Learning.
Neben solchen Vorteilen gibt es natürlicherweise auch Nachteile. Für BI-Tools gilt, dass die Analysen nur so gut sind, wie die zur Verfügung gestellten Daten. Ist die Datenbasis bspw. inkonsistent, unvollständig oder bildet nicht die tatsächliche Unternehmenswelt ab (sprich: geschönte Daten), so ist es nur logisch, dass die Analysen keinen Mehrwert bieten werden.
Darin liegt jedoch auch ein Vorteil: Denn BI-Tools können diese Ungereimtheiten sofort sichtbar machen. Ausgestattet mit diesem neuen Wissen lassen sich anschließend ganz gezielt Verbesserungsmaßnahmen angehen, im ersten Schritt zumindest für die internen Daten.
Ehemalige Nachteile, wie etwa komplexe und unverständliche Benutzeroberflächen, aufwändige Installation und Inbetriebnahme oder hohe Lizenzkosten gehören im Großen und Ganzen der Vergangenheit an.
Flexibilität in der Darstellung
BI-Tools sind mittlerweile so simplifiziert, dass nahezu jedes Teammitglied seine eigenen Dashboards mittels Drag-and-Drop zusammenstellen kann. Dedizierte Daten-Analysten, die Datenbankintegrationen schreiben und die Daten anschließend mittels SPSS auswerten, sind in vielen Fällen nicht mehr notwendig. Einige Tools bieten sogar automatisiert Vorschläge für Visualisierungen auf Basis der ausgewählten Daten an.
Einzige Voraussetzung für sinnvolle Analysen: Nutzer sollten den Inhalt der Datenbasis in Grundzügen kennen und wissen, welche Daten sich hinter den Begriffen versammeln. Gerade Unternehmensdaten werden schnell komplex. Mit steigender Anzahl angebundener Datenquellen steigt natürlicherweise die Komplexität – zumindest noch.
Erste Tools arbeiten mit Hochdruck daran, Konzepte aus der Welt der künstlichen Intelligenz zu integrieren und stetig zu verfeinern. Das Ziel ist dabei, dass Software in Zukunft selbstständig erkennt, welche Visualisierungen für die jeweiligen Daten den meisten Mehrwert bieten.
Gefällt dir dieser Artikel?
Dann trage dich jetzt ein ins „Update am Montag“ und bleibe über neue Inhalte auf dem Laufenden. Kein Spam! Bereits knapp 2.000 Leser:innen sind dabei.
Transparenz wo nötig
Transparenz ist in jeglicher Hinsicht super – wenn möglich. Je nach Unternehmen gibt es verschiedene Prämissen in Bezug auf bspw. Datenschutz und Geheimhaltung, die einzuhalten sind. Dies gilt insbesondere dann, wenn sensible Unternehmensdaten verarbeitet werden. Entsprechend sollte das eingesetzte BI-Tool über ein User Management verfügen, welches sich sehr feingranular einstellen lässt. Dabei wird bspw. zwischen den Ebenen Dashboards, Nutzer, Gruppen und Datenzugriff unterschieden. Je nach Ebene, kann der Datenkontext dann individuell eingestellt werden. Das Thema gewinnt nochmals an Fingerspitzengefühl und Komplexität, wenn BI-Tools in der Cloud gehostet sind.
Insights teilen
Aus möglicher Transparenz folgend, ergeben sich viele weitere Verwendungszwecke der erstellten Analysen. BI-Tools ermöglichen verschiedenste Arten des Teilens von Dashboards und Analysen. Ein typischer Fall aus der agilen Softwareentwicklung ist das Teilen von Statistiken des aktuellen Sprints und die Veröffentlichung im entsprechenden Intranet des Entwicklerteams. Gleichfalls kann man Kunden Einsicht in ihre Projekte und die dort angefallenen Aufwände geben. Dies erhöht das Verständnis für die geleistete Arbeit und macht nachträgliche Preisdiskussionen obsolet.
Fälle wie diese lassen sich zu Dutzenden finden.
Transparenz und damit einhergehende Vertrauenssteigerung fördert nachweislich die Motivation bei allen Beteiligten und sorgt für eine angenehme Arbeitsatmosphäre.
Beispiele für solche Werkzeuge
Konkrete Empfehlungen für solche Tools auszusprechen, ist schwierig: Die Anwendungsfälle der Nutzer unterscheiden sich einfach zu stark. Im gleichen Maße sind die Tools in Bezug auf Funktionsumfang, Preismodell und Datenquellen höchst unterschiedlich. Folgend habe ich Ihnen einmal beispielhaft Werkzeuge in zwei Kategorien aufgeteilt, die mir in meiner täglichen Arbeit bereits begegnet sind.
Einzelne Grafiken:
Dashboards:
Fazit
BI-Tools sind einen langen Weg gegangen: von komplexen Profianwendungen im Forschungs- und Konzernkontext bis hin zur einfachen Endanwendung für Privatanwender, die in der Cloud läuft. Alle Verbesserungen der letzten Jahre unterstützen den sehr begrüßenswerten Weg, Datenanalysetools möglichst breit zur Verfügung zu stellen.
Es bleibt abzuwarten, welche Fortschritte Machine Learning bringen wird und was bei der Erstellung von Prognosen hier auf uns zukommt. Bis zur vollautomatischen Analyse ist es allerdings schon heute nicht mehr weit.
Was dann noch fehlt, sind unternehmensspezifische Handlungsvorschläge.
Dieser Artikel gehört zu: UPLOAD Magazin 78
Buzzwords und Hypes gehören im Digitalen zum Alltag und manchmal sind sie enorm wichtig und manchmal nur heiße Luft. Im Schwerpunkt dieser Ausgabe schauen wir uns an, warum Themen und Begriffe immer wieder in die Schlagzeilen geraten und wie Sie Rohrkrepierer besser von Revolutionen unterscheiden. In einem weiteren Beitrag nehmen wir uns einige aktuelle Marketing-Hypes vor und stellen Wunsch und Wirklichkeit gegenüber. Außerdem erklären wir, was hinter dem Begriff Business Intelligence steckt. Zwei Bonus-Artikel erklären darüber hinaus Googles neue Linkattribute und geben Freelancern 11 praktische Tipps für eine bessere Work-Life-Balance.
- Weitere Artikel aus dieser Ausgabe kostenlos auf der Website lesen ...
- Bleib auf dem Laufenden über neue Inhalte mit dem „Update am Montag“ …
Schon gewusst? Mit einem Zugang zu UPLOAD Magazin Plus oder zur Content Academy lädst du Ausgaben als PDF und E-Book herunter und hast viele weitere Vorteile!
Fabian stellt, zusammen mit seinem Team bei Sandstorm, in Softwareprojekten den Status Quo in Frage und hilft anderen damit, über sich hinaus zu wachsen. In seiner Freizeit absolviert er aktuell seinen Master in Medien- und Kommunikationsmanagement, fotografiert und fährt möglichst alles mit dem Rad.