Round Table Big Data
Bild: www.timeline.at/Rudi Handl
Wilfried Sihn, Geschäftsführer von Fraunhofer Austria & Leiter des Instituts für Managementwissenschaften an der TU Wien, Mirko Waniczek, Executive Director von Contrast EY Management Consulting & Fachlicher Leiter des Controllertages, sowie Ingrid Kriegl, Gründerin & Geschäftsführerin von Sphinx IT Consulting (v.l.n.r.) beim Monitor Round Table.
Bild: www.timeline.at/Rudi Handl

Monitor Round Table "Big Data"

Die Essenz der Daten

Daten allein machen nicht glücklich. Man muss auch drauf schauen, dass man sie hat, wenn man sie braucht. Außerdem muss man wissen, was man mit ihnen anfangen will. Die Teilnehmer an unserem Round Table zum Thema "Big Data" hatten einige nützliche Tipps parat.

von: Rudolf Felser

Die Datenwelle rollt. Eine gemeinsame Studie von Seagate und IDC prognostiziert, dass im Jahr 2025 rund um den Globus 163 Zettabyte – eine 163 gefolgt von 21 Nullen – generiert werden. Zum Vergleich: 2016 waren es 16 Zettabyte. Das ist einerseits eine gigantische Herausforderung, andererseits aber auch eine fantastische Chance. Denn aus diesen Daten könnten ungeahnte Erkenntnisse gewonnen werden – wenn man weiß, was man damit anfängt. Genau hier liegt der Hund begraben, wie Ingrid Kriegl, Gründerin und Geschäftsführerin von Sphinx IT Consulting, Wilfried Sihn, Geschäftsführer von Fraunhofer Austria und Leiter des Instituts für Managementwissenschaften an der TU Wien, sowie Mirko Waniczek, Executive Director von Contrast EY Management Consulting und Fachlicher Leiter des vom Controller Institut veranstalteten Österreichischen Controllertages, bei der Monitor-Gesprächsrunde übereinstimmten.

Zum Anfang eine Begriffsdefinition: Wo fängt Big Data an? Wo hören normale Daten auf? Was ist der Unterschied?

Ingrid Kriegl: Die Unterscheidung, ob Big Data oder nicht, ist für mich und die Kunden nicht so wichtig. In der IT versteht man darunter meistens große Mengen von nicht-strukturierten Daten, während die Kunden aus meiner Erfahrung von Big Data sprechen, wenn es um viel mehr Daten geht als sie es gewohnt sind.

Gibt es bei Ihren Kunden vielleicht einen "Durchschnittswert", wo Big Data anfängt?

Kriegl: Es wird dann für die Kunden relevant, wenn der Zuwachs sehr stark ist. Es geht nicht so sehr um die Menge, sondern die Zeit in der sich die Datenmenge verdoppelt. Wenn sie zum Beispiel neue Datenquellen erschließen, wie Messdaten oder das Kundenverhalten, und der Zuwachs plötzlich sehr groß ist, dann ist es plötzlich eine andere Welt. Dann brauchen sie auch andere Technologien, andere Auswertungs-Werkzeuge, andere Mitarbeiter. Bisher war man ein relativ stetiges Datenwachstum gewohnt. Solange es im gewohnten Muster bleibt, spricht man in unserem Kreis nicht von Big Data.

Was hat man früher gesagt, als der Begriff "Big Data" noch nicht so geläufig war?

Mirko Waniczek: Früher hat es den Begriff Massendaten gegeben.

Wilfried Sihn: Da war man noch nicht so modern. Big Data hört sich spannender an.

Kriegl: Es hört sich vor allem teuer an und auch ein bisschen abschreckend. Für die Industrie ist es natürlich gut, neue Begriffe zu bringen. Denn dann kann man mit neuen Produkten kommen und bekommt Termine. Für die Kunden ist es aber oft abschreckend.

Sihn: Big Data ist wirklich nichts Neues. Ich habe im Bereich Instandhaltung promoviert, das ist jetzt 30 Jahre her. Schon damals habe ich den Maschinenbauern dieser Welt erklärt, dass sie eigentlich einen großen Topf brauchen, in dem sie die Daten aller ihrer Maschinen sammeln. Das müssen sie dann dreimal umrühren, auswerten, und was sie daraus gelernt haben ihren Kunden wieder zurückspielen. Aber damals war die Technologie dafür nicht da.

Kriegl: Hätten sie das gewollt?

Sihn: Wenn sie es gekonnt hätten, dann schon. Es gab damals bereits Mini-Ansätze, zum Beispiel Tele Operating usw. Dadurch, dass sich die Technologie so dramatisch entwickelt hat, sind wir heute in der Lage, Massendaten in Echtzeit auszuwerten. Unstrukturierte Daten, um es landläufig auszudrücken, sind in der Masse aussagelos. Die Kunst besteht darin, die richtigen Methoden einzusetzen – aus Big Data Smart Information zu machen, für die jemand bezahlt. Wie tue ich das? Da reden wir einerseits von neuer IT-Technologie – wie Cloud und die heute verfügbare Rechenleistung – und auf der anderen Seite haben sich auch die Auswertungsmethoden – mit Deep Learning, Machine Learning, etc. – verändert. Deshalb sind wir heute in der Lage, Big Data tatsächlich in Smart Information umzusetzen.

Waniczek: Es gibt zwei unterschiedliche Möglichkeiten, Big Data abzugrenzen. Frau Kriegl hat das über den Zuwachs abgegrenzt und als primär unstrukturierte Daten definiert. Aus der Controlling- und Finance-Community kommend, die tendenziell vom Thema Big Data weit weg ist – weil das eher ein Thema der Wertschöpfungskette und nicht des Finanzbereiches ist –, ist es wichtig strukturierte und unstrukturierte Daten auseinanderzuhalten, unabhängig vom Volumen. Unstrukturierte Daten sind ein Stück schwerer integrierbar oder mit strukturierten Daten zu verbinden. Aus dem Finanzbereich heraus handelt es sich ab dem Zeitpunkt um Big Data, wenn ich höherwertigere Verfahren brauche, um sie zu analysieren. Wenn ich sie nicht mehr mit einer Pivot-Tabelle auswerten kann, sondern ein intelligentes Werkzeug brauche.

Mein allererster öffentlicher beruflicher Auftritt war im Jahr 1996, bei einer Branchenkonferenz des Controller Instituts zum Controlling im Einzelhandel, mit dem Thema Data Mining im Einzelhandel. Data Mining als Schlagwort ist schon relativ alt. Dass ich mit Bon-Daten von der Kassa etwas anfangen kann ist ein Thema, das schon über 20 Jahre bekannt ist. Man konnte auch damals schon etwas damit machen. Es war nur unverhältnismäßig teuer und zum Teil viel Manpower notwendig. Das Thema Data Mining ist in der Praxis aber nicht wirklich vom Fleck gekommen.

Sihn: Daten sind das Öl der Zukunft. Die Frage lautet für jedes Unternehmen, egal aus welcher Branche: Wie schaffe ich es aus Daten einen Vorteil zu erzielen? Durch die neuen Technologie, die wir heute haben, sind wir in der Lage Daten viel besser auszuwerten als früher und daraus einen Nutzen zu generieren. Das haben die Apples und Googles begriffen, die machen das schon ziemlich gut und in Zukunft noch viel besser. Davon müssen wir lernen.

Kriegl: Technologisch ist alles gelöst, es ist leistbar, es gibt fast keine Datenmenge mit der man nicht umgehen kann. Ich sehe jetzt einen komischen Trend: Die Unternehmen haben die Daten und Lösungen zur Verfügung und überlegen krampfhaft, was sie damit machen sollen. Da wird das Pferd von der komplett falschen Seite aufgezäumt. Man sollte sich überlegen, was man erreichen will und welchen konkreten Nutzen man erzeugen will. Wenn ich welche Informationen über meine Kunden hätte oder meinen Mitarbeitern welche Tools zur Verfügung stellen könnte, was würde es mir dann bringen? Das sind intelligente Fragestellungen.

Die Aufgabe eines Unternehmens ist es, diese Fragestellungen zu destillieren, und nicht auf die vorhandenen Daten zu schauen und zu überlegen, was man mit ihnen machen soll. Wenn ich weiß, was ich will, kann ich schauen ob ich die nötigen Daten habe oder nicht und wo ich sie herbekomme.

Sihn: Ich würde Ihnen gerne ein bisschen widersprechen. Es gibt bei der Datenanalyse zwei Wege: den österreichischen und einen anderen. Der österreichische Weg heißt "schau'n ma mal" und er hat absolut seine Berechtigung. Ich kenne mehrere Projekte, bei denen die Firmen nicht wissen, was sie mit ihren Daten anfangen sollen. Wir analysieren diese Daten um zu erkennen, was man daraus schließen könnte. Das ist durchaus ein Weg. Der bessere Weg für mich ist der, zielorientiert vorzugehen und sich zu überlegen, wie man seinen Nutzen erzielen kann, und dann retrograd vorzugehen und die dafür benötigten Daten zu identifizieren.

Wir stellen das immer so einfach dar: Wir haben Daten und analysieren sie. Die Realität ist in der Regel aber eine andere. Man braucht mehrere Datenquellen. Die Kunst besteht darin, diese Datenquellen zu verknüpfen um daraus Schlussfolgerungen treffen zu können.

Sie bekommen zum Beispiel von einer Maschine die Information über einen Werkzeugbruch. Sie wissen also, wenn dieser Datensatz kommt ist das Werkzeug kaputt. Wenn dieser Datensatz wieder kommt, ist das Werkzeug wieder kaputt. Das nutzt mir relativ wenig. Aber es gibt auch andere Datenquellen, zum Beispiel Messprotokolle aus dem Qualitätswesen. Wenn man die miteinander verknüpft und auf Zusammenhänge achtet kann man daraus schließen, wann es wieder zum Werkzeugbruch kommt.

Bild: www.timeline.at/Rudi Handl
"Wer soll der Treiber hinter der Entwicklung neuer Geschäftsmodelle sein?" - Mirko Waniczek, Contrast EY ­Management Consulting
Bild: www.timeline.at/Rudi Handl

Waniczek: Ein Problem liegt auch darin, dass es schwer zu verorten ist wer diese intelligenten Fragen stellen soll. In einem Fall wie Ihrem Beispiel ist es vielleicht etwas leichter, der fachorientierte Maschinenführer an der Maschine könnte sich diese Logik vielleicht überlegen. Wenn es komplexer wird, beispielsweise wie man aus diesen Daten neues Geschäft generieren könnte, etwas anderes als man bisher gemacht hat, wird das schon ziemlich schwer zu verorten, wer auf diese gute Idee kommen soll. Es ist schwierig zu formulieren, was diese Person können soll. Das soll ein "Wunderwuzzi" sein, von Geschäftsmodellinnovation bis zur statistischen Auswertung. Wer soll der Treiber hinter der Entwicklung neuer Geschäftsmodelle sein?

Sihn: Es ist sehr schwierig für Leute aus egal welchem Arbeitsgebiet, den Blick über ihre Grenzen zu werfen um zu erkennen, was man tun kann. Es wird viele neue Berufsbilder geben. Menschen die in der Lage sind herauszufinden, welche Datenverbindungen überhaupt sinnvoll sind um bestimmte Möglichkeiten zu erschließen. Das ist völlig branchenunabhängig. Es wird völlig neue Jobs und neue Anforderungen geben.

Nicht nur die Menge an Daten, sondern auch ihre Qualität ist wichtig. Gibt es nicht auch Unternehmen die erst einmal anfangen sollten, die von ihnen selbst generierten Daten ordentlich zu analysieren, um daraus etwas zu gewinnen?

Sihn: Schon vor 20 Jahren gab es extrem viele Daten, nur konnte man damit nichts anfangen. Die sind einfach angefallen und in einem schwarzen Loch verpufft. Das ist nichts Neues. Generell: Je weniger Daten Sie haben, umso einfacher und schneller kommen Sie zu weniger Ergebnissen – umso weniger Chancen haben Sie.

Frau Kriegl, wie sieht es denn bei Ihren Kunden aus? Kommen die eher mit kleinen Datenprojekten zu Ihnen oder sind es heute doch die Massendaten, die die Leute bewegen?

Kriegl: Wir arbeiten hauptsächlich für Großkunden und da sind es zwangsläufig große Datenmengen. Mit normalen Datenmengen kann heute jeder umgehen, die Technologie ist gut. Aber wenn die Datenmengen stark steigen, bekommt man Performance-Probleme, wenn man neue Datenquellen dazunimmt, bekommt man Datenschutz-Probleme – das macht in Summe die Probleme. Hauptsächlich ist die Schwierigkeit, wie man die analysierten Daten darstellt, damit sie jemand versteht. Da gibt es jede Menge Möglichkeiten und das Know-how der Kunden ist nicht sehr breit. Dann kommen oft irgendwelche Diagramme heraus, die man sich auch sparen könnte, weil die Aussagekraft nicht gegeben ist. Da kommen die neuen Berufsbilder ins Spiel.

Sihn: Ich habe im Jänner einen Datenspezialisten der Universität Siegen eingestellt. Das hatte für mich einen unglaublichen Lerneffekt. Ein kleines Beispiel: Die Aussagequalität von Machine Learning ist ungefähr so, wie wenn ich Ihnen sagen würde, dass auch ich ein Auto fahre. Sie können die Wahl zwischen hunderttausend verschiedenen Autos treffen. Beim Begriff Machine Learning gibt es tausende, in irgendwelchen Nuancen andere Methoden. Die Kunst ist, die richtige Methode anzuwenden. Es ist ein sehr breites Wissenschaftsfeld, diese Methoden zu qualifizieren, zu beurteilen und richtig einzusetzen. 

Waniczek: Nach oben hin ist viel Platz da. Trotzdem schleppen wir an der Basis einen Riesen-Rucksack mit, denn die Datenqualität ist tendenziell nicht optimal. Die Stammdatenpflege funktioniert nur begrenzt gut, weil es oft nur schwer festzumachen ist wer für die Datenqualität zuständig ist. Sind es lauter einzelne Töpfchen, für die einzelne Personen zuständig sind, oder gibt es darüber jemanden?

Ich sehe das ein bisschen durch die Management-Brille, weil ein Gutteil unserer Projekte sich damit beschäftigt, dass wir es schaffen ein Nadelöhr in Richtung Management zu bilden. Big Data hat damit indirekt zu tun, denn in Richtung Top Management wird Information hochverdichtet. Beim Kanalisieren des Reporting in Richtung Management gibt es das Bild einer "Single Source of Truth" – einer autorisierten Quelle, aus der das Management-Reporting kommt. Da stellt sich die Frage, wer für die Datenqualität dieser Single Source of Truth zuständig ist. Bei primär finanziellen Kennzahlen könnte man es vielleicht im Controlling verorten. Aber das kann man über die ganze Wertschöpfungskette nicht aufrecht erhalten. Das Controlling kann nicht für Logistik-, Produktions oder Vertriebsdaten zuständig sein. Aber dort ist das große Datenvolumen.

Damit sind wir wieder in einem Spannungsfeld: Was wir oben über dieses Nadelöhr versucht haben zusammenzubinden, das hält man nach unten nicht durch. In den Vorsystemen muss jemand dafür zuständig sein, dass die Datenqualität stimmt.

Sihn: Das kann ich nur unterstreichen. Wenn ich in ein IT-System hinten Mist reinschiebe, kann vorne kein Kotelett rauskommen. Mit vielen Daten, also viel Mist, kommt vorne noch mehr Mist raus. Die Datenqualität ist entscheidend. Eine weltbekannte österreichische Firma hat gerade dieses Problem: Sie hat Unmengen an Daten, aber die Qualität ist katastrophal. Man müsste eigentlich zuerst Mann-Jahre investieren, um die Daten auf Vordermann zu bringen.

Herr Waniczek, Sie haben vorhin die "Wunderwuzzis" angesprochen, die Datenspezialisten oder Data Scientists, die aus den Daten Nutzen generieren. Das müssen ja Mitarbeiter sein, die sich nicht nur mit den Daten auskennen, sondern auch mit den Themen im jeweiligen Bereich. Wären Controller nicht prädestiniert für diesen Job? Controller treffen doch die ganze Zeit Entscheidungen auf Basis von Daten.

Waniczek: Ich habe mich unlängst erst mit diesem Thema beschäftigt, da schlagen zwei Herzen in meiner Brust. Ich würde natürlich gerne alles dem Controlling zuschaufeln, aber es gibt eine gewisse Grenze. Wenn Sie zum Beispiel Strom vertreiben, dann sind wesentliche Datenquellen Ihr Vertragsmanagement-System, Fakturierungs-System oder Ihr CRM-System. Das ist beispielsweise primär kein System, auf dem das Controlling sitzt. Um zu erkennen, ob ein Kunde abwanderungsgefährdet ist, besonders preisbewusst ist, ein Bundle will oder Öko-Strom bevorzugt, dazu muss man das Geschäft verstehen und nicht nur "Zahlen schaufeln". Man muss wissen, was vom Markt gefordert wird. Insofern gibt es da eine Grenze: Wenn es einen Data Scientist gibt, der das Geschäft verstehen und mit den CRM-Daten etwas anfangen soll, dann ist es wahrscheinlich besser in einem Fachbereich aufgehoben.

Sihn: Wir haben gerade ein sehr großes Projekt und da hat sich genau diese Fragestellung ergeben. Man braucht in diesem konkreten Fall eigentlich drei Spezien: Jemanden, der ein Datenbanksystem hat, das die Basis darstellt um diese Analysen durchzuführen. Das war in diesem Fall Watson von IBM. Die haben zwar eine super Maschine, aber keine Ahnung, was sie damit anfangen sollen. In unserem Fall war noch das AIT dabei. Das AIT hat super Methoden-Wissen, aber sie wissen nicht, was sie mit den Methoden anfangen sollen. Dann kam Fraunhofer ins Spiel, wir haben das Applikations-Wissen. Diese drei zusammen sind dann in der Lage, Lösungen zu generieren. Der eine kennt das Ziel, das erreicht werden soll, der andere weiß, welche Methoden eingesetzt werden müssen und der dritte weiß am besten, wie man diese riesigen Datenmengen hin und her schaufeln kann, damit dann auch tatsächlich etwas dabei rauskommt.

Bild: www.timeline.at/Rudi Handl
"Wie eine App aussieht, wie etwas dargestellt wird, das macht den Unterschied." - Ingrid Kriegl, Sphinx IT Consulting
Bild: www.timeline.at/Rudi Handl

Ist dann der Data-Scientist der falsche Weg? Wird da einfach ein Job geschaffen, dem man ein Problem zuschieben kann, das eigentlich jeden im Unternehmen betrifft?

Sihn: Aus meiner Sicht ist das Thema Datennutzung ganz allgemein eine generelle Unternehmensaufgabe, die vom Pförtner bis zum Koch und Generaldirektor alle betrifft. Aber ich brauche eine zentrale Stelle im Unternehmen oder einen externen Dienstleister. Aber wie auch immer, das Unternehmen braucht eine zentrale Funktion, die dieses Wissen und die Hardware hat, oder in die Cloud eingebunden ist, um das durchzuziehen. Dann müssen die Fachabteilungen definieren, was sie brauchen könnten, um einen Nutzen zu generieren. Der Koch muss dann beispielsweise analysieren, was die erfolgreichste Mahlzeit ist. Bei Volkswagen in Wolfsburg ist das die Currywurst. Wenn es Currywurst gibt verkauft die Kantine doppelt so viele Mittagessen als sonst. Das ist natürlich relativ einfach, aber man könnte es auch viel dedizierter analysieren. Auch der Koch hat also Interesse an bestimmten Datenanalysen. Es geht um eine generelle Unternehmensfunktion mit einer Zentrale. Das muss nicht in der Firma selbst sein, sondern wird in den allermeisten Fällen eine Dienstleistungsfunktion sein.

Kriegl: Auf jeden Fall braucht es ein heterogenes Team. Den Data Scientist brauchen wir zusätzlich, weil dessen Haupt-Qualifikation ist, wie die Daten dargestellt werden. Ich analysiere und wie muss ich es visualisieren, damit der andere möglichst intuitiv Erkenntnisse daraus ziehen kann? Man isst immer mehr mit den Augen, egal ob Top Management oder Endkunde. Wie eine App aussieht, wie etwas dargestellt wird, das macht den Unterschied.

Sihn: "Data Scientist" ist eine Aussage, wie wenn Sie sagen "Ingenieur". Wenn man es mit Ingenieuren vergleicht: Es gibt Verfahrenstechniker, Maschinenbauer, Wirtschaftsingenieure, usw. Dasselbe gibt es bei den Data Scientists. Es gibt unterschiedlichste Fachgebiete, etwa Datenbankspezialisten, Analysespezialisten, Methodenspezialisten und was weiß ich was.

Kriegl: Aber die hat man immer schon gehabt. Für mich ist das die neue Qualität, die dazukommt, und warum wir überhaupt einen neuen Titel erfunden haben. Sonst könnte man sagen: Einer, der Daten auswerten kann.

Sihn: Ander ausgedrückt: Die eierlegende Wollmilchsau, den "Wunderwuzzi", der alles kann, wird es auch dort nicht geben.

Waniczek: Vielleicht ist das ein bisschen symptomatisch, wo wir jetzt um dieses Organisationsthema kreisen. Letztendlich kann man das nicht dogmatisch betrachten. Erlaubt ist was funktioniert. Das kann unternehmensspezifische Lösungen erfordern. Das ist natürlich abhängig von der Größe einer Organisation, aber man geht davon aus, dass sich das Rollenbild des Data Scientist aufspaltet: Es gibt den Data Architect, den es möglicherweise immer schon gegeben hat, weil sich auch vorher schon jemand mit Architekturfragen auseinandergesetzt hat. Das meiner Ansicht nach neuere bei Data Scientists ist das Modellierungsthema, sozusagen mathematische Verfahren, Algorithmen zu entwickeln und anzuwenden. Dann gibt es noch den Data Artist. Das ist der, der die Information verkauft. Ein Team wird sicher zweckmäßig sein, weil es um die Verbindung von unterschiedlichen Daten geht. Wie man das organisatorisch aufhängt, würde ich nahezu offen lassen.

In einem konkreten Fall, als wir uns mit dem Thema Data Science im Energievertrieb auseinandergesetzt haben, gab es mehrere Möglichkeiten: Es gab das Controlling, bei dem man schon vorher gewusst hat, dass es wahrscheinlich thematisch am schlechtesten hinpasst. Dann gab es noch die Vertriebs-, die Marketing- und so etwas wie eine IT-Anforderungsmanagement-Abteilung. Damit habe ich mehrere Möglichkeiten.

Wie sieht es bei den Unternehmen hinsichtlich externen Daten aus. Gibt es Berührungsängste, diese zu verwenden?

Kriegl: In meinem Kundenkreis ist das im größeren Stil noch nicht vorgekommen.

Sihn: Im industriellen Bereich geht es nicht darum, Daten einzukaufen. Das ist im Handel natürlich ein ganz anderes Thema. Einfaches Beispiel: Wenn Sie heute Abend nach Hause gehen und sich bei einem Versandhändler im Internet Unterhosen ansehen und morgen Früh rufen Sie Google auf, dann werden Sie dort rechts auf dem Bildschirm lauter Unterhosen sehen. Wo kommen die her? Haben Sie die Zustimmung dafür gegeben, dass die Ihre Daten weitergeben?

Kriegl: Ja, denn Sie haben Ihr Cookie nicht gelöscht.

Sihn: Derjenige der glaubt, dass über ihn kein Profil im Internet existiert, der möge weiterschlafen. Das ist heute gang und gäbe und das wird noch viel dramatischer.

Kriegl: Die Leute wissen nicht, dass ihr PC sich das merkt und sie das selbst in der Hand haben.

Sihn: Im Einzelhandel ist der Einkauf von Daten sicher ein riesengroßes Thema. Wenn Sie sich heute zum Beispiel entschließen einen Anzug zu kaufen und gehen ins Geschäft, dann wird mit 99,5-prozentiger Wahrscheinlichkeit genau das im Schaufenster ausgestellt, was Sie überhaupt nicht interessiert. Das wird in Zukunft anders sein. Der Laden erkennt, dass jemand kommt – sein Smartphone verrät ihn. In dem Moment kauft er in Realtime das Profil des potenziellen Kunden. Es gibt auch kein Schaufenster mehr, es gibt riesige Videowalls. Wenn der Kunde dann fünf Meter davor steht, werden die Unterhosen angezeigt, die er sich gestern angesehen hat. Wenn er dann auch noch den Laden betritt sagt eine Stimme aus dem Hintergrund: "Guten Morgen Herr Müller, schön, dass wir Sie nach zwei Jahren wieder einmal bei uns begrüßen dürfen!"

Waniczek: Das Hauptproblem ist, dass dieser Shop leider nicht so ein großes Lager haben wird wie Amazon. Die Unterhose wird also nicht da sein. Dadurch wird der Impulskauf schwer.

Sihn: Aber auch da wird es massive Umwälzungen geben, auch was das gesamte Logistiksystem angeht. Weil Sie gerade Amazon ansprechen: Brauche ich immer alles vorrätig oder bin ich heute so flexibel, dass es mir reicht wenn ich die Unterhose in 24 Stunden nach Hause geliefert bekomme.

Waniczek: Aber dann erkenne ich den Vorteil ins Geschäft zu gehen nicht mehr, wenn ich das Bedürfnis nicht dort befriedigt bekomme. Aber es gibt andere lustige Geschäftsideen. Zum Beispiel einen Schuhhändler in Südamerika, der eine App gelauncht hat. Die erkennt, wenn ein Kunde in ein Konkurrenzgeschäft geht, dann einen Alarm abspielt und einen Timer startet. Je schneller er in den anderen, also seinen, Store rennt, desto mehr Rabatt bekommt er.

Bild: www.timeline.at/Rudi Handl
"Der Installateur oder Bäcker muss sich überlegen, welche Daten er in seinem Geschäftsfeld analysieren kann um einen Vorteil zu erzielen." - Wilfried Sihn, Fraunhofer Austria
Bild: www.timeline.at/Rudi Handl

Haben alle diese Dinge, die wir heute besprochen haben, heute schon Relevanz auch für kleinere Unternehmen? Oder könnten sie bald relevant werden?

Sihn: Das hat Relevanz, zumindest beim Einzelhandel. Wenn wir von einer Kette reden: Die analysieren ihre Kundendaten natürlich ganz extrem. Daraus schließen sie dann, wie sich das Kaufverhalten der Kunden ändert. Die einzelne Filiale bekommt dann ein geändertes Produktspektrum aufgrund der Erkenntnisse, die man aus diesen zentralen Analysen zieht. Das wird sich Schritt für Schritt detaillieren und erweitern. Aber auch heute wird es schon genutzt.

Waniczek: Realistischerweise muss man sagen, dass das eher die Ausnahmefälle sind, als dass im Mittelstand viel mit diesen Möglichkeiten getan wird. Vielleicht ist es im technischen Bereich ein bisschen anders, aber im kaufmännischen Bereich ist man nach wie vor sehr konservativ. Wobei gleichzeitig die Nutzen-Potenziale auf der Hand liegen. Das geht bis in kleine Organisationseinheiten oder Organisationen hinunter. Es liegt viel Potenzial in der Kombination von internen Daten – gerade mit Social-Media-Daten. Sie können über jeden, auch den "Blumenladen Erna", eine Bewertung nachlesen. Aus diesem Konnex von internen Daten mit Social-Media-Daten lässt sich auch für Kleinunternehmen ein gewisses Potenzial heben. Aber momentan sind wir noch nicht so weit.

Sihn: Das Stichwort lautet ganz allgemein Data Driven Innovation. Das heißt, wie komme ich zu neuen Geschäften – ob sie jetzt disruptiv sind oder nicht sei dahingestellt –, zu neuen Innovationen, zu neuen Geschäftsfeldern, basierend auf neuen Daten. Der Installateur oder Bäcker muss sich überlegen, welche Daten er in seinem Geschäftsfeld analysieren kann um einen Vorteil zu erzielen. Zum Beispiel beim Installateur, wie viele Gasthermen es in seiner Umgebung gibt. Wie kriegt er die Adressen der Leute, die seit drei Jahren keine Thermenwartung mehr durchgeführt haben? Diese Fragen muss man formulieren. Dann habe ich mein Ziel und kann rückwirkend versuchen, an diese Daten zu kommen.

Kriegl: Mein Lieblingsbeispiel – weil es so skurril klingt – ist der Ein-Mann-Fischer im Salzkammergut. Der hat eine kleine App und wenn er die Fische fängt, gibt er diese Information sofort an seine Abnehmer, die Spitzengastronomen in der Gegend, weiter. Diese können gleich online bestellen, schon sehr früh ihre Speisekarte machen und die richtigen Zutaten dazu einkaufen. Der hat eine sehr innovative Idee und macht Data Driven Business.

Zum Abschluss eine konkrete Frage als Tipp für unsere Leser. Wenn man sich mit dieser ganzen Thematik noch nicht wirklich auseinandergesetzt hat, gibt es da vielleicht ein oder zwei Punkte an denen man ansetzen sollte, bevor man sich den Kopf über Big Data zerbricht?

Sihn: Aus meiner Sicht sollte sich jeder, egal in welcher Branche und egal wie groß, überlegen, was er gerne hätte um einen echten Konkurrenzvorteil am Markt zu erzielen. Wenn er diese Frage beantworten kann muss er rückwärts überlegen, wie er es schafft an die Daten zu kommen um dieses Ziel zu erreichen. Er muss zielorientiert vorgehen und sich die Frage stellen, was er in seinem Markt, seiner Konkurrenzsituation und seinem Produktspektrum ein echter Vorteil für seine Kunden wäre.

Herr Waniczek, darf ich raten? Ihr Tipp ist von Anfang an darauf zu achten, dass die Datenqualität passt.

Waniczek: Da liegen Sie nicht ganz daneben, aber ich habe mir als finales Statement auch etwas sexyeres einfallen lassen. Was wir feststellen ist, dass die wenigsten Unternehmen offiziell klarlegen, wie ihr Geschäft funktioniert, welche Faktoren Erfolg oder Misserfolg treiben oder die Ergebnisentwicklung erklären. Ich würde mir zuerst überlegen: Was treibt unseren Geschäftserfolg? Und daraus dann Entsprechendes ableiten. Das kann man dann noch toppen, indem man es durch Innovation noch weiter bringt. Aber zuerst sollte man die Mechanik offenlegen, wie das Geschäft funktioniert. Daraus kann man dann auch ableiten, welche Daten sinnvoll wären oder welche Muster man erkennen kann.

Also schauen, wo man steht, bevor man überlegt wo man hin will. Frau Kriegl, Sie sind jetzt der krönende Abschluss.

Kriegl: Ich kann mich vollinhaltlich beiden anschließen, habe aber auch noch einen ganz konkreten Tipp: Oft sind es die kleinen Dinge, die zählen. Eine sehr gute Inspirationsquelle für kleine Innovationen, die man dann zum Beispiel mit einer coolen App umsetzen kann, ist das Beschwerdemanagement. Wie hätte man diese Beschwerde eines Kunden verhindern können? Aber auch das Qualitätsmanagement: Wie hätte man diesen Fehler vermeiden können? Dort kann man beginnen, bevor man große Design-Thinking-Initiativen startet – die ich auch cool finde.

Mehr Artikel zum Thema: Round Table Big Data

Vier Fragen für eine richtige Datenstrategie

Daten sind das neue Öl – diese oft gehörte Devise ist...

Weiterlesen

Rohdaten als Treibstoff für Unternehmen

Mit der Studie "Data Preparation im Fachbereich – aus...

Weiterlesen

Data Science als Wettbewerbsvorteil

Immer mehr Unternehmen erkennen das Potenzial von Big Data...

Weiterlesen

Mit IoT auf der Überholspur – das sind die Business Enabler

Das Internet der Dinge (IoT) nimmt rasant Fahrt auf. Die...

Weiterlesen

Dimension Data analysiert die Tour de France

Dimension Data und die Amaury Sport Organisation (A.S.O.)...

Weiterlesen

Zeit für Neues schaffen

Cloud oder Managed Services alleine schaffen noch lange...

Weiterlesen

Unternehmensdaten – das Gold der Zukunft?

Daten sind für jedes Unternehmen von immensem Wert. Zunächst...

Weiterlesen

Ist Big Data ein überschätzter Hype?

Big-Data-Projekte stecken oft noch im Pilotstadium fest. Es...

Weiterlesen

Pentaho im Praxiseinsatz

Die Einsatzgebiete von Pentaho sind praktisch unbeschränkt –...

Weiterlesen

Ebola, Masern oder Zika-Viren: klassisches Big-Data-Szenario?

Hilft Technologie im Kampf gegen Viruskrankheiten? Wie lässt...

Weiterlesen

CA and Automic: A match made in heaven

In January, the approximately 600 million Euro deal by...

Weiterlesen

Big Data 2017 weiter auf dem Vormarsch

2017 werden zunehmend mehr Unternehmen die mit...

Weiterlesen

Big-Data-Potenzial im Retail nutzen

Seit Jahren schon sammelt kaum eine andere Branche so viele...

Weiterlesen

Chancen und Gefahren des vernetzten Autos

Daten sind das neue Öl – das gilt mittlerweile auch für die...

Weiterlesen

Features, Flexibilität – was macht ERP modern?

Was macht heute ein zeitgemäßes ERP aus und wie erkenne ich,...

Weiterlesen

Big Data am Drahtesel

Dimension Data und die Amaury Sport Organisation (A.S.O.)...

Weiterlesen

Big Data als Wirtschaftsmotor

Die Experton Group prognostiziert in ihrer Studie „Vendor...

Weiterlesen

Big Data-Wissen für IT-Entscheider

Wie Unternehmen Big Data in den Griff bekommen und mit...

Weiterlesen