„predictive analytics: grundlagen, projektbeispiele und ...€¦ · fachartikel „predictive...
TRANSCRIPT
Fachartikel
„Predictive Analytics: Grundlagen,Projektbeispiele und Lessons Learned“
Erschienen in:Reporting und Business Analytics 1. Auflage 2020Seite 41-63
www.horvath-partners.com
Dr. Mario StephanRegional CenterSwitzerland
Benjamin GretherCompetence CenterHorváth Digital
Predictive Analytics: Grundlagen, Projektbeispieleund Lessons Learnedn Predictive Analytics zielt darauf ab, auf Basis von strukturierten Daten Prognosen
für zukünftige Ereignisse/Entwicklungsverläufe zu treffen.n Die Verfügbarkeit großer Datenmengen bei gleichzeitiger Fähigkeit, diese effizient
zu verarbeiten, eröffnet heute neue Möglichkeiten und Anwendungsgebiete.n Algorithmisch erstellte Prognosen sind gegenüber klassischen Prognosen höher
automatisiert, objektiviert und (mindestens) genauso akkurat.n Praktische Anwendungsmodelle kombinieren i.d.R. mehrere Algorithmen und
stellen diese in eine Input-Output-Sequenz.n Das Zusammenspiel aus Mensch und Maschine liefert Stand heute noch immer
die besten Ergebnisse.
Inhalt Seite
1 Begriff und Anwendungsbereiche ................................................. 431.1 Definition ...................................................................................... 431.2 Einsatzbereiche .............................................................................. 431.3 Vorteile und Einschränkungen ........................................................ 44
2 Einführung in Predictive Analytics ................................................ 462.1 Terminologie .................................................................................. 462.2 Einordnung im Advanced-Analytics-Universum ............................... 47
3 Standardprozess eines Predictive-Analytics-Projekts .................... 493.1 Use Case Assessment ..................................................................... 493.2 Use Case Spezifizierung ................................................................. 503.3 Data Analysis ................................................................................. 503.4 Mathematische Modellierung ......................................................... 513.5 Wissenstransfer ............................................................................. 523.6 Evaluierung .................................................................................... 523.7 Pilot-Phase .................................................................................... 523.8 Change Management ..................................................................... 533.9 Produktivsetzung ........................................................................... 53
4 Praxisbeispiele ............................................................................... 534.1 Accounts Receivable Forecast ......................................................... 544.2 Predictive Maintenance .................................................................. 564.3 Energy Load Forecast ..................................................................... 57
5 Lessons Learned und Ausblick ....................................................... 59
6 Literaturhinweise .......................................................................... 63
41
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
n Die AutorenDr. Mario Stephan, Leiter CFO Strategy & Digital Finance bei Horváth & PartnersManagement Consultants in Zürich.
Benjamin Grether, Senior Data Scientist im Steering Lab bei Horváth & PartnersManagement Consultants in München.
42
Grundlagen & Konzepte
1 Begriff und Anwendungsbereiche1.1 Definition
Unter Predictive Analytics (PA) versteht man Prozesse, Konzepte und Methoden, mitdenen auf Basis von strukturierten (Vergangenheits-)Daten und mithilfe vonklassischer Statistik und/oder maschinellem Lernen (Machine Learning), Vorhersagenvon Ereignissen gemacht werden können. Vereinfacht geht es darum eine Vorhersagezu machen, welche Entwicklung sich auf Basis einer vorliegenden (limitierten)Datenlage absehen lässt; im zweiten Schritt geht es konsequenterweise darum ab-zuleiten, was getan werden kann, um die prognostizierten Entwicklungsverläufe zubeeinflussen. Vergangenheitsdaten stellen die Basis und den Ausgangspunkt von PAdar. Algorithmen bewerkstelligen die rechentechnische Verarbeitung dieser Dateni.S.v. prozessierbaren Mustern und Trends, aus denen sich die Prognose errechnet.
Aus wissenschaftlicher Sicht sind die (mathematischen) Grundlagen für dieModellierung von Predictive-Analytics-Problemstellungen bereits seit langembekannt. Arbeiten zur Regressionsanalyse gehen bis in 19. Jahrhundert zurück.Pioniere des maschinellen Lernens wie Frank Rosenblatt und Marvin Minskyarbeiteten schon in den 1950er Jahren an Künstlichen Neuronalen Netzen (KNN).Seitdem wurden die Methoden kontinuierlich weiterentwickelt. In den 2000erJahren führte dies zu publikumswirksamen Durchbrüchen in Bereichen wie derBild- und Spracherkennung (Computer Vision und Natural Language Processing).
Wirklich neu und damit auch einer der Gründe für den aktuellen „Hype“ in der(Beratungs-)Praxis ist die Kombination aus einer hohen Verfügbarkeit von großenDatenmengen (Big Data) und die gleichzeitige Fähigkeit moderner Prozessoren,diese Datenmengen effizient zu verarbeiten. Verstärkt wurde diese Entwicklungzusätzlich durch Open-Source-Programmiersprachen wie bspw. R oder Python,die über umfangreiche, frei verfügbare Modellierungsbibliotheken verfügen, dieständig erweitert und verbessert werden.
Durch die (freie) Verfügbarkeit großer Datenmengen, die (kosten-)effizienteVerarbeitung dieser Datenmengen und den freien Zugang zu den Modellbiblio-theken kann heute eine breite Masse von Anwendern Predictive-Analytics-Me-thoden nutzen und weiterentwickeln.
1.2 Einsatzbereiche
Ein wesentliches Einsatzgebiet von Predictive Analytics ist das im Zentrum diesesBeitrags stehende Management Reporting bzw. die Unterstützung der Unterneh-menssteuerung in Planung, Budgetierung und Forecasting. Innerhalb des Forecastingbieten sich insb. Prognosen von Absätzen/Umsätzen („Sales Forecast“), Kosten (z.B.Materialeinkauf, Lagerhaltung) und Geldbewegungen (z.B. Liquiditätsplanungen,Forderungsmanagement) an. Weitere Anwendungsbeispiele sind
43
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
• Fraud Detection (z.B. alle Arten von finanzieller Veruntreuung, Kredit-betrug etc.),
• Risikoschätzungen (z.B. für die Bestimmung der Kreditausfallwahrscheinlich-keit oder zur Verwendung im risikobasierten Pricing),
• Predictive Maintenance (z.B. vorausschauende Wartungsintervalle) und
• Image Recognition (z.B. automatisierte Erkennung von Hagelschäden auf Bildernvon Karosserien).
Aufwand
Frequenz & Horizont
Qualität
Status Quo Nutzenpotenzial durch Predictive Analytics
� Operative Planung ressourcen-intensiv und zeitlich zu lang
� Aufwand für Bottom-up-Forecast sehr hoch
� Laufender Aufwand aufgrund von Automatisierungi.d.R. geringer
� Digital Forecast ersetzt sukzessive die Bottom-up-Planung und traditionelle Forecasts
� Gefärbte Forecasts können ergänzt, validiert undersetzt werden
� Integration von internen und externen Informationen
� Häufig Year-End-Betrachtung � Rollierende Modelle minimieren Planungsaufwändezusätzlich
� Monatliche oder quartalsweise � Tägliches Update ermöglic ht den schnellen Eingriff
Berichterstellung in die operative Steuerung
� Operative Forecasts häufigpolitisch gefärbt
� Konzern-Forecast wird passendgemacht
� Geringe Berücksichtigung � Einbindung von Risikofaktor en; stärkere Nutzung
externer Faktoren im Forecast von Simulationen/Szenarien
Abb. 1: Vorteile von Predictive Analytics im Forecasting
1.3 Vorteile und Einschränkungen
Ein digitaler bzw. algorithmenbasierter Forecast (FC) weist zahlreiche Vorteilegegenüber klassischen Forecasts auf, was auch die weite Verbreitung in der Praxiserklärt. Klassische FC-Prozesse leiden bspw. oft unter einem zu hohen manuellenAufwand und der damit einhergehenden Fehleranfälligkeit oder den unvermeid-baren und von Individualinteressen geprägten politischen Einfärbungen einzelnerStakeholder. Digitale Forecasts sind durch ihre datenbasierte Natur grundsätzlichhöher automatisiert und objektiviert.
44
Grundlagen & Konzepte
Die Objektivität der Algorithmen hängt immer von der Auswahl der Daten-grundlage ab. Ein in der Presse vielzitiertes Beispiel für einen „nicht objektiven“Algorithmus bezieht sich auf die Bewerberauswahl bei Amazon aus dem Jahre2018. Hier wurde ein Algorithmus darauf trainiert, Onlinebewerbungen auto-matisch vorzusortieren und nach geeigneten oder ungeeigneten Kandidatinnenund Kandidaten zu unterscheiden. Die Daten, auf denen der Algorithmus trai-niert wurde, basierten zwangsläufig auf Anstellungen vergangener Jahre. Indiesen Jahren waren jedoch männliche Bewerber sowohl bei den Kandidaten alsauch später bei den tatsächlichen Anstellungen überrepräsentiert. Daraus folgteeine ungewollte, systematische Diskriminierung von Frauen in der Bewerbungs-auswahl des Algorithmus, die aus einer historisch gewachsenen und in den Datenrepräsentierten Ungleichheit stammte. Derartige systematische Verzerrungenoder neudeutsch „Biases“ müssen im Prozess der Datenauswahl immer beachtetwerden.
Die Effektivität von algorithmenbasierten Forecasts ist zudem dadurch einge-schränkt, dass singuläre, disruptive Ereignisse nicht antizipiert werden können.Die Stärke der Algorithmen liegt im Erlernen sich wiederholender Muster undnicht im Modellieren einmaliger Anomalien. Ein digitaler Forecast kann einenwirtschaftlichen Einbruch wie nach 9/11 nicht vorhersehen, wenn der Auslöser inder historischen Datengrundlage nie oder kaum zu beobachten ist. Demgegen-über erhält ein Mensch durch die Medien mitunter frühzeitig eine Vorahnungfür derartige Entwicklungen. Diese Nachrichten fließen heute nur in den seltens-ten Fällen in den digitalen Forecast mit ein, da die intelligente Zusammenfüh-rung von unstrukturierten und strukturierten Informationen eine hohe Kunstder Modellierung darstellt, die noch keinen vergleichbaren Verbreitungsgraderreicht hat.
Die genannten Einschränkungen verdeutlichen, dass Predictive-Analytics-Lösun-gen selten ohne das Fachwissen von Business-Experten die gewünschten Erfolgeerzielen können. Die Interaktion zwischen Mensch (Experte) und Maschine(Algorithmus) schafft Stand heute noch immer die besten Ergebnisse. Der Menschhat im Zusammenspiel mit den Algorithmen eine Kontroll- und Validierungs-funktion und passt die Entscheidungen und Prognosen des Algorithmus, wennnotwendig, mit seinem Wissen an.
Im Folgenden werden Vorgehen, Einsatzgebiete (Case Studies) und technologischeVoraussetzungen beschrieben. Der Beitrag schließt mit einer Reflexion der bishergewonnenen Erkenntnisse und einem Ausblick auf die zu erwartenden nächstenSchritte.
45
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
Interne Ist-Daten als Ausgangsbasis
Lineare Fortschreibung mit Excel oder BI-Systemen
ForecastIst
Expertenschätzung
ForecastAdjustierter
Interne Ist-Daten als Ausgangsbasis
JAN FEB MÄR MAI
Externe- und unstrukturierte Daten
JUN
Internaldata
Statistische Modellierung & Experteneinschätzung
Objektiver, datengetriebener Forecast
Forecast
Traditioneller Forecast
~ 2W ~ 1W
Digital Forecast
~ real-time, abhängig der Datenverfügbarkeit
Abstimmung mit dem Top Management
~ 1W
AbgestimmterForecast
t
t
=
Forecast basiert auf
subjektiver
Expertenschätzung
Best Practice:
Mensch-Maschine
InteraktionIst
APR
JAN FEB MÄR MAI JUNAPR JUL AUG SEP NOV DECOCT JUL AUG SEP NOV DECOCT JUL AUG SEP NOV DECOCT
JUL AUG SEP NOV DECOCT
Abb. 2: Traditioneller FC vs. Predictive/Digital FC
2 Einführung in Predictive Analytics2.1 Terminologie
Predictive Analytics beschreibt den Schnittpunkt von Statistik und ComputerScience, der sich mit der Extraktion von Informationen aus Daten befasst, umdiese zur Vorhersage von Trends und Mustern zu verwenden. Dabei kommenauch in Predictive Analytics statistische Methoden zum Einsatz, wie etwa DataMining, Regressionsmodelle, Entscheidungsbäume, Clusteranalysen, sowie Me-thoden aus dem Bereich der künstlichen Intelligenz (Machine Learning undDeep-Learning-Algorithmen).
I.d.R. liegt das unbekannte Ereignis in der Zukunft, grundsätzlich kann PredictiveAnalytics jedoch auf jede Art von unbekanntem Ereignis angewendet werden, seies in der Vergangenheit, Gegenwart oder Zukunft – z.B. auf die Erkennung vonKreditkartenbetrug in der Vergangenheit, auf die Zuordnung einer E-Mail alsSpam in der Gegenwart oder auf die Entwicklung eines Aktienkurses in derZukunft. Daher ist Predicitve Analytics nicht gleichzusetzen mit dem auf dieZukunft bezogenen Forecasting; Forecasting ist letztlich nur ein (populärer) Teildes Predictive-Analytics-Universums.
Predictive Analytics besteht im Kern darin, Zusammenhänge zwischen erklären-den Variablen und den Ziel-Variablen aus vergangenen Ereignissen zu erfassen
46
Grundlagen & Konzepte
und diese zur Vorhersage des unbekannten Ergebnisses zu nutzen. Die Genau-igkeit und Verwendbarkeit der Ergebnisse sind dabei stark von der Ebene derDatenanalyse und der Qualität der Annahmen abhängig.
2.2 Einordnung im Advanced-Analytics-Universum
Das Advanced-Analytics-Universum umfasst 4 Bereiche, die eindeutig voneinan-der abzugrenzen sind. Die Bereiche sind: Descriptive Analytics, DiagnosticAnalytics, Predictive Analytics und Prescriptive Analytics. Diese lassen sich anhandder Achsen Komplexität und Nutzen („Business Value“) anordnen (vgl. Abb. 3).
DescriptiveAnalytics
INSIGHT
DiagnosticAnalytics
Busi
ness
Val
ue
FORESIGHTHINDSIGHT
PrescriptiveAnalytics
What
happened?
Complexity
happen?
Why did it
How can we
make it
happen?
PredictiveAnalytics
Analytics
What will
happen?
Abb. 3: Die 4 Bereiche des Advanced Analytics
1. Descriptive Analytics beantwortet die Frage, „was“ in der Vergangenheit pas-siert ist. Hier ist klassischerweise der Bereich Business Intelligence (BI)verortet. Dabei werden Daten von Analysten für den Erkenntnisgewinnvisualisiert und interpretiert. Dies geschieht z.B., wenn ein Diagramm, dasdie monatlichen Umsatzzahlen eines Supermarktes aggregiert über die Zeitdarstellt und den Vertriebsleitern als Diskussionsgrundlage dient.
2. Der Bereich Diagnostic Analytics beschäftigt sich mit der Frage, „warum“ etwaspassiert ist. Hierbei werden die Daten auf Korrelationen und Hypothesenuntersucht, um anschließend mit der Business-Logik auf Kausalitäten rück-
47
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
schließen zu können. Dies würde im Supermarktbeispiel bedeuten, dass dieVerkaufszahlen externen Faktoren gegenübergestellt werden, um diejenigenFaktoren zu identifizieren, die Einfluss auf einzelne Produkte haben (wie z.B.die Außentemperatur auf die Verkaufszahlen von Eiscreme).
3. Predictive Analytics geht noch einen Schritt weiter und versucht, Vorhersagenfür die Zukunft zu treffen bzw. unvollständige Information zu modellieren. Eswird angenommen, dass die Struktur, die in den Daten vorhanden ist, in derZukunft gleichbleibend ist oder sich zumindest nur geringfügig verändern wird.Auf dieser Grundlage kann extrapoliert und in die Zukunft fortgeschriebenwerden. Im Zusammenspiel zwischen Trend und Saisonalität wird so bspw.ein Forecast für die Verkaufszahlen des Supermarktes modelliert. Mit diesenForecasts kann das Management Entscheidungen treffen, um die zukünftigeEntwicklung zu beeinflussen, bspw. durch die Erhöhung des Marketingbudgetsbei einer schlechten Aussicht.
4. Der Bereich Prescriptive Analytics zielt auf die Empfehlung einer konkretenHandlung, um das gewünschte Ergebnis herbeizuführen bzw. zu optimieren.Der Algorithmus schlägt bspw. vor, wann welche Marketingmaßnahme für denSupermarkt umgesetzt werden sollte, um die Profitabilität zu maximieren.
Im Bereich Predictive Analytics lassen sich die verwendeten mathematischen undstatistischen Methoden in 2 Hauptströmungen aufteilen: Supervised Learning undUnsupervised Learning.
Supervised Learning beschreibt den Teil des maschinellen Lernens, eine Funktionzu erlernen, die einen Input (erklärende Variablen) auf einen Output (Ziel-variable) abbildet und auf exemplarischen Input-Output-Paaren basiert (histori-schen Daten). Dies können entweder Regressionen oder Klassifikationen sein. Voneiner Klassifikation spricht man, wenn die zu beschreibende Variable kategorial ist,also bspw. die Zuordnung einer E-Mail als „Spam“ oder „nicht Spam“ oder diePrognose einer fristgerechten Lieferung in „pünktlich“ und „verspätet“. EineRegression sagt demgegenüber die Werte einer kontinuierlichen Variablen vorher,wie z.B. die Höhe des Rheinpegelstandes oder die Verspätung einer Lieferung inTagen oder Wochen. Auf algorithmischer Ebene finden sich im SupervisedLearning Methoden wie lineare Regression, XgBoost, Random Forest, neuronaleNetze sowie Zeitreihenmodelle wie ARIMA oder Exponential Smoothing.
Unsupervised Learning ist eine Art selbstorganisiertes Lernen, bei dem derAlgorithmus versucht, ohne zuvor definierte Kategorien (in der Fachsprache„Labels“) bisher unbekannte Muster im Datensatz zu finden. Hier wird die Fragebeantwortet, welche Kategorien in den Daten vorhanden sind und welcherDatenpunkt zu welcher Kategorie gehört. Beispielhaft ist hier eine Kundenseg-mentierung, deren Ergebnis Kundengruppen sind, die anhand von Ähnlichkeits-mustern in den Daten erstellt wurden. Die Hauptmethoden, die in diesemZusammenhang verwendet werden, sind Clustering-Methoden (bspw. mit demk-means-Algorithmus) und Principal-Component-Analysen (eine Analyse der
48
Grundlagen & Konzepte
Hauptkomponenten, die die Datenpunkte beschreiben). Ziel ist es, eine fixeAnzahl repräsentativer Datenpunkte zu finden, die als Clusterzentren dienen undmithilfe derer über ein Abstandsmaß eine Klassifizierung von Beobachtungen(neuen Datenpunkten) durchgeführt werden kann.
Die Sammlung dieser Methoden umfasst (und begrenzt) den Spielraum, in demsich Predictive Analytics bewegt. Jede Predictive-Analytics-Fragestellung lässt sichin diesen Raum einordnen und mit den zugeordneten Methoden modellieren.
3 Standardprozess eines Predictive-Analytics-ProjektsUngeachtet des konkreten Anwendungsfalls lässt sich mittlerweile ein „best practice“im Vorgehensmodell für die Umsetzung von Predictive-Analytics-Anwendungs-fällen identifizieren. Im Folgenden werden die 9 Schritte in der Entwicklung einesPredictive-Analytics-Anwendungsfalls („Use Case“) beschrieben, die in Projektenvon Horváth & Partners regelmäßig zur Anwendung kommen.
Business
Ideation
Infrastructure
Integration
Data Science
Modeling
Data Analysis
Mathematical Modeling
Rollout/Scale-upPilotKnowledge
Transfer
Evaluation
Use Case Assessment
Change
Use Case Specification
1
32
4
Project approach in 9 steps
5
6
7
8
9
Time dimension
Valu
e di
men
sion
Abb. 4: Vorgehen im Predictive Analytics Projekt
3.1 Use Case Assessment
Im ersten Schritt werden grundlegende Potenziale hinsichtlich des Einsatzes vonPredictive Analytics mit dem Unternehmen diskutiert, die Hauptprozesse betrach-tet und mögliche Use Cases evaluiert. Bei der Identifizierung und Evaluation dermöglichen Use Cases kommt insbesondere die Stärke der Kombination vonBranchenexperten, die das Marktumfeld genau kennen, und Fachexperten, die die
49
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
Potenziale und Grenzen von Predictive Analytics einschätzen können, zum Tragen.Nach einer quantitativen und qualitativen Analyse der infrage kommenden UseCases werden einer oder mehrere davon priorisiert und zur Umsetzung ausgewählt.In der Auswahl spielen vor allem Kriterien wie Komplexität der Lösung, Verfügbar-keit von Daten, mögliche Synergieeffekte sowie erwarteter Aufwand und Gewinn,eine entscheidende Rolle.
3.2 Use Case Spezifizierung
Im zweiten Schritt muss die Ist-Situation umfassend analysiert werden, um zuverstehen, ob die zugrundeliegende Fragestellung für den ausgewählten Use Caserichtig gesetzt ist. Die Erfahrung der letzten Jahre zeigt deutlich, dass die meistenFirmen schon in diesem ersten Schritt die größten Fehler machen.
Beispiel: Forecast-Methoden im Sales-BereichZur besseren Antizipation von Nachfrageschwankungen bei großen, regelmäßigen Nach-fragemengen kann ein Predictive Sales Forecast das richtige Instrument sein. Basiert dasGeschäftsmodell jedoch auf wenigen Leuchtturmkunden mit unregelmäßigen, großenTransaktionen, so ist der Aufbau eines professionellen Key-Account-Managements wahr-scheinlich der vielversprechendere Ansatz.
Um zu verhindern, dass Use Cases falsch angegangen werden, ist die detaillierteund präzise Beschreibung der Problemstellung inkl. der erwarteten Projektergeb-nisse erfolgskritisch. Der entsprechende Aufwand für die Workshops ist somit einegute Investition in jedes Projekt. In vielen Fällen lohnt es sich sogar, die spätereNutzung der Modellergebnisse in sogenannten Mock-ups zu simulieren, um einGefühl für das Arbeiten mit den neuen Instrumenten zu bekommen und derenMehrwert im operativen Prozess zu verstehen.
Mit dem zweiten Schritt beginnt auch die eigentliche Arbeit an den Grundlagen.Die modellrelevanten Daten (intern wie extern) für die Modellentwicklung werdenkonkretisiert und die Datenanforderungen festgelegt, d.h. sämtliche Felder undDatensets. Das Steering Lab von Horváth & Partners definiert und dokumentiertdazu, in Zusammenarbeit mit dem Auftraggeber, alle Anforderungen an die zuliefernden Daten. Diese erste Zusammenarbeit fördert bereits den Wissenstransfer,der Grundvoraussetzung für eine zukünftige Weiterentwicklung des Use Cases imUnternehmen ist. Nicht zuletzt wird in diesem frühen Stadium auch die Grund-struktur der Modelle definiert.
3.3 Data Analysis
Spätestens vor der Bereitstellung und Analyse der Unternehmensdaten ist es wichtig,entsprechende Datensicherheitsregelungen wie Non-Disclosure-Agreements (NDAs)
50
Grundlagen & Konzepte
zwischen den beteiligten Unternehmen zu vereinbaren. Sind die Verträge abge-schlossen und die Datensicherheit gewährleistet, kann mit dem Angleichen undHarmonisieren der Daten begonnen werden. Dazu sind projektindividuelle Schnitt-stellen und Datenbanken aufzubauen und auch die komplette Datenlogistik zuorganisieren. Zu Beginn von Schritt 3 müssen alle Daten vorliegen, alle Datenmodelleerstellt und die Daten entsprechend integriert sein.
Die Datenaufbereitung und -analyse ist einer der aufwändigsten Prozessschritte.Hier werden die Daten formatiert, konsolidiert (bspw. werden Dutzende ExcelDateien in eine konsistente Datenbank überführt), wo erforderlich korrigiert (z.B.auf Vollständigkeit oder hinsichtlich Einmal-Effekten), unvollständige Datenwerden dokumentiert und ggf. maschinell ergänzt.
Achtung: Datenqualität kann sich schnell ändernEinige Unternehmen, die bereits hohe Summen in moderne ERP-Systeme wie SAPS/4HANA investiert haben, gehen intuitiv von einer hohen Datengüte aus. DieseUnternehmen müssen leider oft erkennen, dass insbesondere jede Strukturänderung, wiebspw. neue Produktlinien oder – offensichtlicher – die Integration oder der Verkauf vonUnternehmensbereichen, einen manuellen Korrekturaufwand zur Folge hat.
Liegen die Daten am Ende dieses Prozesses in der erforderlichen Güte und Quantitätvor, können die ersten Analysen hinsichtlich der Zielstellung durchgeführt werden.Diese Analysen stellen oftmals bereits einen erheblichen Mehrwert dar, da sie einentieferen Einblick in das eigene Unternehmen und die Prozesse erlauben als esaggregierte Management Reports zulassen. An dieser Stelle ist der enge Austauschzwischen Data Scientists und Fachabteilungen von hoher Bedeutung, da hier wichtigeRückschlüsse für die Modellierung getroffen werden, die eine Anpassung der UseCase Spezifizierung (Schritt 2) zur Folge haben können. Zwischen Use-Case-Spezi-fizierung und Datenanalyse sollte deshalb iterativ in mehreren Schleifen vorgegangenwerden, um das optimale Projektergebnis zu erzielen.
3.4 Mathematische Modellierung
Die Modellentwicklung (der komplexeste Teil des Projektes) und das Training derAlgorithmen erfolgt in Schritt 4. Abhängig von Fragestellung und Datenlagewerden verschiedene Modellvarianten erprobt und grundlegende Designentschei-dungen zum optimalen Modell getroffen. Vergleichbar dem Verhältnis vonProfisportler und Trainer werden Trainingspläne entwickelt, absolviert und dieErgebnisse von Trainern (hier Data Scientists) analysiert. Davon abhängig werdendie Trainingsparameter verändert und dann wird validiert, ob sich eine Verbes-serung der Ergebnisse einstellt oder nicht. In diesem interaktiven Prozess zwischenAlgorithmus und Data Scientist spielt sowohl die Erfahrung des Analysten als auchdie der Praxisexperten eine herausragende Rolle.
51
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
Tipp: Fachexperten können Ausreißer oft schnell erklären.In vielen Fällen lassen sich bspw. „Ausreißer“ in den Daten oder unerwartete Varianzen erstdurch den Input von Fachexperten aus den Unternehmen erklären. Während der Data Scientistbspw. vergleichsweise viel Zeit damit verbringt einen sich zwar jährlich wiederholenden, aberzu unterschiedlichen Zeitpunkten auftauchenden Umsatzanstieg aus den Daten zu erklären,kann ein Praxisexperte dies u.U. leicht als Effekt einer einmal im Jahr stattfindendenFachmesse erklären. Die intensive Diskussion der Modellergebnisse im Team stellt deshalbeinen wichtigen und für das projektgebende Unternehmen erfolgskritischen Prozess dar.
3.5 Wissenstransfer
Parallel zur Modellentwicklung findet der zur Verankerung im Prozess entscheidendeWissenstransfer zwischen Data Scientists und den späteren Anwendern der algorith-mischen Lösung statt. Hierbei sollten unbedingt mögliche Bedenken adressiert undUnklarheiten beseitigt werden, etwa durch Einführungen in die konzeptionellenGrundzüge der verwendeten Modelle und Methoden. Auch sollen die späterenAnwender befähigt werden, die Ergebnisse der Algorithmen zu interpretieren, umdaraus die bestmöglichen Handlungsentscheidungen in ihrem Umfeld ableiten zukönnen. Mit den nötigen Hintergrundkenntnissen in der Programmierung undModellierung (wie sie bspw. interne Data Scientists mitbringen) können die späterenAnwender auch selbstständig Anpassungen am Programmcode vornehmen, um soflexibel auf veränderte Anforderungen reagieren zu können.
3.6 Evaluierung
Nach Abschluss der Modellierung werden die Modellergebnisse aufbereitet undgemeinsam mit den Fachexperten des Kunden hinsichtlich ihrer Güte undEinsatzfähigkeit evaluiert. Hier werden die letzten Stellschrauben der Modellierungangepasst, um das Optimum aus den Algorithmen herauszuholen. Gegebenenfallskann hier aber auch das Ergebnis sein, dass eine weitere Modellierungsschleifedurchgeführt und ein neuer Ansatz getestet werden muss, um die erforderlicheQualität zu erreichen.
3.7 Pilot-Phase
Um den Einsatz der Modellergebnisse für die Praxis vorzubereiten, werden nun nichtnur die Modelle in Richtung Ziel-Prognosegüte weiterentwickelt, sondern auchfunktionale Prototypen i.S.v. Apps zur Visualisierung der Ergebnisse erstellt.Erfahrungsgemäß ist die Visualisierung der Ergebnisse ein wichtiger Faktor inPA-Projekten, denn die ansprechende Präsentation der Daten schafft Vertrauen indas Modell und trägt zum besseren Verständnis bei. Hier werden auch alle relevanten
52
Grundlagen & Konzepte
Funktionen und Features abgeleitet, die eine produktive Anwendung im späterenVerlauf haben muss. Fällt das Ergebnis einer mehrmonatigen Pilot-Phase, in der dieModelle ausgiebig in der Praxis getestet werden, positiv aus, können alle relevantenAnforderungen in einer Produktivsetzung der Anwendung implementiert werden.
3.8 Change Management
Ein nicht zu unterschätzender Faktor, der die Produktivsetzung der algorith-mischen Lösung begleiten sollte, um eine nachhaltige und erfolgreiche Lösung zugarantieren, ist ein professionelles Change Management. Adressiert werden solltendabei insbesondere die Themen Leadership & Team, Organisational Change,Culture Development und Communication Change. Horváth & Partners unter-stützt diesen Prozess mit spezifischen Change Management Frameworks, diepräzise auf die Bedürfnisse von derlei Veränderungsprozessen ausgerichtet sind.Das Change Management ist dabei kein klassisches „Singen, tanzen, klatschen“,sondern eine hochprofessionelle, faktenbasierte und mit zahlreichen Instrumentenunterstütze Prozessbegleitung.
3.9 Produktivsetzung
Der neunte und letzte Prozessschritt zielt auf die Definition der weiteren Roadmapund auf Handlungsempfehlungen zur fortlaufenden Anwendung des Use Cases imUnternehmen. Das Steering Lab zeigt hierzu die technologischen und modelltech-nischen Weiterentwicklungsmöglichkeiten auf. Diese Entwicklungsmöglichkeitenbeinhalten die Entwicklung einer Produktiv-Applikation und die Frage, wie diesemöglichst fließend in die IT-Infrastruktur integriert werden kann. Dabei geht esunter anderem um das Hosting der Applikation (auf Unternehmensservern oder inder Cloud) sowie um die Integration in bereits bestehende Plattformen wie SAPLeonardo, MS Azure, AWS oder Google Cloud. Beratungsseitig wird hier erneutkritisch reflektiert, ob die entworfene Lösung alle Problemstellungen für die Zukunftsinnvoll abdeckt, oder ob andere, grundlegendere Aspekte benötigt werden, wiebspw. eine höhere Systemintegration oder eine grundlegende Prozessoptimierung.
4 PraxisbeispieleIn den nachfolgenden Abschnitten werden 3 aktuelle Praxisbeispiele in anonymi-sierter Form vorgestellt, um einen Eindruck zu vermitteln,
• in welchen Bereichen heute schon erfolgreich mit Predictive Analytics gearbeitetwerden kann,
• wie jeweils vorgegangen wurde und
• welcher Nutzen für das projektgebende Unternehmen erreicht wurde.
53
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
4.1 Accounts Receivable Forecast
n Ausgangslage und ZielsetzungIm projektgebenden Unternehmen aus dem Bereich Life Science wurde festgestellt,dass in 2 Kernmärkten über die Jahre fast jede zweite Rechnung von den Kunden zuspät bezahlt wurde und insb. Neukunden zu einer verspäteten Zahlung neigten.Aufgrund der Vielzahl denkbarer Gründe für diese Situation konnte das Unterneh-men nicht mit klassischen Zeitreihenanalysen arbeiten. Zudem war unklar, inwie-weit ein Prognosemodell hier zusätzliche und handlungsleitende Erkenntnisseliefern könne. Der Group-CFO beauftragte daher das Horváth & Partners SteeringLab, einen „Proof-of-Concept“ für den Accounts-Receivable-Prozess zu erstellenund konkrete Strategien zur Verbesserung der Situation zu definieren.
n VorgehenAuf Basis der Daten der größten Produktgruppen wurde zuerst ohne Expertenin-put seitens des Unternehmens eine erste, rein datenbasierte Analyse möglicherEinflussfaktoren durchgeführt, die erst anschließend mit dem Unternehmenplausibilisiert wurde. Um nicht nur die Wahrscheinlichkeit einer verspätetenRechnungsbegleichung zu berechnen, sondern auch die Dauer der Verspätung,wurde ein Modell mit 2 Kernalgorithmen entwickelt.
Database:
Transactions
Algorithm 1:
Overdue identifier
Algorithm 2:
Length of overdue
Output: Classified
transactions
Overdue?
Yes NoTransaction 80% 20%
classificationTransactions
Overdue
�Gather and collectincoming transactionsas basis forpredictions.
�Build features that
explain each trans-
action (e.g. client,historic payments).
�The first algorithm is abinary prediction thatestimates theprobability of a
transaction to be paid
overdue.
�Only the transactionsclassified as overdueare given to a secondalgorithm that predictsthe length of delay incategories.
Receivables forecast
�The final output is alist of all transactions
classified into delay
categories.
�This forms the basis
for a variety ofmeasures to address
challenges in daily
operations.
Results
Phase
Input Algorithm OutputTransactions Features
Activities
Algorithm Output
overdue?
Length of
60% 20%0-5 5-10…
Overdue
transaction…
Input
Abb. 5: Vorgehen im Projekt
54
Grundlagen & Konzepte
1. Der erste Algorithmus produzierte eine Ja/Nein-Entscheidung hinsichtlich der zuerwarteten Verspätung bis auf Stufe von einzelnen Transaktionen (Klassifikation).
2. Der zweite Algorithmus berechnete die zu erwartende Dauer in Tagen für ebenjene Transaktionen (Scoring).
Die einzelnen Transaktionen wurden im Anschluss entsprechend ihrer Kritikalität,d.h. Verspätungsprognose und Transaktionsvolumen, gelistet und entsprechendvisualisiert.
n ErgebnisseDas erarbeitete Accounts-Receivable-Modell übertraf alle Erwartungen des Unter-nehmens. Im Bereich Accounting wurde bspw. eine bessere Compliance mit IFRS 9erreicht, weil die „bad debt allowance“ präziser berechnet und das Ausfallrisiko besserprognostiziert werden konnte. Im NWC-Management konnten die Cash Collectionverbessert und die Liquiditätsplanung optimiert werden, im Verkauf konnte derFokus auf die profitableren und weniger risikoreichen Kunden gelegt und verfeinertePreisstrategien entwickelt werden. Im Bereich Operations wurden der Mahnprozessoptimiert und das Kapazitäts- und Ausliefermanagement entsprechend angepasst.
Illustrative
Probability of overdue payment low: < 50%Probability of overdue payment high: > 50%
Legend:
d = Daysm = Months
TRX = Transaction
Abb. 6: Projektergebnis
55
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
Ebenso wichtig wie die genannten Ergebnisse und die kundenseitigen Erkennt-nisse hinsichtlich der eigenen Daten war das Verständnis des Prozesses und derVoraussetzungen für zukünftige Predictive-Analytics-Projekte. So wurde bspw.deutlich, dass die definierte Tabellenstruktur im ERP-System für eine auto-matisierte Befüllung von bestimmten Algorithmen ungeeignet und die Werteeiner erfolgten Akquisition in den historischen Daten wider Erwarten nichtabgebildet waren.
4.2 Predictive Maintenance
n Ausgangslage und ZielsetzungEin großer Flugzeugturbinenhersteller fragte an, ob durch den Einsatz vonPredicitve Analytics der Prozess von Maintenance, Repair and Overhaul (MRO)schneller und effizienter gestaltet werden könnte. Das Unternehmen prüft inregelmäßigen Abständen die im Einsatz befindlichen Triebwerke auf Schäden anden Turbinenschaufeln und tauscht diese gegebenenfalls aus. Im bisherigenProzess wurden Turbinenschaufeln aufwendig manuell und visuell auf Schädenund Partikeleinschläge untersucht. MitarbeiterInnen untersuchten White LightScans der Turbinenschaufeln auf Auffälligkeiten und validierten diese manuell.Die Schadensklassifizierung war ungenau und stark abhängig von den unter-suchenden MitarbeiterInnen. Ziel des Projektes war es, den MRO-Prozess durchPredictive Analytics zu automatisieren und gleichzeitig die Qualität zu erhöhen.
n VorgehenZur Modellierung wurden in diesem Projektbeispiel Methoden aus dem BereichComputer Vision (Maschinelles Bildverstehen) und Machine Learning miteinan-der kombiniert. Die Computer Vision identifizierte auffällige Stellen auf den3D-Scans, die anschließend mit Machine-Learning-Methoden nach „Schaden“und „kein Schaden“ klassifiziert wurden. Als Grundlage für die Modellierung derSchadenserkennung dienten die bereits existierenden Scans der Turbinenschau-feln. Anschließend wurde ein Machine-Learning-Algorithmus zur Musterken-nung auf die auf den Scans markierten Schäden trainiert. Zusätzlich zu den Scanswurden noch weitere Features zur Analyse und Klassifizierung berücksichtigt, wiebspw. Einsatzgebiet, Position am Flugzeug und Einsatzdauer. Um die bestePerformance zu erreichen, wurden unter anderem die Algorithmen XGBoost,Random Forest und neuronales Netz getestet und miteinander verglichen. Diebeste Performance erzielte ein XGBoost-Algorithmus.
56
Grundlagen & Konzepte
Abb. 7: Projektergebnis
n ErgebnisseDie Ergebnisse der Modellierung inklusive des Algorithmus wurden in einewebbasierte Applikation integriert. Die Mitarbeiter laden neue Scans in der Apphoch, die dann automatisch auffällige Stellen markiert und klassifiziert. DieGenauigkeit der Schadenserkennung und Klassifizierung lag signifikant höher alsbei der menschlichen Prüfung und die Automatisierung reduzierte den Zeit-aufwand deutlich. Fälle, die vom Algorithmus nur mit einer niedrigen Wahr-scheinlichkeit klassifiziert werden können, werden weiterhin von Mitarbeiterngeprüft. Die Teilautomatisierung des Prozesses ermöglichte eine deutliche Effi-zienzsteigerung und zusätzlich lieferten die Analysen Erkenntnisse über die Ein-flussfaktoren für das Auftreten von Schäden, die wiederum in die zukünftigeEntwicklung von Turbinen einfließen können.
4.3 Energy Load Forecast
n Ausgangslage und ZielsetzungIm Rahmen des Planungsprojekts mit einem Energiedienstleister sollte das Poten-zial von Predictive Analytics für die Energieversorgerbranche eruiert werden. Dazusollte beispielhaft auf Grundlage historischer Nachfragemuster und ausgewählterexterner Faktoren eine verbesserte Vorhersage des Energieverbrauchs erreicht undsomit eine verbesserte Ressourcenallokation ermöglicht werden.
n VorgehenZunächst wurde ein Basismodell entwickelt, das aus 2 Komponenten besteht:dem varianzerklärenden Modell und dem Trendmodell. Dazu lagen diverseexterne Faktoren in unterschiedlichen Granularitäten (viertelstündlich/stündlich
57
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
bis jährlich) vor, von denen angenommen wurde, dass sie die Lastverläufe in derkurzen und mittleren Frist beeinflussen. Um eine Fokussierung auf die hoch-frequenten stündlichen bzw. viertelstündlichen Lastgänge zu ermöglichen, wurdejeder Lastgang zunächst vom langfristigen Trend bereinigt. Dafür wurden dieDaten monatlich aggregiert und geglättet. Zusätzlich wurde die Adjustierung aufdie Witterungsverhältnisse durchgeführt. Der originale Lastgang wurde umdiesen resultierenden langfristigen Trend bereinigt und dann im Variations-modell verwendet. In diesem wurden spezifische externe Faktoren berücksichtigt(Tageszeiten, Wochentags-, Monats-, Jahreszeitfaktoren, Schulferien und Feier-tage, Temperatur, Bedeckungsgrad und Windgeschwindigkeit). In der Summewurden in der Modellierung über 300 Faktoren verwendet, welche die kurz-fristigen Schwankungen erklären sollten. Durch den Einsatz der Algorithmenkonnte eruiert werden, welche Faktoren die größte Bedeutung für die Prognoseaufwiesen. Diese Faktoren wurden verwendet, um Forecasts unter verschiedenenSzenarien (bspw. ein möglicher Wetterverlauf) zu erstellen und deren Effekteabzuschätzen. Im Rahmen der Modellierung wurden Algorithmen aus denKlassen XGBoost, Random Forest und Multiple Lineare Regression verwendet.Das genaueste Modell wurde dabei auf einem historischen Testset ermittelt.
Abb. 8: Projektergebnis
58
Grundlagen & Konzepte
n ErgebnisseAls Ergebnis wurde ein interaktives Frontend (App) entwickelt, um die Vorher-sagen der Lastverläufe zu visualisieren und den Usern aus der Planung zuermöglichen, die Funktionalitäten und Fähigkeiten der eingesetzten Algorithmenund Tools zu testen. Nach einem Testzeitraum wurde die Applikation produktivausgerollt und unterstützt seitdem den Planungsprozess des Energiedienstleisters.Die algorithmischen Prognosen ersetzen dabei nicht die menschliche Planung,sondern werden als Entscheidungsgrundlage verwendet, die von Experten aus demPlanungsbereich validiert und gegebenenfalls angepasst wird. Durch den Einsatzvon Predicitve Analytics konnte der Prozess beschleunigt und objektiviert werden.Zusätzlich ist die Prognosegenauigkeit sprunghaft angestiegen.
5 Lessons Learned und AusblickDie 3 Praxisbeispiele zeigen typische Anwendungsfälle von Predictive Analytics. Auchwenn alle Beispiele auf den gleichen Prinzipien beruhen, bei genauerem Hinschau-en unterscheiden sie sich sowohl im Vorgehen als auch der Komplexität derfinalen Lösung. Der „one-size-fits-all“-Ansatz ist Stand heute noch nicht gefunden,auch wenn sich insb. im Bereich des Forecasting erste Standardalgorithmen heraus-kristallisieren bzw. einfache Zeitreihenanalysen in modernen ERP/BI-Systemen„out-of-the-box“ angeboten werden. Die meisten Predictive-Analytics-Projekte unddie darin entwickelten Modelle sind und bleiben projektindividuelle Ergebnisse.
Die über die Jahre gewonnenen Lessons Learned sind deshalb ebenfalls grund-legender Natur und lassen sich in den nachfolgenden Aspekten konsolidieren:
1. Für jedes Anwendungsproblem respektive die zugrunde liegenden Algorithmengibt es eine Grenze der Genauigkeit. Bspw. werden nur in wenigen Ausnahme-fällen Forecasts mit einer Genauigkeit von über 90 % erreicht. Das operative Zielvon Predicitve-Analytics-Projekten ist es, das Maximum aus den Daten heraus-zuholen. Die natürliche Limitation ist hier die verbleibende Unsicherheit, diedurch die gefundenen Daten nicht erklärt werden kann. Das heißt in Konsequenznicht, dass die Algorithmen für den Praxiseinsatz untauglich sind: In den meistenFällen liegt die Genauigkeit deutlich über den der menschlichen Prognosen, diebisher ja auch noch nie exakt die Realität vorhersehen konnten. Der Vorteil liegtdeshalb nicht in einer vermeintlichen 100-%-Genauigkeit, sondern in der Prozess-verbesserung hinsichtlich Schnelligkeit, Effizienz und Objektivität der Prognose.
2. Interne Daten, die in direktem Zusammenhang zur Aufgabenstellung stehen, sindi.d.R. und entgegen der Hoffnung vieler Führungskräfte um einiges wertvoller alsexterne Daten. Erfahrungsgemäß führt der Einbezug von Daten aus externenQuellen selten zu besseren Prognosewerten, weil mit der kausalen Distanz derexternen Faktoren zur Zielvariable der Informationsgrad für die Modellierungstark abfällt. Bspw. kann der von Unternehmen immer wieder eingeforderte Bezugzum BIP (dessen Wachstum meist zwischen 1–2 % schwankt) zwar einen Trend
59
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
in den aggregierten Umsatzzahlen erklären, aber keine Schwankungen von teils40–60 % auf Produktfamilienstufe. Es benötigt Varianz, um Varianz zu erklären!
3. Viele Unternehmen kämpfen noch mit ihrer Datengrundlage: Der sogenannte„Excel-Wald“ ist noch immer bei vielen Kunden vorzufinden. Dies führt zueinem enorm hohen Aufwand bei der Datenaufbereitung und erschwert dieAbschätzung eines Use Cases deutlich. Es sollte daher frühzeitig in die Quantitätund Qualität der gesammelten Daten investiert werden, bevor mit einemPredictive Analytics Use Case begonnen wird. Dadurch wird der Nutzen einesPA-Projektes umso höher. Bspw. kann die Einführung eines CRM-Systems dazuführen, dass die algorithmische Prognosegüte der Umsatzzahlen sprunghaftansteigt, insbesondere im Vergleich zu Algorithmen, die nur auf Basis vonVergangenheitsdaten Prognosen treffen.
4. Auch sind auf absehbare Zeit weiterhin unterschiedliche Maßstäbe bei derBewertung der Güte zu erwarten. So werden bspw. die wenigen durch autonomgesteuerte Fahrzeuge verursachten Autounfälle medial deutlich stärker gewichtet,als die täglich Tausende von Unfällen personengesteuerter Pkw, die auch beiBereinigung der Laufleistung auf eine massiv höhere „Fehleranfälligkeit“ hin-weisen. Genauso werden „Ausreißer“ in den durch PA erstellten Prognosewertendeutlich kritischer beurteilt, als dies bei unplausiblen Werten in klassischenPrognosen der Fall wäre. Die Akzeptanz von Predictive Analytics kann deshalbnicht grundsätzlich unterstellt, sondern muss durch kluge Herangehensweisenund zielgruppengerechte Kommunikation aktiv erarbeitet werden.
5. Der Analyse der Aufgabenstellung sollte mehr Gewicht geschenkt werden. Inder noch immer vorherrschenden Hype-Phase ist es leicht, die erste sichergebende Chance zum Austesten von Predictive Analytics zu ergreifen. Rück-blickend ist jedoch klar zu erkennen, dass in vielen Projekten klassischeLösungen gegenüber algorithmischen Modellen den größeren Nutzen gebrachthätten. Deshalb darf die detaillierte Definition des Anwendungsfalls keinetheoretische Übung und nicht allein vom Algorithmus getrieben sein. DasBeispiel eines professionellen Account Managements gegenüber einer algorith-mischen Prognose von Umsatzentwicklungen ausgewählter Zielkunden- oder-märkte veranschaulicht diesen Sachverhalt treffend.
6. Am erfolgreichsten sind Predictive-Analytics-Projekte, die eine sich häufigwiederholende Tätigkeit unterstützen oder komplett automatisieren und dereneffizientere Ausübung im Effekt finanziell messbar ist. Diese Kriterien sollten imZentrum der Überlegungen von Führungskräften bei der Priorisierung möglicherUse Cases stehen. Use Cases, die diese Kriterien erfüllen sind in den meistenUnternehmen die Wegbereiter für die digitale Transformation. Dies steht imKontrast zu vielen Leuchtturmprojekten, die zu Kommunikationszwecken zwarauf eine innovative Art und Weise bestimmte Fragestellungen beantworten,jedoch nicht immer direkte Auswirkungen auf die tägliche operative Arbeit einerbreiten Masse von Mitarbeitern haben oder messbare Ergebnisse liefern. Hierwäre beispielhaft die Erstellung eines algorithmischen Quartals-Forecasts für das
60
Grundlagen & Konzepte
Management zu nennen, der nur als erweiterte Diskussionsgrundlage dient. Indiesem Zusammenhang hat sich die möglichst schnelle Entwicklung eines MVP(Minimum Viable Product) als wichtiger Erfolgsfaktor herausgestellt. Durch einMVP erhält das Unternehmen am verlässlichsten eine belastbare Einschätzungdes Potenzials und kann frühzeitig in die Optimierung der Lösung einsteigen.
7. Viele Unternehmen greifen trotz eigener interner Data-Scientist-Teams nach wievor auf externe Beratung zurück, wenn es um weitere Schritte in der Digitalisierunggeht. Grund hierfür ist der nicht zu unterschätzende Hebeleffekt, den ein externesBeratungsprojekt mit sich bringt, da hier sowohl Prozesse als auch Methodenevaluiert und infrage gestellt werden können. Demgegenüber werden interneData-Science-Abteilungen häufig als erweiterter IT-Service betrachtet und auch nurso eingesetzt. Es fehlt hier oft schlichtweg am politischen Druck, Veränderungendurchzusetzen, was hingegen ein Predicitve-Analytics-Projekt als Voraussetzungmit sich bringt, da es die Prozesse grundlegend transformieren soll/wird/muss.
8. Last but not least zeigt sich immer deutlicher, dass die Entwicklung einessogenannten „ATOM“ also eines Algorithmic Target Operating Model, erfolgs-kritisch und perspektivisch die eigentliche Aufgabe der Unternehmensleitungist. Auch der Einsatz noch so vieler Use Cases oder Pilotanwendungen kann inden wenigsten Fällen einen nachhaltigen Beitrag zur Unternehmensleistungerreichen. Viele Unternehmen mit PA-Projekten haben auf den ersten Blickeigentlich alles richtig gemacht und an verschiedenen Stellen moderne Instru-mente aus dem Advanced-Analytics-Universum implementiert. Der durchschla-gende Effekt auf die Unternehmensleistung z.B. in Form von massiven Kosten-einsparungen tritt aber in faktisch allen Unternehmen erst dann ein, wenn dieModelle nicht „on top“, sondern integral in das Organisationsmodel („TargetOperating Model“) eingefügt sind und Synergieeffekte beachtet werden. D.h.,dass kritische Steuerungsprozesse nicht nur durch PA „unterstützt“ werden,sondern dass der gesamte Prozess von Grund auf anders aufgesetzt und ebensogrundlegend anders mit den weiteren Prozessen verkoppelt ist (vgl. Abb. 9).
Während fortgeschrittene Unternehmen also bereits an ihrem individuellenATOM arbeiten und Schritt für Schritt ihre komplette Wertschöpfungskettedigital unterstützen, steht das Gros der Unternehmen grundlegenden Heraus-forderungen („Hausaufgaben“) gegenüber. Für diese Unternehmen geht eszunächst einmal um eine umfassende Integration der Systemlandschaft, dieSchaffung einer belastbaren Single Source of Truth (SSOT) oder die Entwicklungklarer Rollenbilder. Gerade in dieser Gruppe lässt sich dann das zitierte „pilothunting“ beobachten, d.h. die Umsetzung eines Pilotprojektes nach dem anderen,ohne dauerhafte Synergieeffekte und nachhaltig produktive Lösungen zu erzeugen.
Die wenigen Unternehmen, die bisher noch keine Schritte in Richtung Digitalisie-rung unternommen haben, werden über kurz oder lang aus dem Markt verschwin-den. Bei der Nutzung von Predictive Analytics, oder allgemeiner der Instrumente desAdvanced Analytics, ist die Frage nicht mehr ob, sondern nur noch wann und wie.
61
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen
Op
era
tio
ns
Cla
ims
Se
rvic
e
�
Pre
dic
tive
Dam
ag
e
Co
ntr
ol M
od
el
16 War
ning
mes
sage
tocu
stom
ers
in th
e ev
ent o
f an
impe
ndin
g th
reat
�C
usto
mer
ince
ntiv
eth
roug
h bo
nus
syst
em
Fo
recasti
ng
Mo
de
l
Inte
llig
en
t C
us
tom
er
Se
rvic
e13 �
Cus
tom
er e
nqui
ries
are
proc
esse
dau
tom
atic
ally
Str
ate
gy
& D
ec
iss
ion
Ma
kin
g
Glo
bal B
usin
ess R
ad
ar
1
La
ps
e P
reve
nti
on
Mo
de
l
�H
ighl
y gr
anul
ar re
cord
ing
and
eval
uatio
n of
�In
dust
rial r
isks
(Ris
k R
adar
)�
(regi
onal
) fin
anci
al ri
sks
(Tre
asur
y R
adar
)
14 �Pr
even
tive
coun
tera
ctin
g cu
stom
erto
rnos
by
patte
rn re
cogn
ition
Mach
ine L
earn
ing
based
Pri
cin
g
�R
isk-
base
d pr
icin
g at
cus
tom
erle
vel
Ris
k
6
Cu
sto
mer
Lif
eti
me
Valu
e (
CL
V)
Pri
cin
g
�pr
icin
g by
max
imis
ing
the
CLV
and
thus
by
am
ulti-
year
Vie
win
g
7
Re
co
mm
en
de
r &
En
gag
men
t M
od
el
�C
usto
miz
ed, i
ntel
ligen
tpr
oduc
tre
com
men
datio
ns
10In
tellig
en
t C
laim
Tre
atm
en
t M
od
el
15 �In
tellig
ent p
laus
ibilit
y ch
eck
and
hand
ling
of c
laim
s re
ports
Sale
sP
ricin
g &
En
forc
em
en
t
Inte
llig
en
t S
ale
sF
ore
casti
ng
Mo
del
4 �Fo
reca
st o
f Sal
es b
y di
ffere
nt d
imen
sion
s
Cla
ims F
rau
d D
ete
cti
on
�Fu
lly a
utom
ated
det
ectio
n of
impl
ausi
ble
clai
ms
bycl
uste
ring
algo
rithm
sAI
Un
derw
riti
ng
Fra
ud
Dete
cti
on
17
Inte
llig
en
t O
pera
tio
nalF
ore
casti
ng
Mo
del
�Fu
lly a
utom
ated
det
ectio
n of
inco
rrect
info
rmat
ion
whe
n si
gnin
g th
e co
ntra
ct
5 �Fo
reca
st to
opt
imiz
e op
erat
ion
and
utiliz
atio
n
Op
tim
ized
Pre
miu
m
Ad
justm
en
t8 �C
ontri
butio
n ad
just
men
t as
am
athe
mat
ical
opt
imiz
atio
npr
oble
m18
Dig
ital S
ale
sC
oach
�O
ptim
um s
ales
coa
chin
gof
sal
es s
taff
thro
ugh
a se
lf-le
arni
ng d
igita
l "s
ales
coa
ch"
Un
derw
riti
ng
Restr
icti
on
Mo
del
Re
inv
es
tme
nt
Reco
mm
en
dati
on
Rec
omm
enda
tion
for
expi
ring
life
insu
ranc
em
anag
emen
t by
limiti
ng ri
sk
�In
tellig
ent r
isk
Ste
eri
ng
an
d S
cen
ari
o T
oo
l�
Iden
tific
atio
n an
d qu
antif
icat
ion
of d
epen
denc
ies
and
caus
aliti
es in
cor
pora
te g
over
nanc
e us
ing
driv
ertre
es a
nd s
cena
rio te
stin
g
2
9 1112
Fra
ud
Dete
cti
on
2.0
�
QU
AN
D2
3U
nder
stan
ding
Cus
tom
er n
eeds
and
opt
imiz
ing
prod
uct f
eatu
res
4P
Abb. 9: Beispielhafte algorithmische Landkarte für die Versicherungsbranche (ohne Visualisierung
der Input/Output-Beziehungen und sonstiger Interdependenzen)
62
Grundlagen & Konzepte
Technologisch ist die eingangs genannte Weiterentwicklung von PredictiveAnalytics in Richtung Prescriptive Analytics zu erwarten. D.h., dass perspekti-visch viele Maßnahmen, die sich aus der Prognose ergeben, nicht mehr durcheinen Menschen validiert und freigegeben werden, sondern dass auch hier eineAutomatisierung der Entscheidungsprozesse erfolgt. Die Prognose transportiertdann gleichsam die Identifikation der Ursache und die sich daraus ergebendenSchlussfolgerungen i.S.v. Maßnahmen. Sobald diese Technologien in denUnternehmen etabliert sind, wird sich neben den Effizienzanforderungen ausdem nochmals höheren Automatisierungsgrad eine weitere Veränderung derRollenstrukturen in den Fachbereichen ergeben. Sind die Fach- und Prozess-experten heute noch in der Überzahl und die Data Scientists noch eher dasBeiwerk, werden letztere Schritt für Schritt in die Führungsposition kommenund ausschließliche, klassische Fachexpertise wird in diesem Kontext nicht mehrausreichen.
6 LiteraturhinweiseBishop, Pattern Recognition and Machine Learning, 2006.
Gleich/Grönke/Kirchmann, Strategische Unternehmensführung mit AdvancedAnalytics, 2017.
Hastie/Tibshirani/Witten/James, An Introduction to Statistical Learning, 2013.
Oehler, Advanced Analytics für Controller, 2019.
Provost/Fawcett, Data Science für Unternehmen, 2017.
Stephan, Strategietransformation, 2014.
63
Predictive Analytics: Grundlagen, Beispiele, Erfahrungen