Die richtige Mischung aus Rollen und Kompetenzen für ein erfolgreiches Data Science Projekt
Data Science Projekte sind komplexe Prozesse die ein gut abgestimmtes Teams erfordern. So stellen Sie Ihr Team perfekt auf.
Das Data Science Projekt ist definiert. Der Proof of Concept erfolgreich umgesetzt. Und nun? Oftmals ist dann leider Schluss. Tatsächlich liegt in der Operationalisierung von Data Science Projekten, d.h. in deren erfolgreicher Überführung in den produktiven Geschäftsbetrieb, eine der größten Herausforderungen.
Einer Studie von Gartner zufolge werden tatsächlich mehr als die Hälfte aller Data Science Projekte nicht vollständig operationalisiert. In diesem Schritt liegt jedoch der Schlüssel, um Daten langfristig gewinnbringend einzusetzen und den eigentlichen Mehrwert von Data Science Projekten zu erreichen. Damit Sie zukünftig nicht in dieselbe Falle tappen, wollen wir mit diesem Artikel aufzeigen, was es mit der Operationalisierung auf sich hat, die Unterschiede zu einem Data Science Projekt hervorheben und Ihnen anhand des Data Science Operationalisierungszykluses zeigen, worauf es zu achten gilt und welche Fragen vorab geklärt werden müssen.
Seitenverzeichnis
Definition: Die Operationalisierung von Data Science Projekten beschreibt die dauerhafte Integration der Data Science bzw. Analyseergebnisse in die IT-Infrastruktur und operativen Geschäftsprozesse eines Unternehmens. Die Operationalisierung bezieht sich damit auf die stetige Bereitstellung von Data Science Lösungen für den Endnutzer oder wie wir bei pacemaker sagen, den Weg vom Datenprojekt zum Datenprodukt.
Um ein besseres Verständnis dafür zu bekommen, wie Datenprodukte aussehen können, hier ein paar Beispiele aus unserer eigenen Praxis.
Datenprodukte können also ganz unterschiedlich sein und in diversen Anwendungsgebieten echten Mehrwert schaffen. Dabei ist wichtig zu beachten, dass es nicht immer darum geht, alle Anwendungsfälle in ein Datenprodukt zu überführen. Manche Data Science Projekte dienen beispielsweise rein prinzipiell nur als einmalige Entscheidungsgrundlage und bedürfen keines dauerhaft betriebenen Datenprodukts.
Ein Data Science Projekt und ein Operationalisierungsprojekt sind tatsächlich zwei verschiedene Dinge mit unterschiedlichen Anforderungen und Zielen. Eine Tatsache, die vielen Endnutzern oftmals nicht bewusst ist. Doch worin unterscheiden sich die beiden genau?
Während der Fokus eines Data Science Projekts zumeist auf der Machbarkeitsprüfung bestimmter Use Cases, dem sogenannten Proof of Concept (POC), liegt und die Entwicklung von Analysemodellen im Vordergrund steht, geht es bei der Operationalisierung darum, Data Science Softwarelösungen zu entwickeln, welche die Analyseergebnisse dauerhaft in den Geschäftsalltag integrieren. Der Operationalisierungsprozess knüpft daher da an, wo das Data Science Projekt aufhört. An dieser Stelle wird aus einem erfolgreichen Data Science Projekt daher ein Softwareentwicklungsprojekt. Ziel ist es, eine Softwarelösung zu entwickeln, die den Anforderungen des täglichen Geschäftsalltags gerecht wird. Es gilt daher zu überprüfen, ob die im Rahmen des POC getroffenen Annahmen auch im Produktivumfeld und unter Verwendung von stetig aktualisierten Daten zutreffen. Man spricht in dem Zusammenhang auch von einem sogenannten Proof of Scale (POS).
Die nachstehende Grafik gibt einen Überblick über die Hauptunterschiede der zugrunde liegenden Fragestellungen, die es im Rahmen der beiden Projekte zu überprüfen gilt.
Vergleich der Fragestellungen der beiden Vertestungsphasen (Quelle: eigene Darstellung in Anlehnung an Gartner, 2020, Follow 4 Data Science Best Practices to Achieve Project Success)
Die erfolgreiche Implementierung von Datenprodukten bedarf, ähnlich dem CRISP-DM Vorgehen für Data Science Projekte, ebenso eines systematischen Vorgehens. Tatsächlich ist das Fehlen einer systematischen Operationalisierungsmethodik einer der Hauptscheitergründe für eine erfolgreiche Produktifizierung, so Gartner.
Der Operationalisierungsprozess ist ein fortlaufender Kreislauf. Die nachstehende Grafik gibt einen Überblick über den gesamten Prozess. Die einzelnen Schritte werden im Folgenden kurz näher erläutert.
Der Operationalisierungszyklus als strukturierter Prozess zur Implementierung von Datenprodukten (Quelle: eigene Darstellung in Anlehnung an Gartner, 2018, How to Operationalize Machine Learning and Data Science Projects)
Werden nicht die gewünschten Ergebnisse erzielt, kann dies auf verschiedene Gründe zurückzuführen sein. Diese können ein erneutes Durchlaufen des Data Science Projekt-Kreislaufes bedingen. Je nach Ursache wird entschieden, bei welchem Schritt angesetzt werden muss.
Wie die Ausführungen zeigen, ist die Operationalisierung also ein dauerhaftes Projekt. Nach einem initialen Set-up geht das entwickelte Datenprodukt in einen Regelbetrieb über, der einer kontinuierlichen Wartung und Support unterliegt. Hierfür haben sich sogenannte Software as a Service (SaaS) Modelle bewährt.
Wird dieser systematische Prozess befolgt, wird eine große Hürde der Operationalisierung gemeistert. Dennoch ist und bleibt die Produktifizierung ein komplexer Prozess mit ganz unterschiedlichen Herausforderungen, sowohl technischer als auch organisatorischer Natur. Abschließend wollen wir daher einen Blick auf die Hauptgründe werfen, die für das Scheitern verantwortlich sind.
Auch wenn die Gründe unterschiedlich sein können, kristallisieren sich die folgenden jedoch als maßgeblich heraus:
Damit Sie nicht in die gleichen Fallen tappen und die Implementierung Ihres Datenprodukts gelingt, gibt es einige Fragen, die vorab geklärt werden sollten. Dazu gehören unter anderem die folgenden:
Zur erfolgreichen Umsetzung bedarf es dem Zusammenspiel eines interdisziplinären Teams. Zusätzlich zu den Fachabteilungen sollte auf Seite des Unternehmens ein Vertreter der IT-Abteilung involviert werden, denn er oder sie kennt die IT-Infrastruktur, in welche das Datenprodukt integriert werden soll, so gut wie kein anderer.
Der Schlüssel, um Daten langfristig gewinnbringend einzusetzen und den eigentlichen Mehrwert von Data Science Projekten zu erreichen, liegt in der Operationalisierung. Gelingt dieser Schritt, lassen sich die Produktivität steigern, Kosten senken, Umsätze steigern und letztlich der Profit erhöhen. Daher ist es wichtig, bereits zu Beginn eines Data Science Projekts Use Cases hinsichtlich ihrer Produktifizierbarkeit auszuwählen und sodann ein systematisches Vorgehen zu etablieren, um diesen in den dauerhaften Einsatz zu überführen. So profitieren Sie schlussendlich nicht nur von einem höheren ROI Ihrer Data Science Initiativen, sondern erhöhen auch die Akzeptanz für diese Themen im eigenen Unternehmen.
Als Data Science Softwareexperten sind wir bei pacemaker Ihr Ansprechpartner für die Realisierung Ihres Datenprojekts und die Entwicklung Ihres individuellen Datenprodukts. Wir begleiten Sie von der Idee bis hin zur nahtlosen Integration in Ihre IT-Infrastruktur und operativen Geschäftsprozesse.
Sprechen Sie uns an! Zur Projektanfrage.
Data Science Projekte sind komplexe Prozesse die ein gut abgestimmtes Teams erfordern. So stellen Sie Ihr Team perfekt auf.
Unternehmen setzen zunehmend auf Data Science und Data Analytics Lösungen, um das Meer an Daten nutzenstiftend für das eigene Geschäft einzusetzen.
Fehlerhafte Daten bringen Probleme und Kosten mit sich. Wir erklären was Datenqualität ist und wie gut Ihre Daten sein sollten
In unserem Blog dreht es sich um Themen rund um Data Science und KI.