In 6 Schritten zur passenden Data Analytics-Lösung

So führen Sie Ihr Data Analytics Projekt zum Erfolg!

In vielen Unternehmen werden im Bereich Data Analytics Schlagworte wie Data Fabric, Big Data, Data Lakehouse und datengetriebene Geschäftsprozesse diskutiert, um Innovation voranzutreiben. Fachbereiche fordern Lösungen, um ihre innovativen Ansätze umzusetzen: Beispielsweise verbrauchsorientierte Abrechnungsmodelle (pay per use) für teure Maschinen oder KFZ-Versicherungen nach gefahrenen Kilometern. Solche Lösungen erfordern für die Kalkulation die Verfügbarkeit sämtlicher relevanter Daten und für die spätere Abrechnung eine Übertragung hochaktueller Informationen aus unterschiedlichen Quellen und Formaten.

Daraus ergeben sich, zusätzlich zu den klassischen Herausforderungen, neue Problemstellungen für Lösungs-Architekturen und -Werkzeuge: Der Fokus verschiebt sich von strukturierten hin zu semi- und unstrukturierten Daten und eine laufende Datenversorgung. Um diese Herausforderungen zu bewältigen, sind Datenorientierung sowie eine strategische Ausrichtung auf Analyse und Interpretation von Daten erforderlich. Hinzu kommen Themen wie Cloud, Containerisierung, Big Data, Data Science und AI.

Schlussendlich braucht es eine Modernisierung oder Neuausrichtung der Data Analytics Umgebung, um diesen Anforderungen gerecht zu werden. Ein aufwändiges Unterfangen, was gut geplant sein will – im Blogbeitrag erläutere ich Ihnen sechs Schritte, um Ihr Data Analytics Projekt zum Erfolg zu führen.

Aktuelle Herausforderungen von Unternehmen im Bereich Data Analytics

Im Bereich Datenspeicherung und -analyse findet sich bei vielen Unternehmen aktuell ein Sammelsurium an Lösungen. Data Warehouse-Umgebungen sind meist über Jahre gewachsen, parallel entstanden Data Lakes, fachspezifische Data Marts oder wahlweise Sandboxes für Data Scientists und Analysten. Hier wäre ein Redesign der Lösung angebracht – anstatt diese von Grund auf zu überdenken und sich an neue Funktionen und Möglichkeiten anzupassen, halten Unternehmen häufig an der bestehenden Architektur sowie an den bestehenden Tools fest. Bei Bedarf erfolgt lediglich ein Upgrade der Werkzeuge. Kommen neue Anforderungen hinzu, werden diese „angebaut“ und in zusätzlichen Tools – häufig in der Cloud – implementiert. Das Ergebnis: Fehlen einer einheitlichen Datenbasis, redundante Datenspeicherung und Integrationsprozesse sowie die Konservierung veralteter Strukturen. Dadurch entstehen Datensilos, übergreifende Analysen sind schwierig bis unmöglich, führen zu inkonsistenten Ergebnissen und eine technische Integration ist nur mit viel Aufwand realisierbar.

Checkliste Modernisierung

Um den aktuellen und zukünftigen Anforderungen der Fachbereiche zu entsprechen, ist eine Modernisierung von Nöten. Hierbei ist folgendes Vorgehen sinnvoll:

  • Architektur in Frage stellen
  • Alternative Ansätze sammeln und bewerten
  • Tools auf den Prüfstand stellen
  • Konsequentes Re-Design unter Berücksichtigung der etablierten Werkzeuge
  • Neue Tools, dort wo notwendig und sinnvoll
  • Passende Strukturen und Werkzeuge behalten und ggfs. modernisieren

Fahrplan für ein erfolgreiches Data Analytics-Projekt

Die Modernisierung Ihrer Data Analytics-Lösung steht und fällt mit einer guten Planung. Folgender sechsstufiger Prozess hat sich in der Praxis bewährt, um Ihr Projekt zum Erfolg zu führen.

Schritt 1: Use Cases identifizieren

Am Anfang steht die Frage: Wofür wollen Sie die Data Analytics-Lösung einsetzen? Schließlich soll das Tool nicht zum Selbstzweck eingeführt werden, sondern Ihren spezifischen Ansprüchen genügen. Es ist ratsam, in diesem Schritt möglichst konkret zu werden. Dazu gehört es, bestehende sowie absehbare Use Cases zu analysieren und zu priorisieren und hieraus fachliche Anforderungen abzuleiten. Zusätzlich sollten alle relevanten Datenquellen, die es zu berücksichtigen gilt, identifiziert und aufgelistet werden. Auf Basis strategischer Überlegungen treffen Sie auch die Entscheidung für die Vorgehensweise, die am besten zu Ihrem jeweiligen Projekt passt: Hier lässt sich grundlegend zwischen Re-Design und Greenfield Approach unterscheiden.

Re-Design und Greenfield Approach

Beim Re-Design werden die bestehenden Strukturen und Architekturen weiterentwickelt, vereinheitlicht und auf die neuen Anforderungen ausgerichtet. Existierende Tools werden auf den Prüfstand gestellt, nach aktueller Funktionalität neu bewertet und nur bei Bedarf unter Berücksichtigung von vorhandenen Skills und Lizenzverträgen ausgetauscht. Ausgehend von den derzeitigen und zukünftigen Use Cases ist das Ziel, eine gemeinsame Datenbasis für alle Anforderungen zu schaffen, die tragfähig und flexibel für Weiterentwicklungen ist.

Der Greenfield-Approach hingegen geht von einer kompletten Neuentwicklung der Lösungs-Architektur aus. Sämtliche Strukturen werden neu entwickelt, die Implementierung erfolgt völlig losgelöst von der existierenden Umgebung und auch die Lösungsbausteine werden ohne Berücksichtigung bestehender Verträge und Skills nach dem Best-of-Breed Prinzip ausgewählt. 

Schritt 2: Gap-Analyse

Die Gap-Analyse knüpft an den ersten Schritt an und legt den Fokus auf den Status quo: Was bringt Ihre heutige Umgebung bereits mit? Welche neuen Bedürfnisse können wiederum nicht bedient werden? Wo steckt zusätzliche Funktionalität in Ihrer heutigen Umgebung, die bislang nur nicht genutzt wird?

Es gilt, die derzeitige Umgebung zu analysieren, zu dokumentieren und bestehende Funktionalität zu konservieren. Gleichzeitig sollen auf Basis neuer Anforderungen und Use Cases Funktionen identifiziert und bewertet werden, die in der heutigen Umgebung nicht genutzt werden oder überhaupt nicht zur Verfügung stehen.

Dabei geht es darum aufzuzeigen, was eine zukünftige Lösung zusätzlich bieten muss, um Ihre Erwartungen zu erfüllen. Mit diesen Erkenntnissen lässt sich dann die strategische Entscheidung zwischen Re-Design und Greenfield-Approach weiter verifizieren.

Schritt 3: Zielarchitektur festlegen

Nachdem Sie die IST- und SOLL-Analyse vorgenommen haben, ist es nun geboten, eine Zielarchitektur festzulegen, die Ihre Lösung tragen kann. Dazu gehört, eine Gesamtarchitektur zu definieren, einzelne Lösungsbausteine aufzuzeigen sowie Zusammenhänge und Abhängigkeiten zu identifizieren. In dieser Phase werden auch die Use Cases priorisiert, Abhängigkeiten identifiziert und schlussendlich bereits die Reihenfolge für die spätere Implementierung bestimmt.

Headerbild zu Business Intelligence

 

Mit Analytics & Business Intelligence Daten fest im Griff

Wir konzipieren und konstruieren die passende Business Intelligence-Lösung für Sie und bieten Services in unterschiedlichen Disziplinen.

Schritt 4: Toolevaluierung

Im vierten Schritt wählen Sie die Werkzeuge für die Implementierung Ihrer zukünftigen Lösung aus. Im Falle eines Re-Design nehmen Sie die Tools unter die Lupe, die bereits bei Ihnen im Einsatz sind. Wie schon bei der Gap-Analyse sollten Sie zunächst den Status quo evaluieren und fehlende Funktionalitäten identifizieren, immer unter Berücksichtigung der neuesten Entwicklungen und Versionen Ihrer Bestandslösung. Erst dann geht es daran, zusätzliche Tools für neue Anforderungen auszuwählen und zu verproben.

Beim Greenfield-Approach lösen Sie sich vollständig von Ihren bestehenden Tools. Sie entwickeln auf Basis Ihrer Anforderungen einen Kriterienkatalog, evaluieren verschiedene Werkzeuge und bewerten die verschiedenen Lösungen hinsichtlich ihrer Funktionalität in Bezug auf Ihre Zielarchitektur.

In beiden Fällen empfiehlt es sich, im Rahmen eines Proof-of-Technology ausgewählte Lösungen zu untersuchen und dabei die technische Umsetzbarkeit Ihrer Anforderungen an konkreten Beispielen – möglichst bereits auf einem Extrakt Ihrer Daten – zu evaluieren. 

Schritt 5: Neue Technologie erproben

Ob die neue Technologie hält, was sie verspricht, wird vor der Implementierung eingehend getestet. Dafür bietet sich ein agiles Vorgehen an, bei der die Umsetzung Schritt für Schritt erfolgt – so können Sie nach jeder Entwicklungsphase bereits erste Ergebnisse sehen und beurteilen, ob die Technologie Ihren Ansprüchen genügt. Bei einem Use Case mit komplett neuen Anforderungen hat sich zudem die Entwicklung eines Minimum Viable Products (MVP) bewährt.

Mit einer solchen Herangehensweise lassen sich schnelle Ergebnisse sowie ein hoher Nutzen für den jeweiligen Fachbereich erzielen.

Minimum Viable Product

Unter Minimum Viable Product ist eine erste Basisversion der zukünftigen Lösung zu verstehen, die mit den neuen Tools implementiert wird und die Grundfunktionalität abdeckt. Im Unterschied zu einem Prototyp, der nach den Tests nicht weiterverwendet wird, kann der MVP so lange erweitert und ausgebaut werden, bis die fertige Lösung entwickelt ist.

Schritt 6: Implementierung

Am Ende des Prozesses steht die Implementierung, bei der endlich der erste Use Case operationalisiert wird – damit schließt sich der Kreis zu Schritt 1 (Use Cases identifizieren). Mit der sukzessiven Umsetzung weiterer Use Cases schafft die Lösung nach und nach sichtbaren Nutzen für Ihr Unternehmen. Um einen nachhaltigen Projekterfolg sicherzustellen, sollte ein regelmäßiger Review der Zielarchitektur und des Implementierungsstands erfolgen. Nicht zu vernachlässigen ist außerdem die Etablierung eines Change Managements; so müssen sowohl technisch als auch fachlich Verantwortliche im Unternehmen abgeholt und im Umgang mit der neuen Data Analytics-Lösung geschult werden.

Fazit: Bewährtes erhalten und Neues gestalten

Abschließend lässt sich sagen, dass bei der Modernisierung Ihrer Data Analytics-Lösung stets von Ihren speziellen Use Cases auszugehen ist. Keine Frage: eine moderne Architektur und passende Technologien spielen dabei eine wichtige Rolle. Der Technologiewechsel an sich sollte dabei aber keinen Selbstzweck darstellen, sondern sich vor allem an den neuen Anforderungen der Fachbereiche orientieren. Bereits existierende Anforderungen und Lösungen sind gleichzeitig nicht zu vernachlässigen – gemäß dem Motto: Bewährtes bleibt bestehen, Neues wird ergänzt. Bei der Implementierung ist ein schrittweises, agiles Vorgehen sinnvoll, um schnelle Erfolge zu erzielen und gegebenenfalls rechtzeitig umlenken zu können.

Über den Autor: Martin Clement

Martin Clement ist Teamleiter Data Analytics bei der TIMETOACT und steuert in diesem Rahmen ein Team von rund zehn Consultants. Er bringt über 25 Jahre Berufserfahrung in unterschiedlichen Rollen im Bereich Data Warehouse und Business Intelligence mit. Seit 2020 ist er Teil der TIMETOACT und übernimmt hier eine breite Palette von Aufgaben, von der Kundenbetreuung über die Moderation von Workshops bis hin zur Erarbeitung von Lösungsvorschlägen und Zielarchitekturen.  

Martin Clement
Teamleiter Analytics TIMETOACT Software & Consulting GmbH

Mehr aus unserem Blog

Boxhandschuhe als Symbol für Entscheidung zwischen Data Lake und Data Warehouse
Blog 15.02.22

Data Lake vs Data Warehouse: Welche Lösung ist die Richtige?

Geht es um die Speicherung großer Datenmengen, kommt man um die Begriffe Data Lake und Data Warehouse kaum herum. Vielen Unternehmen stellt sich früher oder später die Frage, welche der beiden Lösungen für welchen Anwendungsfall geeignet ist.

Header Konnzeption individueller Business Intelligence Lösungen
Service

Konzeption individueller Business Intelligence-Lösungen

Wir setzen wir auf Workshops, um sowohl die technischen als auch fachlichen Anforderungen aufzunehmen, die richtige Technologie zu finden und eine individuell auf Sie zugeschnittene Business Intelligence-Lösung zu konzipieren.

Referenz 29.03.21

vdek führt neue Data-Warehouse-Lösung ein

Die TIMETOACT GROUP unterstützt den Verband der Ersatzkassen e. V. bei der Umstellung einer Systemumgebung auf neueste IBM-Technologie.

Navigationsbild zu Business Intelligence
Service

Analytics & Business Intelligence

Business Intelligence (BI) ist ein technologiegetriebener Prozess zur Analyse von Daten und zur Darstellung von verwertbaren Informationen. Dies bildet die Basis dafür, dass Entscheidungen auf fundierten Informationen getroffen werden können.

Technologie Übersicht

Wir sind Ihr Partner rund um Snowflake

Mit der Snowflake Data Cloud verwalten Sie Ihre Daten zentral an einem Ort. Wir unterstützen und beraten Sie gerne zu Snowflake.

Header Blogbeitrag Artificial Intelligence
Blog 05.05.22

Artificial Intelligence (AI) mit Spurhalteassistent im Griff

Die Transparenz und Nachvollziehbarkeit von AI ist die größte Herausforderung für die Nutzung von AI. Im Zusammenhang mit fairer Beurteilung von Menschen oder menschlichem Verhalten sowieso. Im Zusammenhang mit anderen Daten würden wir konsequenterweise in absehbarer Zeit komplett den Durchblick über Zusammenhänge in den Daten verlieren, wenn wir der AI allein das Feld überließen.

Technologie Übersicht

Beratung und Lösungen rund um AWS Services

Als führender AWS Select Partner stehen wir Ihnen mit Rat und Tat zur Seite. Von der Strategieentwicklung über die Migration bis hin zur Optimierung – mit der umfangreichen Suite von AWS Services finden wir gemeinsam die perfekte Lösung für Ihre Anforderungen.

Teaserbild zu Data Integration Service und Consulting
Service

Data Integration Service und Consulting für Ihr Unternehmen

Legen Sie eine optimale Basis für die Nutzung Ihrer Daten – indem Sie diese in ein einheitliches und einfach abfragbares Schema bringen.

Logo Microsoft
Technologie Übersicht

Microsoft

Microsoft beschäftigt sich seit Ende der 90er Jahre verstärkt mit dem Thema Business Intelligence und bietet mit der Microsoft Business Intelligence-Plattform (MS BI) eine komplexe und vollumfassende Lösung für alle Fragestellungen.

Headerbild zu IBM Cloud Pak for Data Accelerator
Technologie

IBM Cloud Pak for Data Accelerator

Zum schnellen Einstieg in bestimmte Use Cases, konkret für bestimmte Geschäftsbereiche oder Branchen, bietet IBM auf Basis der Lösung „Cloud Pak for Data“

Technologie

Microsoft Azure Synapse Analytics

Mit Synapse hat Microsoft in der Azure Cloud eine Plattform für alle Aspekte von Analytics bereitgestellt. Synapse umfasst innerhalb der Plattform Dienste für die Datenintegration, Datenhaltung in jeglicher Größe und Big Data Analytics. Zusammen mit existierenden Architekturtemplates entsteht in kurzer Zeit für jeden analytischen Anwendungsfall eine Lösung.

Headerbild zu Talend Real-Time Big Data Platform
Technologie

Talend Real-Time Big Data Platform

Talend Big Data Platform vereinfacht komplexe Integrationen, sodass Sie große Datenmengen mit Apache Spark, Databricks, AWS, IBM Watson, Microsoft Azure, Snowflake, Google Cloud Platform und NoSQL erfolgreich nutzen können.

Headerbild zu Data Governance Consulting
Service

Data Governance Consulting für Datenqualität und Sicherheit

Mit unseren Data Governance Services sorgen wir für nachvollziehbare, qualitative und sichere Daten – als optimale Grundlage für Ihre datengetriebenen Entscheidungen.

Technologie Übersicht

Beratung rund um IBM Produkte

Als IBM Platinum Business Partner sind wir für Sie da. Ob Beratung, Begleitung oder Umsetzung – mit dem gesamten Portfolio der IBM finden wir die optimale Lösung für Sie.

Headerbild zu Cloud Pak for Data – Test-Drive
Technologie

IBM Cloud Pak for Data – Test-Drive

Wir wollen durch die Bereitstellung unserer umfassenden Demo- und Kundendatenplattform diesen Kunden eine Möglichkeit bieten pragmatisch einen Eindruck der Technologie mit ihren Daten zu bekommen.

Headerbild IBM Cloud Pak for Data
Technologie

IBM Cloud Pak for Data

Das Cloud Pak for Data fungiert als zentrale, modulare Plattform für analytischen Anwendungsfälle. Es integriert Funktionen für die physikalische und virtuelle Integration von Daten in einen zentralen Datenpool – einen Data Lake oder ein Data Warehouse, einen umfassenden Datenkatalog und zahlreicher Möglichkeiten der (AI-) Analyse bis zur operativen Nutzung derselben.

Headerbild zu Big Data, Data Lake und Data Warehouse
Service

Data Lake & Data Warehousing zur Speicherung von Big Data

Für die optimale Lösung – unter besonderer Berücksichtigung der fachlichen Anforderungen – kombinieren wir unterschiedliche Funktionalitäten.

Blog 11.05.23

EU-Nachhaltigkeitsrichtlinie (CSRD) – das müssen Sie wissen!

Die Corporate Sustainability Reporting Directive (CSRD) kommt! Was bedeutet das für Ihr Unternehmen? Wir haben es im Blog zusammengefasst!

Headerbild Talend Data Integration
Technologie

Talend Data Integration

Talend Data Integration bietet eine hochskalierbare Architektur für nahezu jede Anwendung und jede Datenquelle – mit gut 900 Konnektoren von der Cloud Lösung wie Salesforce über klassische On-Premises Systeme.

Headerbild zu Datenbanken mit Open Source
Technologie 12.11.20

Datenbanken mit Open Source

Jede dynamische Applikation braucht eine Form von Datenbank, um ihre Daten logisch und sortiert speichern zu können. Jedoch gibt es nicht eine One-size-fits-all Lösung, sondern es sollte immer auf den Anwendungsfall geschaut werden, um die passende Wahl zu treffen.