Drei Gründe für die Verlagerung Ihrer lokalen Datenarchitektur in die Cloud

5 Minuten lesen

Die meisten Unternehmen nutzen nur 5 bis 10 Prozent der Daten, die sie sammeln. Das schätzt Beatriz Sanz Sai, die seit 20 Jahren auf dem Gebiet der fortgeschrittenen Analytik tätig ist und die globale Daten- und Analytikpraxis von Ernst & Young leitet. Es ist zwar unmöglich, eine solche Behauptung zu überprüfen, aber Tatsache ist, dass viele Unternehmen viele Daten sammeln, aber nur wenig davon analysieren.

Veraltete Datenbankverwaltungssysteme tragen einen Großteil der Schuld daran. Sie verschlingen Zeit und Ressourcen für die Speicherung, Verwaltung und Aufbereitung von Daten und behindern so die Analyse.

Das Aufkommen von Big Data wird die Situation nur noch verschlimmern. Denken Sie nur an die vielfältigen Daten, die jeden Tag in relationalen Datenbanken, SaaS-Anwendungen, mobilen Apps, Online-Anzeigen und sozialen Medien erzeugt werden. Und dann ist da noch das Internet der Dinge (IoT). Gartner geht davon aus, dass bis 2020 20,4 Milliarden IoT-Geräte unsere Welt bevölkern werden - 20 Milliarden Geräte, die kosmische Datenmengen erzeugen werden. Und es sind nicht nur die riesigen Datenmengen, die die bestehenden Systeme zu stören drohen; die Daten werden auch immer heterogener. Eine Studie zeigt, dass Unternehmen im Durchschnitt sage und schreibe 1.181 Cloud-Dienste nutzen, von denen viele einzigartige Daten produzieren. Die technologische Verschuldung sowie der wachsende Umfang und die Komplexität der Daten werden wahrscheinlich dazu führen, dass Altsysteme an ihre Grenzen stoßen.

Um im Zeitalter von Big Data wettbewerbsfähig zu sein, müssen Unternehmen auf die Cloud setzen. Moderne, Cloud-basierte Datenarchitekturen sind die einzige praktikable Option zur Überwindung der drei Haupthindernisse, die Legacy-Systeme für die Analyse darstellen.

1. Die Gefahren der Rückstellungsbildung

Vor dem Aufkommen von Cloud-Datendiensten hatten Unternehmen keine andere Wahl, als ihre eigene Dateninfrastruktur aufzubauen, bereitzustellen und zu pflegen - eine kostspielige, codeintensive Angelegenheit. Das bedeutete, dass man jedes Mal, wenn man mehr Daten speichern oder abfragen wollte, sicherstellen musste, dass man über den nötigen Speicher und die nötige Rechenleistung verfügte, um die Daten zu sichern. Infolgedessen verbrauchten IT-Abteilungen viel Zeit und Energie für die Messung des Arbeitsspeichers, den Kauf von Hardware und zusätzlichem Speicherplatz für Zeiten mit hoher Auslastung, die Installation von Servern und andere Aktivitäten, die an sich keine Erkenntnisse über die Daten brachten.

Die Bereitstellung von Servern war lediglich eine mühsame Voraussetzung für die Analytik. Heutzutage ist es ein Hindernis.

Heute können Cloud-Computing-Anbieter wie Amazon, Microsoft und Google Ihre Dateninfrastruktur für Sie verwalten. Sie greifen auf riesige, ultraschnelle Rechenzentren zurück und stellen genau die Menge an Speicherplatz und Rechenleistung bereit, die Sie zu einem bestimmten Zeitpunkt benötigen. Im Gegensatz zu lokalen Data Warehouses lassen sich Cloud-Alternativen wie Amazon Redshift, Snowflake und Google BigQuery problemlos skalieren, wenn sich Ihre Speicher- und Verarbeitungsanforderungen ändern. Und das in manchen Fällen zu einem Zehntel der Kosten.

Am wichtigsten ist jedoch, dass die Cloud-Datendienste Zeit für Analysen freisetzen. Fragen Sie einfach MANA Partners. Das in New York ansässige Handels-, Technologie- und Vermögensverwaltungsunternehmen steigerte seinen Output an quantitativem Research um das Vierfache, nachdem es die Google Cloud Platform, eine Infrastructure-as-a-Service-Lösung (IaaS), eingeführt hatte.

Speicher- und Verarbeitungsbeschränkungen müssen Ihre Analysen nicht mehr erschweren.

2. Keine Selbstbedienung

Ein weiteres chronisches Problem mit lokalen Datenbankverwaltungssystemen ist, dass sie viel zu viel mühsame Codierung erfordern. Nur diejenigen, die über einen hohen technischen Sachverstand verfügen - in der Regel einige wenige IT-Mitarbeiter - können mit solchen Systemen umgehen. Und selbst diese haben Schwierigkeiten, sie zu nutzen.

Wie zu erwarten, ist der Weg zur Analyse in einer Legacy-Umgebung lang und verschlungen. Ein erfahrener Entwickler muss mehrere komplizierte Schritte durchlaufen, von denen der Extraktions-, Transformations- und Ladeprozess (ETL) nicht der geringste ist. Hier muss der Entwickler Integrationen schmieden und Daten aus Produktionsdatenbanken in einen Data Lake oder ein Data Warehouse verschieben, was größtenteils durch das Schreiben von mühsamem Code geschieht. In einer On-Premises-Umgebung kann dies Wochen oder sogar Monate dauern. Die ganze Zeit über bleiben Erkenntnisse, die zur Kostensenkung und Umsatzsteigerung beitragen könnten, unentdeckt. Diese Probleme werden nur noch schlimmer, wenn Sie weitere Datenquellen einbinden.

Cloud-Alternativen sind viel einfacher zu nutzen und machen die Notwendigkeit der Programmierung praktisch völlig überflüssig. SnapLogic beispielsweise, eine Cloud-basierte Integrationsplattform als Service (iPaaS), ermöglicht es sowohl unerfahrenen Integratoren als auch erfahrenen Datenarchitekten, Datenpipelines über eine Drag-and-Drop-Schnittstelle schnell zu erstellen. In einem Fall hat ein milliardenschwerer Hersteller von Schönheitsprodukten seine Integrationsprozesse mit SnapLogic von drei Wochen auf drei Stunden verkürzt.

Das sind fast 120 zusätzliche Stunden, die nun für die Gewinnung neuer Erkenntnisse durch Analysen aufgewendet werden können.

3. Reihen sind langsam

Selbst wenn man alte Datenbanken von ihrer Komplexität befreien und in Self-Service-Anwendungen umwandeln würde, würden sie immer noch keine schnellen Analysen liefern. Das liegt daran, dass lokale Systeme Daten zeilenorientiert speichern. Ganz zu schweigen von der Tatsache, dass Ihr IT-Team viel Zeit damit verbracht hat, die Daten für die Speicherung in ordentliche Zeilen und Spalten zu konvertieren. Wenn Sie eine zeilenbasierte Tabelle abfragen, muss das System alle Daten in jeder Zeile durchsuchen, einschließlich irrelevanter Felder, bevor es die benötigten Daten extrahiert. Dies führt zu langsamen Abfragen und schlechter Leistung, insbesondere bei der Abfrage eines großen Datensatzes. Lokale Data Warehouses schränken Ihre Möglichkeiten zur Erstellung von Berichten, zum schnellen Abruf von Daten und zur Durchführung komplexer Abfragen stark ein.

Spaltenorientierte Tabellen hingegen ignorieren unwichtige Felder und erfassen schnell die benötigten Daten. Dadurch sind sie in der Lage, schnelle Analysen zu liefern. Darüber hinaus sind Spaltenspeicher für die Bewältigung des Ozeans an unterschiedlichen Daten konzipiert, der unsere Welt durchdringt.

Um dies zu verdeutlichen, migrierte ein Amazon-Kunde 4 Milliarden Datensätze von seinem lokalen Data Warehouse zu Amazon Redshift und meldete eine 8-fache Verbesserung der Abfrageleistung. Darüber hinaus benötigte das lokale System 748 Sekunden für eine Abfrage, während Amazon Redshift dieselbe Abfrage in 207 Sekunden bearbeitete.

Die Zeit, die Sie damit verbringen, auf neue Erkenntnisse zu warten, ist bei Cloud Data Warehouses wesentlich kürzer als bei etablierten Systemen.

Die Uhr tickt

Die Investitionen in Cloud-Datendienste steigen weiter an. IDC prognostiziert, dass die weltweiten Ausgaben für öffentliche Cloud-Dienste und -Infrastrukturen bis Ende 2018 auf 160 Milliarden US-Dollar ansteigen werden, was einem Zuwachs von 23,2 % gegenüber dem Vorjahr entspricht. Diejenigen, die untätig bleiben und sich damit begnügen, vor Ort zu bleiben, setzen sich selbst einem Risiko aus.

Alteingesessene Unternehmen werden zunehmend damit zu kämpfen haben, die Last von Big Data zu tragen. Und während sie damit beschäftigt sind, Server bereitzustellen, Integrationen von Hand zu programmieren und unter technologischer Verschuldung zu leiden, werden ihre Cloud-gesteuerten Konkurrenten die Analytik nutzen, um ihre Vorherrschaft in der Branche auszubauen.

Wie lange können Unternehmen überleben, wenn sie nur fünf Prozent der gesammelten Daten nutzen? Das können wir nicht mit Sicherheit wissen. Was aber immer deutlicher wird, ist, dass der Marktanteil denjenigen gehört, die ihre Datenarchitektur in die Cloud verlagern. Je früher, desto besser.

Ehemaliger VP für Produktmarketing bei SnapLogic
Kategorie: Wolke

Wir stellen ein!

Entdecken Sie Ihre nächste große Karrierechance.