Skip to Content

Warum herkömmliche Storage-Systeme nicht für Big Data geeignet sind

3 Big-Data-Herausforderungen (und wie man sie überwindet)

Big Data hat viele Eigenschaften: Es ist unstrukturiert, dynamisch und komplex. Aber was vielleicht das Wichtigste ist: Big Data ist groß. Menschen und IoT-Sensoren produzieren jedes Jahr Billionen von Gigabytes an Daten. Aber das sind keine Daten von gestern, sondern moderne Daten in immer mehr unterschiedlichen Formaten und aus immer mehr unterschiedlichen Quellen. 

Dies verursacht eine Kluft zwischen den Daten von heute und den Systemen von gestern. Die schiere Größe und der Umfang sowie die Geschwindigkeit und die Komplexität der Daten stellen herkömmliche Daten-Storage-Systeme vor eine neue Herausforderung. Viele sind schlichtweg schlecht ausgerüstet, und Organisationen, die diese Goldgrube an Daten nutzen wollen, stoßen auf Blockaden. 

Warum passiert das? Was sind die wichtigsten Herausforderungen im Zusammenhang mit Big Data, die Sie kennen sollten? Wenn Sie das Potenzial von Big Data nutzen wollen, werden Ihre Storage-Lösungen ausreichen, um sie zu bewältigen?

1. Big Data ist zu groß für herkömmlichen Storage

Die vielleicht offensichtlichste Herausforderung im Zusammenhang mit Big Data ist der enorme Umfang dieser Daten. Üblicherweise wird dieser in Petabyte gemessen (das sind 1.024 Terabyte oder 1.048.576 Gigabyte).

Um Ihnen eine Vorstellung davon zu geben, wie groß Big Data werden kann, hier ein Beispiel: Facebook-Nutzer laden mindestens 14,58 Millionen Fotos pro Stunde hoch. Zu jedem Foto werden Interaktionen, wie Likes und Kommentare, gespeichert. Nutzer haben mindestens eine Billion Beiträge, Kommentare und andere Datenpunkte „gelikt“. 

Aber es sind nicht nur Tech-Giganten wie Facebook, die riesige Datenmengen speichern und auswerten. Selbst ein kleines Unternehmen, das einen Teil der Informationen aus sozialen Medien auswertet, um beispielsweise zu sehen, was Leute über seine Marke sagen, benötigt eine leistungsstarke Daten-Storage-Architektur.

Herkömmliche Daten-Storage-Systeme sind theoretisch in der Lage, große Datenmengen zu verarbeiten. Doch wenn es darum geht, die benötigte Effizienz und die benötigten Einblicke zu liefern, können viele von ihnen einfach nicht mit den Anforderungen moderner Daten mithalten.

Das Problem mit relationalen Datenbanken

Relationale SQL-Datenbanken sind zuverlässige, altbewährte Methoden zum Speichern, Lesen und Schreiben von Daten. Diesen Datenbanken fällt es jedoch schwer, effizient zu arbeiten, selbst wenn sie ihre maximale Kapazität noch nicht erreicht haben. Eine relationale Datenbank, die große Datenmengen enthält, kann aus vielen Gründen langsam werden. So muss zum Beispiel jedes Mal, wenn Sie einen Datensatz in eine relationale Datenbank einfügen, der Index aktualisiert werden. Dieser Vorgang dauert umso länger, je größer die Anzahl der Datensätze ist. Das Einfügen, Aktualisieren, Löschen und Ausführen anderer Vorgänge kann je nach der Anzahl der Beziehungen zu anderen Tabellen länger dauern. 

Einfach ausgedrückt: Je mehr Daten sich in einer relationalen Datenbank befinden, desto länger dauert jeder Vorgang.

Scale-up versus Scale-out

Es ist auch möglich, herkömmliche Daten-Storage-Systeme zu skalieren, um die Performance zu verbessern. Da herkömmliche Daten-Storage-Systeme jedoch zentralisiert sind, sind Sie gezwungen, aufwärts zu skalieren (Scale-up) statt horizontal (Scale-out).

Das Scale-up ist weniger ressourceneffizient als das Scale-out, da Sie neue Systeme hinzufügen, Daten migrieren und dann die Last auf mehrere Systeme verteilen müssen. Herkömmliche Daten-Storage-Architekturen werden schnell zu umfangreich und unhandlich, um richtig verwaltet werden zu können.

Der Versuch, eine herkömmliche Storage-Architektur für Big Data zu verwenden, ist zum Teil deshalb zum Scheitern verurteilt, weil die Menge der Daten ein ausreichendes Scale-up unrealistisch macht. Dadurch wird das Scale-out zur einzig realistischen Option. Bei einer verteilten Storage-Architektur können Sie neue Knoten zu einem Cluster hinzufügen, sobald Sie eine bestimmte Kapazität erreicht haben – und zwar im Grunde unbegrenzt.

2. Big Data ist zu komplex für herkömmlichen Storage

Was ist eine weitere große Herausforderung für herkömmliche Storage-Systeme im Hinblick auf Big Data? Die Komplexität von Datenarten. Herkömmliche Daten sind „strukturiert“. Sie können sie in Tabellen mit Zeilen und Spalten organisieren, die in einem eindeutigen Verhältnis zueinander stehen.

Eine relationale Datenbank – die Art von Datenbank, in der herkömmliche Daten gespeichert werden – besteht aus Datensätzen mit klar definierten Feldern. Auf diese Art von Datenbank können Sie über ein relationales Datenbankmanagementsystem (RDBMS) wie MySQL, Oracle DB oder SQL Server zugreifen.

Eine relationale Datenbank kann relativ groß und komplex sein: Sie kann aus mehreren tausend Zeilen und Spalten bestehen. Entscheidend ist jedoch, dass Sie bei einer relationalen Datenbank auf ein Datenelement unter Bezugnahme auf seine Beziehung zu einem anderen Datenelement zugreifen können.

Big Data passt nicht immer in die relationalen Zeilen und Spalten eines herkömmlichen Daten-Storage-Systems. Sie sind weitgehend unstrukturiert, bestehen aus unzähligen Dateitypen und enthalten oft Bilder, Videos, Audiodateien und Inhalte aus sozialen Medien. Aus diesem Grund sind herkömmliche Storage-Lösungen für die Arbeit mit Big Data ungeeignet: Sie können sie nicht richtig kategorisieren.

Moderne containerisierte Anwendungen stellen auch neue Anforderungen an den Storage. Kubernetes-Anwendungen sind zum Beispiel komplexer als herkömmliche Anwendungen. Diese Anwendungen können viele Teile enthalten, zum Beispiel Pods, Volumes und ConfigMaps, und müssen häufig aktualisiert werden. Herkömmlicher Storage kann die notwendige Funktionalität für das effektive Ausführen von Kubernetes nicht bereitstellen.

Die Verwendung einer nicht-relationalen Datenbank (NoSQL) wie MongoDB, Cassandra oder Redis kann es Ihnen ermöglichen, wertvolle Einblicke in komplexe und vielfältige unstrukturierte Datensätze zu erhalten.

3. Big Data ist zu schnell für herkömmlichen Storage

Herkömmliche Daten-Storage-Systeme dienen der dauerhaften Datenaufbewahrung. Sie können regelmäßig weitere Daten hinzufügen und dann eine Analyse des neuen Datensatzes durchführen. Big Data wächst jedoch fast augenblicklich, und Analysen müssen oft in Echtzeit erfolgen. Ein RDBMS ist nicht für schnelle Fluktuationen ausgelegt.

Nehmen wir als Beispiel Sensordaten. IoT-Geräte müssen große Mengen an Sensordaten mit minimaler Latenzzeit verarbeiten. Sensoren übermitteln Daten aus der „realen Welt“ in nahezu konstanter Geschwindigkeit. Herkömmliche Storage-Systeme haben Schwierigkeiten, Daten zu speichern und zu analysieren, die in einer solchen Geschwindigkeit anfallen.

Oder nehmen wir ein anderes Beispiel: Cybersicherheit IT-Abteilungen müssen jedes Datenpaket, das durch die Firewall eines Unternehmens gelangt, daraufhin überprüfen, ob es verdächtigen Code enthält. Jeden Tag können viele Gigabyte durch das Netz fließen. Um nicht Opfer von Cyberkriminalität zu werden, muss die Analyse sofort erfolgen; alle Daten bis zum Ende des Tages in einer Tabelle zu speichern, ist keine Option.

Die hohe Geschwindigkeit von Big Data überlastet herkömmliche Storage-Systeme, was ein Grund für das Scheitern von Projekten oder einen nicht realisierten ROI sein kann.

4. Die Herausforderungen durch Big Data erfordern moderne Storage-Lösungen

Herkömmliche Storage-Architekturen sind für die Arbeit mit strukturierten Daten geeignet. Was allerdings die riesigen, komplexen und schnellen unstrukturierten Big Data angeht, müssen Unternehmen alternative Lösungen finden, um die gewünschten Ergebnisse zu erzielen.

Verteilte, skalierbare, nicht-relationale Storage-Systeme können große Mengen an komplexen Daten in Echtzeit verarbeiten. Dieser Ansatz kann Organisationen dabei helfen, die Herausforderungen von Big Data zu meistern und bahnbrechende Erkenntnisse zu gewinnen.

Wenn Ihre Storage-Architektur mit den Anforderungen Ihres Unternehmens nicht mehr Schritt halten kann – oder wenn Sie sich den Wettbewerbsvorteil eines datenbasierten Unternehmens verschaffen möchten – kann ein Upgrade auf eine moderne Storage-Lösung, die das Potenzial von Big Data nutzbar machen kann, sinnvoll sein. 

Pure bietet eine Reihe von einfachen, zuverlässigen STaaS-Lösungen (Storage-as-a-Service), die für jede Betriebsgröße skalierbar sind und sich für alle Anwendungsfälle eignen. Erfahren Sie mehr oder starten Sie noch heute durch.

11/2020
VMware Hybrid Cloud Solution Brief | Solution Brief
Hybrid cloud and container adoption are growing rapidly. Advance to an effortless, optimized VMware environment.
Lösungsprofil
3 Seiten
KONTAKTIEREN SIE UNS
Fragen, Kommentare?

Haben Sie eine Frage oder einen Kommentar zu Produkten oder Zertifizierungen von Pure?  Wir helfen Ihnen gerne!

Termin für Demo vereinbaren

Vereinbaren Sie einen Termin für eine Live-Demo und sehen Sie selbst, wie Pure Ihnen helfen kann, Ihre Daten in überzeugende Ergebnisse zu verwandeln. 

Rufen Sie uns an: +49 89 26200662
Presse:
 pr@purestorage.com

 

Pure Storage Germany GmbH

Mies-van-der-Rohe-Straße 6

80807 München

Deutschland

info@purestorage.com

SCHLIESSEN
Ihr Browser wird nicht mehr unterstützt!

Ältere Browser stellen häufig ein Sicherheitsrisiko dar. Um die bestmögliche Erfahrung bei der Nutzung unserer Website zu ermöglichen, führen Sie bitte ein Update auf einen dieser aktuellen Browser durch.