Blog

Das *umBlog – Wissenswertes aus der Welt der Daten, Tech-Trends, Termine und Einblicke in unsere unglaubliche Company.

Hadoop 2: HP und *um entwickeln Architektur für effektive Big Data-Prozesse

Verfasst am 13.05.2014 von Christoph Salzig

Big Data ist buchstäblich in aller Munde. Doch, obwohl viele darüber reden, trauen sich die wenigsten Unternehmen, auch entsprechend zu handeln. Warum? Das hat vor allem auch technische Gründe. Als größter Hemmschuh entpuppt sich meist die Frage nach der Verfügbarkeit und Sicherheit der Daten. Da inzwischen unternehmenskritische Daten auf den Big Data-Servern liegen, kann es sich kein Unternehmen mehr leisten, dieses Thema nur nachgelagert zu betrachten. Mit Hadoop 2.0 brechen jedoch neue Zeiten an: HP Deutschland hat gemeinsam mit unseren Big Data-Spezialisten eine Referenzarchitektur entwickelt, um die Verfügbarkeit der Daten und die Geschwindigkeit deutlich zu erhöhen.

 

Innovative Lösungsansätze

Big Data-Lösungen haben heute Anforderungen, die bei Onlinespeicher-Umgebungen bereits lange zum Standard gehören. Andreas Bachmann, Presales Manager Storage und Leiter des HP Big Data Kompetenzteams in Deutschland, bringt das auf den Punkt: "Wir brauchen Lösungen, die es sowohl kleinen und mittleren Unternehmen als auch den großen Enterprises ermöglicht, neue Geschäftsmodelle kosteneffizient und sicher zu entwickeln." Eben das macht HP. Unser Partner bietet als einziger Hersteller eigene integrierte Lösungen – vom Server über Storage und Netzwerk bis zur Software –, um den skizzierten Anforderungen zukunftsorientiert gerecht zu werden.

 

Kein Single-Point-Of-Failure

Mit der Version 2.0 ist in einem Hadoop Cluster erstmals kein Single-Point-of-Failure (SPOF) mehr vorhanden. "In der Vergangenheit war es sehr aufwändig, den zentralen Server abzusichern. Mit den neuen Funktionalitäten von Hadoop 2.0 können wir jedoch ohne großen Aufwand ein Höchstmaß an Datensicherheit anbieten", erläutert Andreas Bachmann.

 

Neue Big Data-Generation

Die neue Referenzarchitektur bieten wir in zwei Versionen an: als reines Platform-Hosting oder als Hadoop-as-a-Service. Damit kommen wir dem Bedürfnis vieler Unternehmen entgegen, die solch große Datenmengen nicht mehr selbst verwalten wollen und in den meisten Fällen auch das Know-how dazu nicht aufbauen können. "So oder so - durch den Proof of Concept mit HP erbringen wir den Nachweis, dass auch unternehmenskritische Geschäftsmodelle reif für Big Data Prozesse sind", so unser Geschäftsführer Ravin Mehta.

 

Effizienter, schneller, sicherer

Die Referenzarchitektur ist für jede Unternehmensgröße skalierbar. HP verwendet in den Hadoop Servern (Worker Nodes) teilweise Flash-Speicher und beschleunigt den Verarbeitungsprozess somit um ein Vielfaches. Dadurch entstehen zwei verschiedene Speicherklassen auf den Hadoop-Servern, um die Daten möglichst kosteneffizient zu verwalten. Wir erweitern das Hadoop 2.0 Angebot noch durch Backup- und Recovery-Dienstleistungen speziell für eine Hadoop-Umgebung. Damit ist die höchste Datenintegrität gewährleistet.

"Bisher wurde mehr über den Einsatz von Big Data geredet als tatsächlich ernsthafte Projekte umgesetzt wurden", fasst Ravin Mehta zusammen. "Gemeinsam mit HP haben wir jetzt die Grundlage für die flächendeckende Einführung von Big Data-Prozessen geschaffen."

Social Media

Kontakt

The unbelievable Machine
Company GmbH
Grolmanstr. 40
D-10623 Berlin

+49-30-889 26 56-0 +49-30-889 26 56-11 info@unbelievable-machine.com

Kostenloses Whitepaper

Data Thinking:
Erfolgsrezept für den digitalen Wandel

Zum Whitepaper