Big Data – Eine große Chance für Informationsspezialisten?

Ausgabe 8/2012

check($_SERVER['REMOTE_ADDR'])){
?>

Seit einiger Zeit stößt man immer häufiger in den Medien auf den Begriff „Big Data“. Grundsätzlich steht dieser Ausdruck für die steigenden Anforderungen bei der Analyse durch die explodierenden Datenmengen in Unternehmen oder auch in wissenschaftlichen Organisationen. So soll sich nach aktuellen Berechnungen das verfügbare Datenvolumen ca. alle fünf Jahre verzehnfachen. Verstärkt wird dieser Trend durch die zunehmende Digitalisierung von Informationen und Geschäftsdaten, durch soziale Medien sowie durch neue Technologien wie das Internet der Dinge oder Location Based Services. Die Unternehmen, die diese Datenmengen am besten beherrschen, sollten also diverse Wettbewerbsvorteile erlangen. Kein Wunder, dass viele IT-Unternehmen in Big Data ihre Chance für Big Sales sehen. Unterstützt wird dies etwa durch Marktforschungsunternehmen wie IDC, das erwartet, dass der Markt für Big Data-Dienste und -Technologie jedes Jahr mit einer Rate von 40% wachsen und bis zum Jahr 2015 eine Umsatzhöhe von insgesamt 16,9 Mrd. US$ erreichen wird. Können Informationsspezialisten bei diesem vermeintlich reinen IT- und Managementthema eine Rolle spielen und wenn „Ja“, wie sehen diese Aufgaben aus?

Ziel jeder kommerziellen Unternehmung ist es, ihre Effizienz zu steigern und Wettbewerbsvorteile zu erzielen. Genau dies versprechen die Anbieter von sogenannten Big Data-Lösungen. Die herkömmlichen relationalen Datenbanksysteme, Data-Warehouses sowie sonstige Statistik- und Visualisierungstools, sind oft nicht mehr in der Lage, die heute in vielen Unternehmen anfallenden großen Datenmengen zu verarbeiten. Für Big Data wird von spezialisierten Computerunternehmen nun hierfür eine neue Art von Software angeboten, die parallel auf bis zu hunderten oder tausenden von Prozessoren bzw. Servern arbeitet.

Wie kann man „Big Data“ allgemein definieren? Wikipedia liefert hierzu etwa folgende ganz brauchbare Definition: „Als Big Data werden besonders große Datenmengen bezeichnet, die mit Hilfe von Standard Datenbanken und Daten-Management-Tools nicht oder nur unzureichend verarbeitet werden können. Problematisch sind hierbei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung von großen Datenmengen. Das Volumen dieser Datenmengen geht in die Terrabytes, Petabytes und Zettabytes.“ 

Eines der Hauptprobleme, die Organisationen schon bisher beim Umgang mit großen Datenmengen hatten, sind die vielen unstrukturiert vorliegenden Daten. Big Data verspricht hier die Lösung, um sowohl strukturierte als auch unstrukturierte Daten auswerten zu können. Mit Big Data soll es also möglich sein, trotz immer größerer Datenmengen den Überblick zu behalten und nicht mehr auf „Bauchentscheide“ vertrauen zu müssen. Weiterhin verspricht Big Data, die Analyse von Daten und Informationen in annähernder Echtzeit durchzuführen, womit schnellere Entscheidungen getroffen werden können. Beispiele für Big Data findet man in der Finanzindustrie (Hochfrequenzhandel), der Klimaforschung (Wetterdaten), Genetik (menschliches und tierisches Genom), Energiesektor (Verbrauchsdaten), Pharmazie und Biotechnologie (klinische Tests) oder in der Physik (Teilchenbeschleuniger).

Die Grundlage für die Notwendigkeit von Big Data wird u.a. aus folgenden Fakten gezogen:

  • Unsere Gesellschaft produziert immer größere Datenmengen. So geht der Netzwerkausrüster Cisco Systems in einer im Mai 2012 veröffentlichten Studie von einem jährlichen IP-Transfervolumen von 1,3 Zettabytes aus.
  • Weiterhin geht Cisco davon aus, dass das weltweite IP-Datenvolumen 2015 und 2016 auf über 330 Exabytes anwächst (1 Exabyte entspricht der 4.000 fachen Menge aller in der Library of Congress enthaltenen Informationen).
  • Der Technologiekonzern IBM hat errechnet, dass die Menschheit jeden Tag 2,5 Trillionen Bytes an Daten produzieren.
  • Das Marktforschungsunternehmen Economist Intelligence Unit (EIU) hat 2011 errechnet, dass Unternehmen, die auf datengesteuerte Geschäftsentscheidungen setzen, eine Produktivitätssteigerung von 5 bis 6% pro Jahr erreichen. Gleichzeitig glauben ein Viertel aller Unternehmensverantwortlichen, dass ihr Unternehmen den größten Teil der vorhandenen Daten nicht berücksichtigt. Mehr als 50% geben zu, dass ihr Unternehmen lediglich die Hälfte aller verfügbaren Daten für Entscheidungen nutzen kann.
  • 85% aller vorliegenden Daten liegen nur in unstrukturierter Form vor. Die Auswertung dieser Datenmengen ist mit heutigen Mitteln kaum zu bewerkstelligen, obwohl in diesen Daten für Unternehmen wertvolle Informationen enthalten sind.

Der BITKOM-Leitfaden (http://www.bitkom.org/de/publikationen/38337_73446.aspx) nennt einige Fallbeispiele für reale Big Data-Anwendungen. Zu diesen Anwendern zählt z.B. das Europäische Patentamt, das für ihre Terabytes an Daten und Patentinformationen auf eine Lösung mit dem Namen „EPOQUE Net“ setzt. Mit EPOQUE Net konnten nach eigenen Angaben Recherche und Bearbeitung von Prüfdaten erheblich beschleunigt und effizienter gestaltet werden. Gerne werden als weitere erfolgreiche Big Data-Lösungen auch der Online-Händler Amazon und der Suchmaschinenbetreiber Google genannt, die in Sekundenschnelle ihren Usern aus gigantischen Datenmengen entsprechende Produkte oder Suchtreffer anzeigen können.

Die Akzeptanz von Big Data ist aber zumindest in Deutschland bisher noch nicht allzu groß, obwohl laut Beratungsunternehmen Experton Group der Big Data-Markt 2011 bereits weltweit Umsätze in Höhe von 3,3 Mrd. USD generiert hat. So sagen laut einer aktuellen Umfrage von CIO.de 55,6% der befragten deutschen Unternehmen, dass sie noch keine Big Data-Analysen verwenden. Lediglich 14,5% setzen bereits auf Analysen mittels Big Data-Lösungen (Quelle: http://www.cio.de/knowledgecenter/bi/2893373/index.html). Zu schwammig scheinen wohl für viele die bisher angebotenen Lösungen zu sein und der mögliche Nutzen zu unsicher. Grund hierfür dürfte sein, dass der Entwicklungsstand von Big Data-Software sich noch in einer frühen Phase befindet. Derzeit wird hauptsächlich der MapReduce-Ansatz von Google verfolgt, der in der Open Source Software Hadoop von Apache sowie in einigen kommerziellen Produkten zum Einsatz kommt. Auf der anderen Seite bietet dies gerade für Information Professionals eine gute Chance, dieses weitgehend noch unbesetzte Gebiet schon heute für sich einzunehmen.

Möglichkeiten für Informationsspezialisten, sich in die Big Data-Welt einzubringen, ergeben sich u.a. durch folgende Faktoren:

  • Informationsspezialisten sind die am besten geeigneten Experten wenn es darum geht, unstrukturierte Daten in besser bearbeitbare Daten umzuwandeln. Zu denken ist hier in erster Linie an die verschiedene Metadaten-Schemen, die von Informationsspezialisten entwickelt worden sind. Hier steht also die Aufgabe der intelligenten Indexierung im Vordergrund.
  • Wissenschaftliche Bibliotheken können durch die Bereitstellung von Primärdaten, die z.B. im Rahmen der Forschungsarbeiten in den angeschlossenen Fachbereichen anfallen, dafür sorgen, dass diese Daten der Wissenschaft und der Öffentlichkeit langfristig bereitgestellt werden. Aufgaben, die Informationsspezialisten hier erfüllen können, sind die Langzeitarchivierung und die Erstellung von allgemeinen Nutzungsmöglichkeiten für interessierte Kreise.
  • Es macht einen Unterschied, ob man nur erkennt, dass datengestützte Entscheidungen besser für ein Unternehmen sind, oder ob man dies auch tatsächlich in der Realität umzusetzen weiß. Hier können Informationsspezialisten helfen, bestehende Mankos zu beseitigen. Zu diesen Mängeln in der Daten- und Informationsversorgung gehören schlecht organisierte Sammlungen, schlechte Suchwerkzeuge, kein Bewusstsein für Informationsquellen außerhalb des eigenen Unternehmens sowie Probleme aufgrund bestehender urheberrechtlicher und gewerblicher Schutzrechte.

Abschließend sei auf einen schönen bildlichen Vergleich der Autorin Gordon-Murnane hingewiesen. Informationsspezialisten sind wie die sogenannten „Wasserträger“ im Radsport. Sie achten darauf, dass ihr Kapitän nicht dem Wind ausgesetzt ist, dass er genug zum Essen und Trinken hat, oder dass er nach einem technischen Defekt seines Rads sofort wieder an das Feld herangeführt wird. So erntet der Gewinner des gelben Trikots bei der Tour de France zwar den ganzen Ruhm und auch das meiste Geld, aber er weiß, dass er ohne seine Teammitglieder dieses Rennen niemals hätte gewinnen können.

Allgemein erscheint das Thema „Big Data“, wie viele andere neue Technologie-Themen auch, ein bisschen eine Marketing-Mogelpackung zu sein. Dass die ständig wachsenden Datenmengen in Unternehmen eine Herausforderung bedeuten, ist keine Frage. Aber was einige Big Data-Technologie-Anbieter hier als Werkzeuge anbieten, ist nicht immer revolutionär. Größtenteils basieren viele der derzeit auf dem Markt angebotenen Lösungen in erster Linie auf der massiven Ausweitung der Hardwarekapazitäten und weniger auf neuer „intelligenter“ Software. Big Data dürfte heute in der Realität in Unternehmen eher durch eine Kombination aus bekannten und neuen Technologien umgesetzt werden als durch eine einzige spezifische Big Data-Lösung.

Unklar ist auch, worin sich Small Data von Big Data unterscheiden soll? Nicht definiert ist auch, bei welchen Datenmengen Small Data aufhört und wo Big Data anfängt. Dass große Datenmengen, vor allem wenn sie unstrukturiert vorliegen, ein Problem – und gleichzeitig auch eine große Chance – darstellen, ist aber unbestritten. Die neuen Big Data-Technologien können sicher mithelfen, mehr aus den in Unternehmen vorhandenen Daten zu machen. Aber ein ausschließlich auf Technologie basierter Ansatz greift zu kurz. Wären die Daten schon auf Small Data-Ebene, d.h. als das elektronische Datenaufkommen noch übersichtlich war, mit mehr informationswissenschaftlichen Methoden bearbeitet worden und inhaltlich adäquat erschlossen worden, könnte man sich den jetzt notwendigen teuren Erwerb von Big Data-Lösungen zum Teil wohl sparen. Hier bietet sich Informationsspezialisten eine große Chance, um in das Thema Big Data einzusteigen. Wer wenn nicht Informationsspezialisten sind in der Lage, Ordnung in das Informationschaos zu bringen? Ob das in Unternehmen oder in wissenschaftlichen Forschungseinrichtungen auch so gesehen wird, steht allerdings auf einem anderen Blatt. Informationsspezialisten sind zwar zentrale Informationsarbeiter. Um diesen Wert für ihre Organisation kontinuierlich nachweisen zu können, müssen sie alle sich bietenden Möglichkeiten wahrnehmen, wie sie Big Data und andere neue Technologien ermöglichen.

Quellen: Gordon-Murnane, Laura: „Big Data: A Big Opportunity for Librarians“; in: Online, Vol. 36, No. 5 - September/October 2012, 30-34

http://www.managementthinking.eiu.com/big-data.html  

http://www.mckinsey.com/Insights/MGI/Research/Technology_and_Innovation/Big_data_The_next_frontier_for_innovation

http://de.wikipedia.org/wiki/Big_Data

Um den Artikel in voller Länge lesen zu können registrieren Sie sich doch einfach bei uns | oder melden Sie sich an (Login)

Mehr zum Thema:

Antworten