Big Data

Big Data wird in dieser Ausarbeitung nicht als Fachbegriff, sondern als Phänomen verstanden, ein Produkt des technologischen Fortschritts. Es geht im Kern um die schnelle Verarbeitung von großen Datenmengen, welche in unstrukturierter Vielfalt vorliegen. Folgende Eigenschaften finden sich in den geläufigsten Definitionen wieder (vgl. Dors16, S. 6 f.):

Volume: Basis hierfür bildet das Moore’sche Gesetzt, nach welchem sich vereinfacht ausgedrückt die von modernen IT-Systemen erbrachte Rechenleistung innerhalb eines Zeitraums von 12-24 Monaten verdoppelt (vgl. Dors16, S. 7). Weltweit wird das Datenvolumen demnach im Jahr 2020 bei 40 Zettabytes liegen (vgl. Juen13). Zum rasanten Datenanstieg trägt besonders das „Internet der Dinge“ bei. Der Begriff beschreibt Computerchips, welche in immer mehr Lebensbereichen zum Einsatz kommen und dort menschliche Tätigkeiten unterstützen (vgl. Dors16, S.7).

Velocity: Die zweite Eigenschaft von Big Data beschreibt sowohl die Geschwindigkeit, mit welcher neue Daten entstehen (vgl. Fase16, S. 389), als auch die Geschwindigkeit der Entstehung und der kontinuierlichen Veränderung von Daten (vgl. King14, S. 35).

Nimmt die Entstehungsgeschwindigkeit von Daten zu, folgt ein Anstieg der Datenmenge, weshalb man den Faktoren Velocity und Volume eine Wechselbeziehung zuspricht. Durch die rasante Entstehung von Daten nimmt zudem die Zeit ab, in welcher aus einem bestimmten Datenstamm noch Erkenntnisse generiert werden können (vgl. Dors16, S.7).

Variety: Die zu analysierenden Daten haben ihren Ursprung in Quellen aus verschiedenen Bereichen des Lebens. Die Daten können daher bereits formatiert vorliegen, in einer semi-strukturierten Datenbank vorhanden sein oder, wie ein Großteil der Daten, unstrukturiert vorliegen. Kernaufgabe von Big Data-Anwendungen ist es, aus diesen Daten Erkenntnisse zu gewinnen (vgl. Dors16, S.8).

Das Europäische Patentamt nutzt Big Data bereits bei der Patentrecherche mithilfe der Software EPOQUE Net, welche den Recherchevorgang deutlich beschleunigt und Patente so schneller angemeldet werden können (vgl. Bitk12, S.89).

Auch die Webtrekk GmbH, ein Softwareanbieter aus dem Bereich Online-Marketing, bietet Unternehmen durch Analyse von Daten eine Optimierung des Onlineauftrittes an. Trotz großer Datensatzmengen ist es möglich, Auswertungen des Webcontrollings in Echtzeit durchzuführen und zeitnahe Maßnahmen einzuleiten (vgl. Bitk12, S.67).

Die Herausforderung von Big Data im kommerziellen Kotext ist die effiziente Speicherung und Verwaltung von Daten. Diese bilden Grundlage für Analysen, welche Grundlage für unternehmerische Entscheidungen sind (vgl. Maye13, S. 204). Darüber hinaus nimmt mit dem rapiden Anstieg der Datenmenge auch die Zeit ab, in der aus einem bestimmten Datenstamm noch ein Mehrwert generiert werden kann.

 


 

Quellen

[Dors16]         Dorschel, J.: Praxishandbuch Big Data. 1. Auflage, Springer Fachmedien, 2016

[Juen13]          Jüngling, T.: Datenvolumen verdoppelt sich alle zwei Jahre. Erschienen auf www.welt.de. 2013 (https://www.welt.de/wirtschaft/webwelt/article118099520/Datenvolumen-verdoppelt-sich-alle-zwei-Jahre.html Abgerufen am 04.11.2016)

[Fase16]          Fasel, D.: Big Data – Grundlagen, Systeme und Nutzungspotenziale. 1. Auflage, Springer Fachmedien, 2016

[King14]         King, S.: Big Data – Potential und Barrieren der Nutzung im Unternehmenskontext. 1. Auflage, Springer Fachmedien, 2014

[Bitk12]          BITKOM Bundesverband Informationswirtschaft, Telekommunikation und         neue    Medien e. V, Big data im Praxiseinsatz – Szenarien, Beispiele, Effekte,            2012

[Maye13]        Mayer, V.: Big Data- Die Revolution, die unser Leben verändern wird, 1.            Auflage, Redline Verlag, 2013