Datability greift den Megatrend „Big Data“ auf und steht für die Fähigkeit, große Datenmengen in hoher Geschwindigkeit verantwortungsvoll und nachhaltig zu nutzen (Englisch: ability, sustainability, responsibility). Die damit verbundenen Chancen entstehen nicht automatisch. Information wird zum Wirtschaftsgut, was zu tiefgreifenden Veränderungen im Informationsmanagement führt und neue Branchenkonzepte wie Industrie 4.0 ermöglicht. Datenschutz und Datensicherheit werden nicht außer Kraft gesetzt, sie bestimmen vielmehr die nachhaltige und verantwortungsvolle Nutzung von Information mithilfe von Big Data.
1. Datability – mehr als ein Kunstwort?
Als Motto und Top-Thema für die größte Fachmesse für Informationstechnik CeBIT wurde in diesem Jahr von den Veranstaltern das Kunstwort „Datability“ geprägt. [1] Datability adressiert dabei den Megatrend „Big Data“ und steht für die Fähigkeit, große Datenmengen in hoher Geschwindigkeit verantwortungsvoll und nachhaltig zu nutzen (Englisch: ability, sustainability, responsibility).
Spätestens die jüngsten Enthüllungen um internationale Datenspionage haben gezeigt, dass die technischen Möglichkeiten und Auswirkungen von „Big Data“ bereits heute alle Bereiche des Lebens betreffen und vielerorts auch bei Weitem unterschätzt werden.
Big Data stellt dabei Konzepte, Technologien und Methoden zur Verfügung, um große Volumina vielfältiger Daten zu analysieren und als fundierte und zeitnahe Entscheidungsgrundlage verwenden zu können.
Die Trends in der Informationsverarbeitung werden dabei durch drei Charakteristika gekennzeichnet, die man nach ihrer englischen Bezeichnung als die „drei V“ bezeichnet. Durch die fortschreitende Digitalisierung verzeichnet man ein exponentielles Wachstum der Datenmenge (Volume), der Geschwindigkeit des Datenverkehrs (Velocity) und der unterschiedlichen Beschaffenheit der Dateninhalte (Variety).
Hierfür sind mehrere Faktoren verantwortlich:
- Die Anzahl, Qualität und Nutzungsintensität von digitalen Diensten und sozialen Netzwerken im B2C- und B2B-Bereich sind in den vergangenen Jahren erheblich gestiegen. Hinzu kommen mobile Informations- und Kommunikationsdienste über Smartphones, die mit zusätzlichen Sensoren ausgestattet sind und zur Produktion und Aufzeichnung weiterer Daten führen.
- Die Vernetzung von Infrastrukturen, Maschinen, Anlagen und Konsumgütern mit intelligenten Funktionen im Sinne des „Internet der Dinge“, welche untereinander und mit dem Nutzer interagieren.
- Wissenschaftlich-technische Verfahren zur Verarbeitung von Massendaten, um neue Erkenntnisse zu gewinnen, zum Beispiel in der Gentechnik und in der Medizin.
Die wirtschaftliche Bedeutung von Daten wird inzwischen als so groß angesehen, dass sie neben Arbeitskraft, Ressourcen und Kapital als „vierter Produktionsfaktor“ bezeichnet werden. Big Data wird dabei schon als „die Revolution, die unser Leben verändern wird“, angesehen. [2]
Die mit Big Data verbundenen Chancen entstehen nicht automatisch. Unternehmen müssen sich mit den Herausforderungen von Big Data auseinandersetzen, die insbesondere das Informationsmanagement und damit die Hauptaufgabe und neue Rolle des Chief Information Officers (CIO) eines Unternehmens betreffen.
2. Changing the Rules of Business
Das Informationsmanagement in Unternehmen bezieht sich heute nicht mehr nur auf die Informationstechnik, es liegt vielmehr in dem Management der Information als Wirtschaftsgut und Wettbewerbs- und Produktionsfaktor im Sinne der Informationswirtschaft. Damit wird die gesamte Unternehmensarchitektur Gegenstand des Informationsmanagements. Das vom Verfasser entwickelte ARIS-Konzept (Architektur integrierter Informationssysteme) stellt dabei einen Ordnungsrahmen zur Beschreibung von Informationssystemen zur Verfügung. [3] Schaut man zurück auf die letzten fünf Jahrzehnte, so waren neue Technologien für das Informationsmanagement schon immer auch der Treiber für neue Organisationsprinzipien im Unternehmen.
2.1 Vom Chaos zur Standardisierung
Die erste Welle des Informationsmanagements in den 1960er Jahren war gekennzeichnet durch die Entwicklung einfach zu verwaltender Datenstrukturen. Die Systeme folgten dabei der vorherrschenden funktionsorientierten Organisationsstruktur in Unternehmen, welche im Ergebnis zu den bekannten Systemsilos mit eigener Datenorganisation und hohem Integrationsaufwand führte.
Mit der Entwicklung von Enterprise-Resource-Planning (ERP)-Systemen wurde durch einheitliche Datenorganisation auf Basis relationaler Datenbanken das Verwaltungs- und Integrationsproblem gelöst. Nunmehr wurde jedes Datenobjekt nur einmal gespeichert und von allen Funktionen verwendet.
Dies eröffnete die Möglichkeit, die Geschäftsprozesse als Organisationsparadigma zu wählen. Sie wurden mit Business Process Management (BPM) Werkzeugen identifiziert, beschrieben (modelliert), vereinfacht und kundenfreundlicher gestaltet. Dabei wurde für jeden Prozesstyp ein „Standardablauf“ definiert, auf den die ERP-Software eingestellt wurde. Nicht mehr die Kapazitätsauslastung der Abteilungen war nun das Organisationsziel, sondern die Verkürzung und Straffung der Prozesslaufzeiten, also die Erhöhung der Prozesseffizienz.
Ergebnis der Organisations- und Implementierungsprojekte war dann ein integriertes ERP-System. Aus dem Chaos vieler funktionsorientierter Systeme war eine einheitliche prozessorientierte Systemlandschaft geworden.
2.2 Von der Standardisierung zum Data-Warehouse
Unter dem Begriff Business Intelligence wurden Mitte der 1990er Jahre Verfahren und Prozesse zur systematischen Analyse von strukturierten Daten populär. Die in den ERP-Systemen vorliegenden Unternehmensdaten wurden genutzt, um aus verschiedenen Blickwinkeln die Situation des Unternehmens zu analysieren und gegebenenfalls zu bewerten. Die Analyse erfolgt hierbei nicht in ERP-Systemen, sondern in davon getrennten Data-Warehouse Systemen. Die transaktional und relational strukturierten ERP Systeme waren zum einen nicht geeignet, gleichzeitig operative Daten und analytische Auswertungen zu verarbeiten. Zum anderen wurden, nicht zuletzt aus Performancegründen, ganze Funktionsbereiche aus dem ERP System in eigene Systeme wie Customer Relationship Management (CRM) oder Supply Chain Management (SCM) verlagert, sodass keines der beteiligten Systeme mehr eine Gesamtsicht auf die Unternehmensdaten erzeugen konnte. In Data-Warehouse Systemen konnten die Daten systemübergreifend geladen, gespeichert und im Rahmen von Online Datenanalyse (OLAP) zur betriebswirtschaftlichen Entscheidungshilfe ausgewertet werden.
Allerdings geht diese Sichtweise meist damit einher, dass aus den Originaldaten nur periodisch eine verdichtete und bereinigte Kopie erstellt wird, auf denen die Analysen durgeführt werden. Dies reicht für periodische Planungsprozesse, Finanzreporting oder auch traditionelle Marketingkampagnen aus. Big Data kann Analysen dagegen unter Zuhilfenahme von Originaldaten ausführen und diese zur Laufzeit einer Analyse verdichten und weiterverarbeiten.
2.3 Vom Data-Warehouse zu Big Data
Der Begriff Big Data bezeichnet das Speichern und Auswerten sehr großer Datenmengen mithilfe neuer Technologien. Vorbild sind skalierbare Hochleistungsdatenbanksysteme wie Google BigTable oder Amazon Dynamo. Besonderer Wert wird auf Skalierbarkeit und Geschwindigkeit durch nicht-relationale Datenspeicher gelegt, die auch als NoSQL Datenbanken bezeichnet werden. Zur Datenanalyse werden flexible Programmiermodelle wie MapReduce eingesetzt, um Berechnungen und Abfragen zu parallelisieren und auf viele Rechner zu verteilen. Eine weitere Beschleunigung der Datenexploration wird durch In-Memory-Technologien erreicht, welche zum Beispiel in SAP Hana implementiert wurden. In-Memory-Technologien nutzen zur Datenspeicherung den gegenüber einer Festplatte erheblich schnelleren Arbeitsspeicher und können so eine wesentlich höhere Performance bei der Auswertung von Daten ermöglichen.
Abbildung 1 zeigt, wie durch Big Data flexible Prozessplattformen geschaffen werden, welche alle für die Ausführung eines Prozesses benötigten Daten für den Anwender aus beliebigen Datenquellen zusammenführen und umgekehrt die von dem Prozess erzeugten Daten für die weitere Verarbeitung durch virtuelle Datennetzwerke, Cloud Dienste oder Office und ERP Anwendungen verteilen. Es ist davon auszugehen, dass es viele neue Anwendungsfälle für solche Plattformen geben wird, sei es für die Mobilität, für das Verteilen von Strom, für Industrie 4.0 oder für Analyse- und Kommunikationsdienste in verschiedensten Branchen. Unternehmen können so auf das gesamte Prozesswissen zugreifen und in einem iterativen Ansatz die optimale Prozessunterstützung gewährleisten.
Die Möglichkeiten von Big Data zur Analyse und zur Gestaltung des Geschäftsmodells eines Unternehmens, zur Bewertung des Kundennutzens seiner Produkte und Dienstleistungen und der Leistungsfähigkeit seines Netzwerks aus Lieferanten und Partnern zu erkennen und zu gestalten, ist die Aufgabe des modernen CIOs. Ein Beiseite stehen und Abwarten ist bei dem heutigen Kenntnisstand über die Wirkung neuer Technologien auf den Unternehmenserfolg für den CIO sträflich. [4] Der Begriff „changing the rules of business“ soll diese tiefgreifenden Veränderungen bezeichnen. Neue Geschäftsmodelle für Unternehmen sind nur der Anfang, Datability kann sich zu einem der wichtigsten Treiber für ganz neue Branchenkonzepte wie Industrie 4.0 entwickeln.
3. Datability als Treiber für Industrie 4.0
Neue IT-Entwicklungen wie Big Data werden die Industrieunternehmen in den nächsten Jahren stark verändern. Diese Entwicklung wird mit dem Begriff „Industrie 4.0“ bezeichnet. Mit ihm wird auf die „vierte industrielle Revolution“ referenziert, welche durch Cyber Physical Systems (CPS) ausgelöst wird. Bei CPS werden Maschinen, in die Computer zur Steuerung eingebaut sind (Embedded Systems), zu komplexen Systemen verbunden, die über das Internet miteinander kommunizieren. Schon Anfang der achtziger Jahre des vorigen Jahrhunderts gab es mit CIM (Computer Integrated Manufacturing) ein Konzept für einen durchgängig computerunterstützten Industriebetrieb. [5] Dies konnte aber damals wegen der noch unausgereiften Computertechnik nicht realisiert werden. Das hat sich nun grundlegend geändert. Insbesondere bieten sich durch Big Data neue Möglichkeiten.
Abbildung 2 zeigt die zwei elementaren Prozesstypen eines Industriebetriebs anhand des Y-Modells, das der Verfasser zwar in den 80er Jahren für die Beschreibung des CIM-Konzeptes entwickelt hat, das aber auch für Industrie 4.0 eine eingängige Orientierung bietet. Der linke Schenkel bezeichnet den vom (Kunden-) Auftrag getriebenen Logistikprozess der Produktionsplanung und -steuerung und der rechte Schenkel den vom Produkt getriebenen Konstruktions- und Fertigungsprozess. In die Abbildung sind die durch Industrie 4.0 besonders betonten oder neuen Entwicklungen eingetragen.
3.1 Die Fabrik der Zukunft
In der frühen Phase der computergestützten Produktionsplanung und -steuerung (PPS) dominierte ein zentraler Ansatz; die Fertigungsaufträge wurden zentral geplant und der Fabrik vorgegeben. In der nächsten Phase wurde dieses Konzept dezentraler und damit flexibler gestaltet. Alle Materialien und Komponenten kennen ihren Standort, sodass Suchvorgänge entfallen und die Transporte automatisch ablaufen. Alle Dienste werden auf einem elektronischen Marktplatz zugeordnet und die Fabrik steuert sich selbst. Ein solches System benötigt raffinierte Optimierungsalgorithmen und leistungsfähige Datenverarbeitungssysteme (Big Data), die sofort auf Zustandsänderungen in verteilten Systemen reagieren. Die Vision der smart factory wird sicher nicht in kurzer Zeit verwirklicht werden, aber durch Big Data können große Teile davon bereits heute unterstützt werden.
3.2 Vernetzte Konstruktion und Fertigung
Ein zweiter Ansatzpunkt für Big Data ist die Unterstützung der Konstruktion und die noch stärkere Integration der CAD/CAM-Kette. Sie beschreibt das Informationsmanagement zwischen computergestützten Konstruktionssystemen (CAD = Computer Aided Design) und den Fertigungsanlagen (CAM = Computer Aided Manufacturing). Durch Big Data können 2D- oder 3D-Modelle der Konstruktionssysteme in verschiedenen Formaten repräsentiert und die Umsetzung der Modelle in ausführbare Steuerungsprogramme (z.B. CNC = Computerized Numerical Control) automatisiert werden.
Diese Flexibilität öffnet auch große Möglichkeiten zur Individualisierung von Produkten. Medizinische Implantate können schneller und kostengünstiger hergestellt werden. Aber auch in der Automobilindustrie, im Flugzeugbau und in der Konsumgüterindustrie werden die Herstellung kundenindividueller Komponenten- und Produktvarianten zu den Kosten von Massenprodukten gefördert.
3.3 Intelligente Produkte und Dienstleistungen
Der dritte Ansatzpunkt für Industrie 4.0 ist die Entwicklung intelligenter Produkte und Dienstleistungen. Hochwertige Maschinen wie Druckmaschinen oder Turbinen können über das Internet mit dem Hersteller verbunden werden und diesem aus dem laufenden Betrieb Daten über ihr Verhalten übermitteln. Dies können detaillierte Daten über Belastungen, Energieverbrauch, Werkzeugverschleiß, Toleranzen und vieles mehr sein. Bei dem Hersteller können so täglich leicht sehr große Datenvolumina anfallen. Durch ihre Analyse können Unregelmäßigkeiten im Verhalten der Maschinen erkannt und rechtzeitig Wartungsmaßnahmen eingeleitet werden, bevor die Maschine oder die hergestellten Produkte Schaden erleiden. Mit dieser Dienstleistung der „predictive maintenance“ ergeben sich interessante neue Geschäftsfelder für Industrieunternehmen. Gleichzeitig erhält der Hersteller genaue Informationen darüber, wie seine Produkte von den Kunden eingesetzt werden und er kann diese für die weitere Produktentwicklung sowie Marketing- und Vertriebsaktivitäten nutzen. Alle während der Lebenszeit eines Produktes anfallenden Informationen werden in einem digitalen Produktgedächtnis gespeichert.
3.4 One2One Logistik
Die Logistik wird vor allem durch die stärkere Individualisierung der Produkte verändert. Die Kundenaufträge müssen flexibler erfasst und verfolgt werden. Dem Kunden müssen verschiedene Kommunikationskanäle (multichannel), insbesondere über das Internet, angeboten werden. Die Bestellung kundenindividueller Komponenten erfordert ein flexibles Beschaffungssystem. So kann über das Internet direkt auf den elektronischen Angebotskatalog des Lieferanten zugegriffen werden und aus ihm der Bestellauftrag generiert werden. Auch hier werden skalierbare Big Data Technologien erforderlich sein, um One2One Logistikprozesse optimieren zu können. Der gesamte Logistikprozess erfordert eine hohe Prozesseffizienz und muss die Fähigkeiten der Benutzer dezentral unterstützen. Das Konzept Industrie 4.0 zeigt ein Zukunftsszenario, das eine Herausforderung an Forschung, industrielle Innovationskraft und Kooperationsbereitschaft darstellt. Als Beispiel sei hier die aktuelle Roadmap von Software- und Beratungslösungen für Industrie 4.0 der Scheer Group Unternehmen in Abbildung 3 gezeigt.
4 Big Data – Chance oder Risiko?
Welche Unternehmen werden die neuen Chancen von Big Data nutzen und neue Märkte erobern und welche werden von diesen Entwicklungen überrollt und vom Markt verdrängt? Eine Erklärung für den Effekt, dass sich gerade erfolgreiche Unternehmen gegen die Aufnahme neuer Ansätze wie Big Data wehren, die ihr bisheriges Businessmodell zu kannibalisieren drohen, zeigt das Konzept des „Innovator’s Dilemma’.[6] Eine neue Technologie wie Big Data besitzt bei ihrer Entwicklung zunächst eine geringere „Effizienz“ als die bestehende, dafür aber ein höheres Entwicklungspotenzial. In der Anfangsphase gibt es aber genügend Argumente, in den etablierten Unternehmen die neue Technologie nicht ernsthaft zu diskutieren.
So werden im europäischen Raum eher Befürchtungen von unkontrollierter Überwachung zum Thema Big Data diskutiert, welche durch die aktuelle Spionageaffäre noch verstärkt werden, während in den USA der Blick mehr auf die großen Chancen von Big Data gelenkt wird. Dabei sind Daten nach europäischem Datenschutzrecht wesentlich besser geschützt, als nach US-amerikanischem Recht. Zum Schutz persönlicher Daten wurden schon heute technische „privacy-preserving data minging“ Verfahren entwickelt, welche personenbezogene Daten anonymisieren und damit auch den strengen Deutschen Datenschutzgesetzen genügen. [7] So können zum Beispiel zukünftig durch die anonymisierte Auswertung von Krankheitsverläufen Rückschlüsse auf die Wirksamkeit und mögliche Nebenwirkungen von Arzneimitteln getroffen werden, ohne die Schutzbedürftigkeit personenbezogener Daten zu verletzen.
Der CIO muss deshalb genau analysieren, welcher Informationsbedarf in Zukunft in seinem Unternehmen besteht und danach seine Informationsmanagementstrategie ausrichten. Er muss die Chancen neuer Technologien wie Big Data erkennen, ihre wirtschaftliche Bedeutung für das Unternehmen analysieren und geeignete Einführungsprojekte aufsetzen.
LITERATUR
[1] Deutsche Messe AG: Big Data – Datability – CeBIT. Zugriff: 07.01.2014: http://www.cebit.de/
[2] Mayer-Schöneberger, V., Cukier, K.: Big Data – Die Revolution, die unser Leben verändern wird, Redline Verlag. München. 2013
[3] Scheer, A.-W.: ARIS – Vom Geschäftsprozess zum Anwendungssystem, 4. durchgesehene Auflage. Springer-Verlag. Berlin. 2002
[4] Scheer, A.-W.: Tipps für den CIO: Vom Tekki zum Treiber neuer Business-modelle. Zugriff: 10.01.201, http://www.scheer-group.com/
[5] Scheer, A.-W.: CIM Computer Integrated Manufacturing: Der computergesteuerte Industriebetrieb. Springer-Verlag. Berlin.1989
[6] Christensen, C. M.: The Innovator’s Dilemma: The Revolutionary Book That Will Change the Way You Do Business. HarperBusiness Verlag. New York. 2011
[7] Bartel J. et al.: Leitfaden Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte. BITKOM 2012. Zugriff: 14.01.2014, http://www.bitkom.org/
August-Wilhelm Scheer