Mit Hilfe jener Datenanalysen, besser bekannt als Predictive Analytics, wollen Verantwortliche in Unternehmen Entwicklungen auf ganz unterschiedlichen Ebenen vorhersagen können. Die Ergebnisse werden genutzt, um bessere Entscheidungen zu treffen und Risiken zu minimieren. Der Begriff „Predictive Analytics“ hat sich so vom Buzzword zum festen Bestandteil des Businessvokabulars entwickelt. Unternehmen und Organisationen ganz unterschiedlicher Größe und diverser Branchen wollen neue Erkenntnisse aus ihren Daten gewinnen, um effizienter, kundenorientierter und profitabler zu arbeiten. Ein wichtiger Aspekt ist dabei die Predictive Maintenance, die vorausschauende Wartung. Dazu muss nicht nur der richtige Zugang zu den Daten gefunden werden, auch der Umgang mit den verfügbaren Daten ist entscheidend. Wir haben nachgefragt bei Dr. Ferri Abolhassan, der als Geschäftsführer der T-Systems International GmbH für die IT-Division verantwortlich ist und weiß, worauf es Unternehmen und Organisationen wirklich ankommt und welches besondere Potenzial die Cloud für Business Analytics birgt.
IM+io: Dr. Abolhassan, warum gewinnt Predictive Analytics für Unternehmen heute zunehmend an Bedeutung?
Dr. Ferri Abolhassan (FAB): Predictive Analytics ist nichts grundsätzlich Neues. Oder anders gesagt: Eigentlich ist das ein alter Hut und dennoch heute neu: Denn schon vor 15 Jahren hat etwa das Unternehmen IDS Scheer für einen großen Baumaschinenhersteller einen spannenden Showcase gebaut. Dabei übermittelt ein herkömmliches Mobiltelefon kritische Sensordaten einer Maschine ins SAP-System und weist so auf eine drohende Störung hin. Das ist Predictive Maintenance at its best! Dasselbe tun wir bei T-Systems jetzt wieder – aber nun mit SIM-Karten, mit schnellen und annähernd flächendeckenden Mobilfunknetzen, mit viel mehr Sensorik in der Maschine, sehr viel mehr Daten aus anderen Quellen, und extrem leistungsfähigen Auswertungsprogrammen. Diese Big-Data-Technologie fördert heute sehr viel mehr Erkenntnisse zutage als vor 15 Jahren. Mit anderen Worten: Heute ermöglicht bessere Technik Predictive Maintenance in einer ganz neuen Qualität. Aber der Bedarf, Dinge fernzuwarten, Wartung vorauszusehen, oder gar Wartung zu vermeiden, weil man rechtzeitig und geplant eingreift – dieser Bedarf ist schon lange dagewesen.
IM+io: Was leistet diese neue Generation von Predictive Analytics?
FAB: Predictive Analytics der neuen Generation verbindet Milliarden von Sensoren mit extrem leistungsfähigen Auswertungssystemen. In Zahlen: Bis 2020 sollen etwa 50 Milliarden Geräte im Internet of Things verbunden sein und automatisch Informationen generieren. Nur die Cloud ist in der Lage, diese Massendaten zu sammeln, zu speichern und zu verarbeiten. Neue Analysetechnik wie SAP HANA sind 1.000 mal bis 10.000 Mal schneller als herkömmliche Systeme, weil die Datenbank komplett im Arbeitsspeicher vorgehalten wird und langwierige Festplattenzugriffe entfallen. Mit diesen Big-Data-Technologien werden Analysen extrem beschleunigt. Aber: Arbeitsspeicher mit 48 Terabyte sind eine echte Investition. Ich spreche hier aus Erfahrung, weil wir für ein Fortune-500-Unternehmen, die weltweit größte SAP-HANA-Anwendung aus der Cloud gebaut haben. Die Lösung für die Kostenfrage lautet auch hier: Cloud Computing. Die Cloud macht intelligente Datenauswertung bezahlbar. Denn die Ressourcen zu mieten, ist günstiger als sie zu kaufen. Und damit ist Predictive Analytics der neuen Generation ein gutes Beispiel für Digitalisierung. Denn erfolgreiche Digitalisierung bedeutet immer Beschleunigung und Kostenreduktion. Die Innovation wird erst angenommen, wenn auch der Preis stimmt. Die Vorteile müssen aber auch überzeugen.
IM+io: Können Sie uns den Vorteil von Predictive Analytics an einigen Praxisbeispielen weiter verdeutlichen?
FAB: Ich gebe Ihnen gerne einige Beispiele: Für ein großes Mobilitäts- und Logistikunternehmen suchen wir den idealen Wartungszeitpunkt. Der liegt kurz vor der Panne. Bislang werden etwa Lokomotiven in festen Intervallen gewartet. Gelegentlich ist dies zu früh, die Kosten sind also zu diesem Zeitpunkt umsonst entstanden. Viel schlimmer ist es allerdings, wenn die Lok vor dem nächsten Wartungstermin ausfällt. Denn ein liegengebliebener Zug kostet alles in allem mehrere 100.000 Euro. Die Wartung sollte also in Abhängigkeit der Abnutzung erfolgen. Darüber liefern rund 60 der 300 Sensoren in einer Lok aus der Ferne wertvolle Hinweise. Etwa über den Umrichter, der den Strom aus der Oberleitung für die Elektromotoren aufbereitet. Treten hier Unregelmäßigkeiten auf, ist in Kürze mit einem Ausfall des Umrichters zu rechnen – und die Lok bleibt liegen. Wenn ich solche Ausfälle konsequent vermeiden kann, steigt meine Auslastung bei Zug und Schiene um bis zu 20 Prozent.
Mit Predictive Analytics haben wir aber noch ungewöhnlichere Fragestellungen beantwortet: Weshalb wird die automatische Notbremse häufig – aber nicht immer – an denselben Streckenabschnitten ausgelöst, ohne dass ein tatsächlicher Notfall besteht? Nach dem Auswerten vieler Datenebenen hatten wir folgende Faktoren isoliert: Streckensteigung, die Nähe zu großen Wasserflächen und feuchte Wetterlagen begünstigen die automatische Notbremsung. Unter diesen Bedingungen rutschen die Räder durch, damit erhielt der Kilometerzähler falsche Daten und stimmte nicht mehr mit der GPS-Position des Zuges überein. Fazit: Der Computer zog die Notbremse. Der Hinweis, den Zug an bestimmten Streckenabschnitten lediglich rollen zu lassen, halbierte die Anzahl der falschen Notbremsungen.
Es ist unglaublich spannend, was dank neuer Technologie und Sensorik möglich wird. Die Erfolgsformel dabei lautet immer: kleiner, billiger, mehr Bandbreite und eine Analysesoftware, die viel mächtiger ist und auf einer Cloud sitzt.
IM+io: Welche Rolle spielt dann dabei die Big-Data-Technologie?
FAB: Um diese Frage zu beantworten, müssen wir einen Schritt zurückgehen: Es geht um den Dreiklang aus erstens dem Internet of Things, also den bewegten Gütern mit einem Sensor, deren Daten ich permanent sammle und aus denen ich Ort, Zustand und Verhalten erfassen kann; zweitens um die Cloud, die einerseits Daten günstig und schnell verfügbar und andererseits die Analysetools erschwinglich macht; und drittens eine Analysetechnik, die meine Fragestellungen möglichst schnell bearbeitet.
Eine zentrale Datenhaltung in der Cloud ist nur deshalb sinnvoll und möglich, weil man schnell auf sie zugreifen kann. Man kann so viel mehr mit den Daten machen und muss sich nicht fragen, wo was abgelegt ist. Diese zentrale Datenhaltung ist ein neuer Trend. Früher lautet das Credo: dezentrale Datenhaltung. Im Zuge der Digitalisierung erleben wir nun genau den gegenläufigen Trend hin zur zentralen Datenhaltung – jetzt aber aus der Cloud.
Bei der Frage, was man Sinnvolles damit machen kann, wird die fortgeschrittene Software interessant: Big Data ist nur im wissenschaftlichen Sinne die Weiterentwicklung des Business Warehouse. Das Neue ist das Zusammenspiel von Software und Hardware, das rasend schnell findet, sortiert und ordnet. Es geht um die effiziente Massendatenbewältigung und Massendatenhaltung. Das ist es, was an Big Data neu und interessant ist – und letztlich durch Cloud Computing möglich wird.
IM+io: Wo kommt dann wieder Predictive Analytics ins Spiel?
FAB: Bei der Analyse, etwa der Sensorik eines Zuges, geht es eben nicht mehr nur um die Frage, wann er ausfallen wird. Ich kann nun untersuchen, wie es ihm insgesamt „geht“. Wann wird er langsam, wann wird er schnell, welche Relevanz hat die Gewichtsverteilung, welche die Temperatur auf den Schienen? Ich kann viele Fragen gleichzeitig stellen und beantworten und wichtige Schlüsse daraus ziehen.
IM+io: Wie unterstützt T-Systems dabei konkret seine Kunden?
FAB: Wir helfen auf allen drei Ebenen. Wir helfen Kunden beim Einstieg in die Welt des Internet of Things. Gemeinsam mit Partnern sorgen wir etwa dafür, dass Geschäftsprozesse digital werden. Dazu liefern Sensoren Daten, sprechen eine gemeinsame Sprache wie IP und sind über das Internet verbunden. Das betrifft nicht nur Lokomotiven, sondern fängt schon bei ganz alltäglichen Dingen an wie dem Kühlschrank, der Kaffeemaschine oder der Beleuchtung. Das bewerkstelligen wir nicht nur mit eigenen Lösungen, sondern auch mit Produkten und Lösungen anderer Hersteller. Unser Angebot lautet: Lasst uns gemeinsam überlegen, wie Produkte für das Internet of Things tauglich werden. Das ist der erste Punkt.
Zweitens sorgen wir dafür, dass die Daten in der Cloud zentral gesammelt, gespeichert und fast in Echtzeit auswertbar gemacht werden. Zur Auswahl stehen verschiedene Ausprägungen der Cloud: von Public, über Hybrid bis zur Private Cloud, von extrem standardisiert bis zu individualisierbar – bereitgestellt binnen kürzester Zeit, wenn notwendig sogar innerhalb von Minuten. Für den Kunden ist dabei wichtig: Die Cloud muss einfach, sicher und bezahlbar sein.
Drittens können wir mit den gängigsten Big-Data-Tools alle möglichen Auswertungen liefern. Es geht also nicht nur darum, die Daten zu sammeln, wir helfen auch dabei, die entsprechenden Analysen zu fahren. Hier ist ein neues Businessmodell entstanden. Es geht nicht mehr um ein einmaliges Projekt, sondern um ein kontinuierliches Serviceangebot. Ein Beispiel dafür wäre der Zug, der mit dem Internet of Things gemanaged wird – zur kontinuierlichen Informationsversorgung des Betreibers. Dieser Service ist dann skalierbar. Analyseergebnisse können auf Knopfdruck geliefert werden. Die Intelligenz der Auswertung wird so zum Produkt – die Cloud ist die Basis dafür.
IM+io: Noch aber ist die Datenhaltung in der Cloud nicht zum Standard geworden. Welche Hemmschwellen müssen hier im Hinblick auf Qualität und Sicherheit noch überwunden werden?
FAB: Es gibt heue schon viele Bereiche, wo die Cloud schon so selbstverständlich geworden ist, dass wir sie gar nicht mehr registrieren. Angefangen hat es mit der E-Mail. Jedes E-Mail-Postfach ist ein Cloud-Dienst, der E-Mails speichert und verwaltet. Sobald wir Fotos über das Internet teilen ist es ein Cloud-Dienst – und wir merken es gar nicht.
Anders ist das in der Tat im B2B-Geschäft. Hier muss noch Überzeugungsarbeit geleistet werden. Daher sprechen wir den Markt über zwei unterschiedliche Angebote an: Zum einen für Basisdienstleistungen aus der Public Cloud wie Rechenleistung, Arbeitsspeicher und Festplattenspeicher etwa mit der Telekom Open Cloud. Dies ist unsere verlässliche europäische Antwort auf amerikanische Angebote. Weit höhere Ansprüche an Daten- und Ausfallsicherheit haben unsere Kunden dann, wenn es um Kernprozesse geht – um Prozesse, bei denen man sich vom Wettbewerb differenziert. Dafür bieten wir die Private Cloud – mit garantierter Verfügbarkeit, Daten- und Ausfallsicherheit.
Dies erreichen wir durch ein konsequentes Qualitätsmanagement und durch den Anspruch, schwere Ausfälle auf null zu reduzieren. Wir wissen, dass es keine 100 Prozent gibt. Aber mit vorbeugenden Maßnahmen, mit 500 „Feuerwehrübungen“ pro Jahr und einem strukturierten Vorgehen im Ernstfall kommen wir diesem Ziel sehr nahe und tun damit alles, um schwere Ausfälle zu verhindern. Für die bauliche Sicherheit der Rechenzentren sorgt ein ganzes Bündel von Maßnahmen. Sie reichen vom kameraüberwachten Zaun, über Gasschnüffler in der Klimaanlage, von Pollern, die aus dem Boden fahren und so das Durchbrechen mit dem LKW verhindern bis zum Schutz vor Flugzeugtrümmern. Vor Hackern schützen Firewalls und Anti-Viren-Software. Darüber hinaus fahnden wir mit 180 Lockfallen, sogenannten honey pots, in unserem Netz nach neuen Angriffsmustern und blicken unter Laborbedingungen 230 Tage lang in die Zukunft, um herauszufinden, wie sich Viren entwickeln. Zusätzlich profitieren Kunden bei unseren hiesigen Rechenzentren vom deutschen Datenschutz.
IM+io: Wagen Sie mit uns einen Blick in die Zukunft: Welche weiteren Möglichkeiten und Veränderungen werden sich künftig über Big Data und die Cloud ergeben?
FAB: Die Computerchips werden weiterhin immer leistungsfähiger, die Sensoren immer kleiner und die Bandbreiten nehmen zu. Dies alles führt zum Internet of Things, das Unmengen an Daten produziert. Ein kluger Kopf wird unterschiedliche Daten verknüpfen und neue Dienste entwickeln.
Begünstigt wird diese Entwicklung durch eine weitere Standardisierung. Sehen Sie, wir haben eine Lösung, die 100 Formate von Datenbanken übersetzt. Aber eigentlich brauchen wir ein einziges Big-Data-Format. Damit wären die Weichen gestellt für Big Data Services aus der Cloud. Heute nutzen wir Big Data aus der Private Cloud, künftig werden immer mehr Big-Data-Dienste in der Public Cloud entstehen. Denn die Digitalisierung ist getrieben von Beschleunigung und sinkenden Kosten.
Die wirkliche Disruption wird dann bei den Geschäftsmodellen liegen. Künftig kann zum Beispiel ein Taxi alles sein – ein Fahrrad, ein Auto oder auch ein Bus. Vielleicht gibt es dann keine privaten Autos mehr im Innenstadtbereich. Die Fortbewegungsmittel sind so zahlreich, dass ich sie mixen, individuell und spontan nutzen kann. Alles was es dazu braucht, ist eine Übertragung aller Zustands- und Bewegungsdaten aller Verkehrsmittel über Sensoren und eine intelligente Verknüpfung der Daten zur Realisierung meines Mobilitätskonzeptes – natürlich in der Cloud.
Ferri Abolhassan, Irmhild Plaetrich