Die Digitalisierung des Lifestyles

So, die Koffer sind gepackt und los geht’s nach Las Vegas. In der nevadischen Wüste steigt ab dem 5. Januar die 50. Consumer Electronics Show, auf noch mehr Fläche, mit noch mehr Ausstellern und noch mehr Besuchern. Aus praktisch allen Technologiebereichen – von A wie Autos bis Z wie Zubehör – werden Produkte vorgestellt, die auch nur irgendwie durch Elektronik smarter gemacht werden können. Die Digitalisierung des Lebens – hier feiert sie ihr Hochamt.

Gut, dass das Riviera Hotel und Casino abgerissen wurde – so entstanden noch zusätzliche Freiflächen für Außendemos, denn Drohnen und autonome Fahrzeuge sind längst nicht nur als Designstudien vorhanden, sondern werden im praktischen Betrieb vorgeführt. Hyundai plant sogar, die Messebesucher in Selbstfahrern den Strip rauf und runter zu kutschieren. Die ersten Drohnen, die groß und sicher genug sind, dass sie Menschen transportieren können, sind ebenfalls zu sehen.

Dabei muss man in diesem Jahr die Anreise schon früher planen, denn während die CES zwar offiziell erst am 5. ihre Tore öffnet, gibt es zahllos Pre-CES Events, auf denen die Anbieter ihr Tischfeuerwerk an Produktankündigungen schon vor den eigentlichen Messetagen abfeuern wollen. Zu den eifrigsten Vorankündigern gehört Samsung. Das Unternehmen, das zuletzt mit brennenden Smartphones auf sich aufmerksam gemacht hat, ist in allen Technologiebereichen mit Produktneuvorstellungen dabei. Von TV über Audio bis zu Smartphones kommt Samsung praktisch jeden Tag mit Bahnbrechendem auf die Bühne.

Interessant ist, dass inzwischen nicht nur die Geräte auf der CES ihren Auftritt haben. Sondern auch die Inhalte, die dem Ganzen überhaupt erst ihren Sinn beisteuern, werden in Las Vegas präsentiert. Das gilt insbesondere für Systeme zur Darstellung virtueller Realitäten, die als Augmented Reality längst Einzug ins Berufsleben von Entwicklern, Planern und Analysten gefunden haben. Doch um vor allem im Konsumermarkt voranzukommen, müssen die Anbieter mit Content rüberkommen. Das sind in erster Linie natürlich neue Spiele-Varianten, deren Komplexität und Spielwelt nur noch mit aufgesetzter VR-Brille zu erfassen sind. Aber auch Hollywood hat seinen Ausstoß an 3D-Videos in virtueller Realität auf dem Schirm. Und mehr noch: Die Anbieter von Freizeitvergnügen sehen in VR-Welten eine natürliche Erweiterung ihres Erlebnisangebots. Demnach können Besucher eines Freizeitparks auch schon im Vorfeld ihres Besuchs die Fahrt in der Achterbahn erleben. Und auch auf Kreuzfahrten, auf denen es ja weniger aufregend zugeht als in einem Fahrgeschäft, peppen die Reedereien ihre Angebote durch virtuelle Realitäten auf. Da kann der Landgang schon mal hinter der VR-Brille vorweggenommen werden.

Die 50. CES wird ihrem Image als Spaßmesse mehr und mehr gerecht. Die Messestände gewähren einen Eindruck von einem Leben, in dem uns Roboter in der digitalisierten Produktion längst die Arbeit abgenommen haben und wir auf die Hilfe von anderen Robotern und Computern angewiesen sind, um uns in unserer Freizeit vor Langeweile zu bewahren.

Doch es gibt auch die seriöse CES, die sich zwar mit der Leichtigkeit eines Spielerparadieses neuen Themen zuwendet, aber dabei einen ernsthaften Beitrag zum digitalen Leben leisten will: vor allem rund um die Themen im Gesundheitswesen zeigt die CES nun Flagge. Das beginnt selbstverständlich bei den Smartwatches, die uns dabei helfen, das tägliche Fitnesstraining zu absolvieren. Wearables, also wie Kleidung zu tragende intelligente Geräte, gibt es inzwischen schon für die Überwachung von nahezu jeder Körperfunktion – von der Blutdruckmessung, über die Ermittlung des Insulinbedarfs bis zur Überwachung von lebenserhaltenden Apparaten greift die CES ins medizinische Fach.

Es sind diese stärker auf den gesellschaftlichen und wirtschaftlichen Nutzen ausgelegten Entwicklungen der Digitalisierung, die die Domäne der CeBIT waren (und sind) und die jetzt allmählich auch in Las Vegas zu bestaunen sind. Diese Zweiteilung in Lifestyle (CES) und Informationswirtschaft (CeBIT) hat sich lange bewährt. Nun wird sie verwischt – wie alles, was vom digitalen Wandel berührt wird. Ein wenig mehr Infotainment würde der CeBIT in Hannover freilich auch gut tun.

 

Triple A für Sicherheit

CDU und SPD beschäftigen nach Recherchen der Wochenzeitung „Die Zeit“ jeweils lediglich drei Mitarbeiter, um die parteiinternen IT-Systeme, die naturgemäß hochgradig dezentral strukturiert sind, vor Cyber-Attacken zu schützen. Beim Bundesamt für Sicherheit in der Informationstechnik wurde die Zahl der Mitarbeiter immerhin auf 600 aufgestockt. Doch was ist das schon angesichts von 3700 Fällen, die „in die tägliche Lagebesprechung eingebracht“ wurden.

Ganz anders hört sich die Planzahl von Bundesverteidigungsministerin Ursula von der Leyen an, die neben Marine, Luftwaffe und Heer nun eine vierte Säule „Cyber“ aufstellt, in der 13500 Soldaten Deutschland vor Angriffen aus dem Web-All schützen sollen. Wie schwer es übrigens ist, Fachkräfte im Kampf gegen Cyber-Crime und Cyber-War zu bekommen, beweist die Tatsache, dass die Bundeswehr auf ihre traditionellen Einstellungskriterien verzichtet: Gegen Hacker dürfen auch übergewichtige Couch-Potatoes antreten…

Zehntausende Verteidiger, die von ein paar Dutzend Angreifern in Atem gehalten werden: das klingt nach asynchroner Kriegsführung, nach Guerilla-Taktik und – ein naheliegendes Wort in diesen Tagen – Terror! Dabei entwickelt sich diese kriegerische Auseinandersetzung zwischen Hackern und Hütern zu einem Hochgeschwindigkeits-Gefecht, das ohnehin kaum noch von Menschenhand geführt werden kann. Es geht immer nur um größtmögliche Reaktionsschnelle, mit der das Zeitfenster zwischen Entdeckung eines Sicherheitslochs und Schließung der Lücke so klein wie möglich gehalten werden soll. Deshalb werden immer mehr computerisierte Abwehrmethoden entwickelt, die die Angriffe nicht nur verteidigen sollen, sondern bereits vorhersagen und vorzeitig Maßnahmen ergreifen werden. Schon 2017 wird „Triple A Security“ zu einem der ganz großen Dinger auf der Agenda der IT-Verantwortlichen. Die drei As stehen dabei für Automation, Analytics und Artificial Intelligence.

Bereits heutige Virenscanner erledigen die Abwehr bekannter Viren weitgehend selbständig. Es bedarf jedoch zumeist immer noch des menschlichen Eingriffs, wenn es darum geht, neue Sicherheitsupdates auch tatsächlich zu aktivieren. Bei dem Angriff auf die rund 900.000 WLan-Router der Deutschen Telekom war zu erkennen, dass zu viel Zeit vergeht, bis erstens die neue Software verfügbar war und zweitens auch von den Privatkunden genutzt wurde. Automatisierung soll dieses Zeitfenster nun so klein halten wie möglich, um Hackern nur eine kurze Zeitspanne zu überlassen, in der sie die neuen Lücken nutzen können.

Aber besser noch ist gar keine Zeitspanne zwischen Entdeckung und Bereinigung. Dazu werden mehr und mehr Analysewerkzeuge angeboten, die den Verkehr im Netzwerk und zwischen Endgeräten beobachten und auf Anomalien hin untersuchen. So kann frühzeitig festgestellt werden, dass Abweichungen im Netzverkehr auf das Wirken von Schadsoftware und den Eingriff von außen hindeuten. Gegenmaßnahmen werden also noch schneller ergriffen.

Mit Hilfe lernender Systeme ist es im nächsten Schritt möglich, nicht nur das Verhalten des Netzwerkes, sondern das individuelle Verhalten von Anwendern zu beobachten. Weicht das von der normalen Nutzung ab, schlägt das System Alarm. Lernende Systeme sind dabei in der Lage festzustellen, was ein User üblicherweise tut, und lernen mit jedem Klick dazu. Gleichzeitig sind sie in der Lage, auf der Basis von Nachrichten über neue Angriffe Muster für den eigenen Schutz zu erkennen.

IBMs Watson beispielsweise ist inzwischen auch in der Cyberabwehr aktiv. Das System beobachtet den Verkehr im Netz auf der Suche nach Schadsoftware, „abonniert“ NewsFeeds zu aktuellen Angriffen und entwickelt auf dieser Basis Abwehrstrategien. Dazu gehört auch die automatische Fortschreibung von „weißen Listen“, also die Festlegung, welcher Anwender auf welche Daten und Systemfeatures zugreifen darf.

Mehr Schutz bedeutet freilich immer auch mehr Verlust an Freiheit. Wenn Watson oder andere KI-Systeme das Anwenderverhalten beobachten, könnte man auch sicherstellen, dass nicht im Büro privat gesurft wird, dass keine auffällig großen Dateien versendet werden oder der Zugriff auf nicht freigegebene Anwendungen ersucht wird. Triple A Security bedeutet eben auch Triple A Kontrolle: Ausspähen, Aussperren und Ausmustern.

 

Such, Maschine, such!

Ein hinreichendes Niveau an Bildung hatten lange Zeit ja bekanntlich jene erreicht, die wussten, wo was steht. In unserer postmodernen, postfaktischen Zeit ist es hingegen vollkommen ausreichend, wenn Google weiß, wo was steht. Der jeweilige Bildungsstand ist folglich nicht mehr unbedingt human, sondern höchstens humanoid, wenn nicht sogar nur noch hybrid.

Bei der Integration von Unternehmensanwendungen scheint sich diese Tendenz auch durchzusetzen: zu Beginn der ERP-Ära gab es für Alles und Jedes dedizierte Anwendungen mit eigener Datenhaltung, die schließlich von allumfassenden Komplettsystemen abgelöst wurden, deren Versprechen die alles zusammenfassende Datenbasis war. Jetzt gehen mehr und mehr Unternehmen hin und kaufen Services aus der Cloud hinzu – und gefährden die eigene homogene Datenstruktur.

Die postmoderne – aber noch lange nicht postfaktische – Unternehmenslösung, die Services für Spezialanforderungen aus dem Web heraus ergänzt, verspricht mehr Agilität. Denn die monolithischen Strukturen der Großanwendungen lassen sich auch mit modernsten Entwicklertools nur noch sehr langsam und nach aufwendigen Integrationstests erweitern. Das hemmt so manche Innovation. Der Griff zu Cloud-Services liegt da nahe – vor allem dann, wenn die zusätzlichen Funktionen nur eine taktische und keine strategische Bedeutung haben, selten genutzt werden oder aber eine permanente Pflege durch Dritte erfordern – die komplexen Anforderungen bei der Zollabwicklung gehörten dazu oder neuerdings Big Data-Anwendungen für vorausschauende Analysen.

Doch das Mehr an Agilität wird möglicherweise durch ein Weniger an Datenkonsistenz erkauft. Am Ende könnten Abteilungen in Unternehmen zu unterschiedlichen Erkenntnissen und Aktionen kommen, weil sie nicht mehr auf eine identische, konsistente Datenbasis zurückgreifen. Dann ist die Frage, wo was steht, plötzlich doch wieder von zukunftsentscheidender Bedeutung.

Nach Ansicht der ERP-Analysten von IDC gehört die Wahrung der Datenintegrität in einer hybriden Umgebung zu den nächsten ganz großen Herausforderungen. Das Internet der Dinge mit seinen Milliarden Maschinendaten wird dieses Phänomen weiter verstärken. Denn die heutigen monolithischen ERP-Systeme können schlechterdings gar nicht schnell genug buchen, um diese Datenschwemme aufzunehmen. Viele ERP-Anbieter flüchten sich deshalb in Vorschaltsysteme – Digital Hubs oder Manufacturing Execution Systems -, mit denen die Datenflut abgefangen und erst als aggregierte Erkenntnisse weitergeleitet werden.

Was bisher nur für die Übernahme und Zusammenfassung von Maschinendaten gedacht ist, könnte aber zu einem zentralen Baustein postmoderner ERP-Systeme avancieren: Datensammler, die aus den Daten der hybriden Lösungen wieder homogene Informationsbasen schaffen. Sie könnten einer der ersten Bausteine eines zukünftigen ERP-Systems sein, das IDC ein wenig hochtrabend „Intelligent ERP“ nennt – womit aber eben nicht intelligente Systeme gemeint sind, sondern solche, die wissen wo im Web und on Premises was steht.

Weitere Bausteine sind schon längst da. Predictive Analytics, mit denen aus den bestehenden Daten Aussagen über die zukünftige Entwicklung generiert werden können, gehören ebenfalls in das postmoderne ERP-Bestiarium. Und – wenn auch erst am Horizont zu erkennen – schließlich wird das Enterprise Resource Planning zum selbstlernenden System, das seine eigenen Algorithmen auf der Basis der gemachten Erfahrungen anzupassen in der Lage ist. Machine Learning ist bereits jetzt das ganz große Ding, wenn es darum geht, Roboter noch hilfreicher agieren zu lassen. Klassische Systeme entwickeln sich nicht mehr weiter, nachdem der letzte Programmierer das Interesse an ihnen verloren hat. Lernende Systeme aber erkennen Veränderungen und passen sich ihnen an.

Ist es nicht genau das, wovon ERP-Anwender seit über drei Jahrzehnten träumen? Das Marktumfeld verändert sich – das ERP-System auch. Nach diesem Geschäftsmodell erhalten sich Tausende von Softwarehäusern am Leben, die ihren Kunden die Anpassungen als teure Dienstleistung verkaufen. Sollte das etwa auch ein Geschäftsmodell sein, das vom Aussterben bedroht ist? Wo steht das denn?

 

 

Verkehrte Welt!

Vor einem Vierteljahrhundert war IBM eine ganz große Nummer bei den Fertigungsunternehmen rund um den Globus. Mit der Produktionsplanungssoftware COPICS und der Design-Anwendung CATIA steuerte Big Blue die Entwicklungs- und Produktionsabteilungen. Großrechner und Netzwerke des Computerriesen tickten bei Automobilzuliefern, Maschinenbauern und Elektronikunternehmen und bildeten das Rückgrat der Datenverarbeitung. Dann traf IBM eine folgenschwere Entscheidung: Raus aus dem Anwendungsgeschäft und Konzentration auf die Plattformen, hieß die neue Marschrichtung – und IBM verlor Jahr für Jahr an Boden auf dem Fertigungsboden. Dafür füllten Konkurrenten wie SAP mit Planungssoftware und Microsoft mit PC-basierten Plattformen das Lösungsvakuum. – Verkehrte Welt!

Jetzt ist IBM zurück auf der Produktionsebene. Strategische Partnerschaften mit Fertigungsunternehmen rund um den Globus werden im Monatsrhythmus abgeschlossen. Der Grund: Die Anbieter von Maschinen, Apparaten und Bauteilen haben erkannt, dass ihre Hardware ohne Software dumm bleibt und damit nicht in die digitalisierte Welt der Zukunft passt. Was sie jetzt brauchen, ist vor allem eines: eine Plattform, auf der sie die Datenströme aus dem Internet der Dinge kanalisieren und analysieren können. Die Stoßrichtung zielt sowohl auf eine smartere Produktion, als auch auf smartere Produkte. Denn die Daten sollen helfen, Produkte so herzustellen, wie sie gebraucht werden und wann sie gebraucht werden. Die Produkte sollen aber auch selbst Daten bereitstellen, damit sie besser das tun können, was gebraucht wird und wenn es gebraucht wird.

Das geht nicht ohne eine Plattform, die praktisch alle Facetten des Produktionsunternehmens zusammenfasst. Cloud-basierte Lösungswelten sind damit Teil der verkauften Hardware. Sie stellen Services bereit, die zu mehr Effizienz bei der Herstellung der Produkte führen und gleichzeitig die Produkte effizienter machen.

Doch IBM ist auch diesmal nicht allein. Microsoft hat sich unter Satya Nadella zu einem Plattform-Anbieter gewandelt, der auf die gleichen Kernkompetenzen zielt wie IBM. Und auch SAP hat erkannt, dass nicht nur die „White-Collar“-Bereiche des Unternehmens Daten sehen wollen, sondern auch die „Blue-Collar“-Kollegen im unmittelbaren Produktionsprozess aus Daten Taten machen. Nie war die klassische Hardware so umworben wie jetzt, wo die Software in die Cloud wandert. Verkehrte Welt!

Dabei ziehen sich die Plattform-Anbieter durchaus ihre eigenen Wettbewerber heran. Denn die großen Automobilzulieferer, Maschinenbauer und Elektrounternehmen nutzen die Cloud-Dienste ihrer Lösungslieferanten auch dafür, aus der eigenen, konzernweiten Digitalplattform ein Angebot für ihre Kunden zu schneidern. Die Cloud wird damit als Plattform zum Produkt, auf dem die Anwender selbst Dienste anbieten. Verkehrte Welt!

Und dieser Markt dürfte gigantisch werden. Denn nicht nur bleibt die bekannte Cisco-Prognose, nach der im Jahr 2020 rund 50 Milliarden Endgeräte im Internet der Dinge Daten über die Cloud austauschen, unwidersprochen. Auch nach einer aktuellen Studie des Beratungsunternehmens Frost & Sullivan werden sich die Investitionen in Plattformen für das Internet der Dinge Jahr für Jahr um 25 Prozent erhöhen, um die Kommunikation von Maschine zu Maschine zu erleichtern. Allein in der Logistik zwischen Unternehmen werden dabei nach der gleichen Studie schon 2018 drei Milliarden Megabyte an Daten ausgetauscht. Insgesamt, so glauben die Marktforscher bei General Electric, könnte sich die Wertschöpfung durch IoT-Plattformen in den kommenden Jahren um bis zu 15 Billionen Dollar steigern.

Kein Wunder also, dass General Electric selbst in Plattformen investiert – ebenso wie Siemens oder Bosch. Sie werden sich selbst zum Enabler wandeln, der durch Plattform-Angebote aus der Cloud smartere Kunden und smartere Produkte ermöglicht. Und nicht zuletzt smartere Geschäfte: Denn die Cloud-Plattformen selbst sind Bestandteil der neuen Geschäftsmodelle, in denen Hardware wie Software verkauft wird, die über das Internet gewartet und aktualisiert werden kann, durch Updates neue Produkteigenschaften und Features erfährt und die möglicherweise nur noch gemietet und nach Nutzung bezahlt wird.

Moment mal: Hatten wir das nicht schon? IBMs größte innere Revolution ereignete sich in den siebziger Jahren, als Big Blue vom Mietgeschäft zum Kaufmodell wechselte und damit einen ganzen Markt durcheinander brachte. Jetzt wird auf den Cloud-Plattformen dieses Paradigma wieder umgekehrt. Verkehrte Welt!