Triple A für Sicherheit

CDU und SPD beschäftigen nach Recherchen der Wochenzeitung „Die Zeit“ jeweils lediglich drei Mitarbeiter, um die parteiinternen IT-Systeme, die naturgemäß hochgradig dezentral strukturiert sind, vor Cyber-Attacken zu schützen. Beim Bundesamt für Sicherheit in der Informationstechnik wurde die Zahl der Mitarbeiter immerhin auf 600 aufgestockt. Doch was ist das schon angesichts von 3700 Fällen, die „in die tägliche Lagebesprechung eingebracht“ wurden.

Ganz anders hört sich die Planzahl von Bundesverteidigungsministerin Ursula von der Leyen an, die neben Marine, Luftwaffe und Heer nun eine vierte Säule „Cyber“ aufstellt, in der 13500 Soldaten Deutschland vor Angriffen aus dem Web-All schützen sollen. Wie schwer es übrigens ist, Fachkräfte im Kampf gegen Cyber-Crime und Cyber-War zu bekommen, beweist die Tatsache, dass die Bundeswehr auf ihre traditionellen Einstellungskriterien verzichtet: Gegen Hacker dürfen auch übergewichtige Couch-Potatoes antreten…

Zehntausende Verteidiger, die von ein paar Dutzend Angreifern in Atem gehalten werden: das klingt nach asynchroner Kriegsführung, nach Guerilla-Taktik und – ein naheliegendes Wort in diesen Tagen – Terror! Dabei entwickelt sich diese kriegerische Auseinandersetzung zwischen Hackern und Hütern zu einem Hochgeschwindigkeits-Gefecht, das ohnehin kaum noch von Menschenhand geführt werden kann. Es geht immer nur um größtmögliche Reaktionsschnelle, mit der das Zeitfenster zwischen Entdeckung eines Sicherheitslochs und Schließung der Lücke so klein wie möglich gehalten werden soll. Deshalb werden immer mehr computerisierte Abwehrmethoden entwickelt, die die Angriffe nicht nur verteidigen sollen, sondern bereits vorhersagen und vorzeitig Maßnahmen ergreifen werden. Schon 2017 wird „Triple A Security“ zu einem der ganz großen Dinger auf der Agenda der IT-Verantwortlichen. Die drei As stehen dabei für Automation, Analytics und Artificial Intelligence.

Bereits heutige Virenscanner erledigen die Abwehr bekannter Viren weitgehend selbständig. Es bedarf jedoch zumeist immer noch des menschlichen Eingriffs, wenn es darum geht, neue Sicherheitsupdates auch tatsächlich zu aktivieren. Bei dem Angriff auf die rund 900.000 WLan-Router der Deutschen Telekom war zu erkennen, dass zu viel Zeit vergeht, bis erstens die neue Software verfügbar war und zweitens auch von den Privatkunden genutzt wurde. Automatisierung soll dieses Zeitfenster nun so klein halten wie möglich, um Hackern nur eine kurze Zeitspanne zu überlassen, in der sie die neuen Lücken nutzen können.

Aber besser noch ist gar keine Zeitspanne zwischen Entdeckung und Bereinigung. Dazu werden mehr und mehr Analysewerkzeuge angeboten, die den Verkehr im Netzwerk und zwischen Endgeräten beobachten und auf Anomalien hin untersuchen. So kann frühzeitig festgestellt werden, dass Abweichungen im Netzverkehr auf das Wirken von Schadsoftware und den Eingriff von außen hindeuten. Gegenmaßnahmen werden also noch schneller ergriffen.

Mit Hilfe lernender Systeme ist es im nächsten Schritt möglich, nicht nur das Verhalten des Netzwerkes, sondern das individuelle Verhalten von Anwendern zu beobachten. Weicht das von der normalen Nutzung ab, schlägt das System Alarm. Lernende Systeme sind dabei in der Lage festzustellen, was ein User üblicherweise tut, und lernen mit jedem Klick dazu. Gleichzeitig sind sie in der Lage, auf der Basis von Nachrichten über neue Angriffe Muster für den eigenen Schutz zu erkennen.

IBMs Watson beispielsweise ist inzwischen auch in der Cyberabwehr aktiv. Das System beobachtet den Verkehr im Netz auf der Suche nach Schadsoftware, „abonniert“ NewsFeeds zu aktuellen Angriffen und entwickelt auf dieser Basis Abwehrstrategien. Dazu gehört auch die automatische Fortschreibung von „weißen Listen“, also die Festlegung, welcher Anwender auf welche Daten und Systemfeatures zugreifen darf.

Mehr Schutz bedeutet freilich immer auch mehr Verlust an Freiheit. Wenn Watson oder andere KI-Systeme das Anwenderverhalten beobachten, könnte man auch sicherstellen, dass nicht im Büro privat gesurft wird, dass keine auffällig großen Dateien versendet werden oder der Zugriff auf nicht freigegebene Anwendungen ersucht wird. Triple A Security bedeutet eben auch Triple A Kontrolle: Ausspähen, Aussperren und Ausmustern.

 

Such, Maschine, such!

Ein hinreichendes Niveau an Bildung hatten lange Zeit ja bekanntlich jene erreicht, die wussten, wo was steht. In unserer postmodernen, postfaktischen Zeit ist es hingegen vollkommen ausreichend, wenn Google weiß, wo was steht. Der jeweilige Bildungsstand ist folglich nicht mehr unbedingt human, sondern höchstens humanoid, wenn nicht sogar nur noch hybrid.

Bei der Integration von Unternehmensanwendungen scheint sich diese Tendenz auch durchzusetzen: zu Beginn der ERP-Ära gab es für Alles und Jedes dedizierte Anwendungen mit eigener Datenhaltung, die schließlich von allumfassenden Komplettsystemen abgelöst wurden, deren Versprechen die alles zusammenfassende Datenbasis war. Jetzt gehen mehr und mehr Unternehmen hin und kaufen Services aus der Cloud hinzu – und gefährden die eigene homogene Datenstruktur.

Die postmoderne – aber noch lange nicht postfaktische – Unternehmenslösung, die Services für Spezialanforderungen aus dem Web heraus ergänzt, verspricht mehr Agilität. Denn die monolithischen Strukturen der Großanwendungen lassen sich auch mit modernsten Entwicklertools nur noch sehr langsam und nach aufwendigen Integrationstests erweitern. Das hemmt so manche Innovation. Der Griff zu Cloud-Services liegt da nahe – vor allem dann, wenn die zusätzlichen Funktionen nur eine taktische und keine strategische Bedeutung haben, selten genutzt werden oder aber eine permanente Pflege durch Dritte erfordern – die komplexen Anforderungen bei der Zollabwicklung gehörten dazu oder neuerdings Big Data-Anwendungen für vorausschauende Analysen.

Doch das Mehr an Agilität wird möglicherweise durch ein Weniger an Datenkonsistenz erkauft. Am Ende könnten Abteilungen in Unternehmen zu unterschiedlichen Erkenntnissen und Aktionen kommen, weil sie nicht mehr auf eine identische, konsistente Datenbasis zurückgreifen. Dann ist die Frage, wo was steht, plötzlich doch wieder von zukunftsentscheidender Bedeutung.

Nach Ansicht der ERP-Analysten von IDC gehört die Wahrung der Datenintegrität in einer hybriden Umgebung zu den nächsten ganz großen Herausforderungen. Das Internet der Dinge mit seinen Milliarden Maschinendaten wird dieses Phänomen weiter verstärken. Denn die heutigen monolithischen ERP-Systeme können schlechterdings gar nicht schnell genug buchen, um diese Datenschwemme aufzunehmen. Viele ERP-Anbieter flüchten sich deshalb in Vorschaltsysteme – Digital Hubs oder Manufacturing Execution Systems -, mit denen die Datenflut abgefangen und erst als aggregierte Erkenntnisse weitergeleitet werden.

Was bisher nur für die Übernahme und Zusammenfassung von Maschinendaten gedacht ist, könnte aber zu einem zentralen Baustein postmoderner ERP-Systeme avancieren: Datensammler, die aus den Daten der hybriden Lösungen wieder homogene Informationsbasen schaffen. Sie könnten einer der ersten Bausteine eines zukünftigen ERP-Systems sein, das IDC ein wenig hochtrabend „Intelligent ERP“ nennt – womit aber eben nicht intelligente Systeme gemeint sind, sondern solche, die wissen wo im Web und on Premises was steht.

Weitere Bausteine sind schon längst da. Predictive Analytics, mit denen aus den bestehenden Daten Aussagen über die zukünftige Entwicklung generiert werden können, gehören ebenfalls in das postmoderne ERP-Bestiarium. Und – wenn auch erst am Horizont zu erkennen – schließlich wird das Enterprise Resource Planning zum selbstlernenden System, das seine eigenen Algorithmen auf der Basis der gemachten Erfahrungen anzupassen in der Lage ist. Machine Learning ist bereits jetzt das ganz große Ding, wenn es darum geht, Roboter noch hilfreicher agieren zu lassen. Klassische Systeme entwickeln sich nicht mehr weiter, nachdem der letzte Programmierer das Interesse an ihnen verloren hat. Lernende Systeme aber erkennen Veränderungen und passen sich ihnen an.

Ist es nicht genau das, wovon ERP-Anwender seit über drei Jahrzehnten träumen? Das Marktumfeld verändert sich – das ERP-System auch. Nach diesem Geschäftsmodell erhalten sich Tausende von Softwarehäusern am Leben, die ihren Kunden die Anpassungen als teure Dienstleistung verkaufen. Sollte das etwa auch ein Geschäftsmodell sein, das vom Aussterben bedroht ist? Wo steht das denn?

 

 

Verkehrte Welt!

Vor einem Vierteljahrhundert war IBM eine ganz große Nummer bei den Fertigungsunternehmen rund um den Globus. Mit der Produktionsplanungssoftware COPICS und der Design-Anwendung CATIA steuerte Big Blue die Entwicklungs- und Produktionsabteilungen. Großrechner und Netzwerke des Computerriesen tickten bei Automobilzuliefern, Maschinenbauern und Elektronikunternehmen und bildeten das Rückgrat der Datenverarbeitung. Dann traf IBM eine folgenschwere Entscheidung: Raus aus dem Anwendungsgeschäft und Konzentration auf die Plattformen, hieß die neue Marschrichtung – und IBM verlor Jahr für Jahr an Boden auf dem Fertigungsboden. Dafür füllten Konkurrenten wie SAP mit Planungssoftware und Microsoft mit PC-basierten Plattformen das Lösungsvakuum. – Verkehrte Welt!

Jetzt ist IBM zurück auf der Produktionsebene. Strategische Partnerschaften mit Fertigungsunternehmen rund um den Globus werden im Monatsrhythmus abgeschlossen. Der Grund: Die Anbieter von Maschinen, Apparaten und Bauteilen haben erkannt, dass ihre Hardware ohne Software dumm bleibt und damit nicht in die digitalisierte Welt der Zukunft passt. Was sie jetzt brauchen, ist vor allem eines: eine Plattform, auf der sie die Datenströme aus dem Internet der Dinge kanalisieren und analysieren können. Die Stoßrichtung zielt sowohl auf eine smartere Produktion, als auch auf smartere Produkte. Denn die Daten sollen helfen, Produkte so herzustellen, wie sie gebraucht werden und wann sie gebraucht werden. Die Produkte sollen aber auch selbst Daten bereitstellen, damit sie besser das tun können, was gebraucht wird und wenn es gebraucht wird.

Das geht nicht ohne eine Plattform, die praktisch alle Facetten des Produktionsunternehmens zusammenfasst. Cloud-basierte Lösungswelten sind damit Teil der verkauften Hardware. Sie stellen Services bereit, die zu mehr Effizienz bei der Herstellung der Produkte führen und gleichzeitig die Produkte effizienter machen.

Doch IBM ist auch diesmal nicht allein. Microsoft hat sich unter Satya Nadella zu einem Plattform-Anbieter gewandelt, der auf die gleichen Kernkompetenzen zielt wie IBM. Und auch SAP hat erkannt, dass nicht nur die „White-Collar“-Bereiche des Unternehmens Daten sehen wollen, sondern auch die „Blue-Collar“-Kollegen im unmittelbaren Produktionsprozess aus Daten Taten machen. Nie war die klassische Hardware so umworben wie jetzt, wo die Software in die Cloud wandert. Verkehrte Welt!

Dabei ziehen sich die Plattform-Anbieter durchaus ihre eigenen Wettbewerber heran. Denn die großen Automobilzulieferer, Maschinenbauer und Elektrounternehmen nutzen die Cloud-Dienste ihrer Lösungslieferanten auch dafür, aus der eigenen, konzernweiten Digitalplattform ein Angebot für ihre Kunden zu schneidern. Die Cloud wird damit als Plattform zum Produkt, auf dem die Anwender selbst Dienste anbieten. Verkehrte Welt!

Und dieser Markt dürfte gigantisch werden. Denn nicht nur bleibt die bekannte Cisco-Prognose, nach der im Jahr 2020 rund 50 Milliarden Endgeräte im Internet der Dinge Daten über die Cloud austauschen, unwidersprochen. Auch nach einer aktuellen Studie des Beratungsunternehmens Frost & Sullivan werden sich die Investitionen in Plattformen für das Internet der Dinge Jahr für Jahr um 25 Prozent erhöhen, um die Kommunikation von Maschine zu Maschine zu erleichtern. Allein in der Logistik zwischen Unternehmen werden dabei nach der gleichen Studie schon 2018 drei Milliarden Megabyte an Daten ausgetauscht. Insgesamt, so glauben die Marktforscher bei General Electric, könnte sich die Wertschöpfung durch IoT-Plattformen in den kommenden Jahren um bis zu 15 Billionen Dollar steigern.

Kein Wunder also, dass General Electric selbst in Plattformen investiert – ebenso wie Siemens oder Bosch. Sie werden sich selbst zum Enabler wandeln, der durch Plattform-Angebote aus der Cloud smartere Kunden und smartere Produkte ermöglicht. Und nicht zuletzt smartere Geschäfte: Denn die Cloud-Plattformen selbst sind Bestandteil der neuen Geschäftsmodelle, in denen Hardware wie Software verkauft wird, die über das Internet gewartet und aktualisiert werden kann, durch Updates neue Produkteigenschaften und Features erfährt und die möglicherweise nur noch gemietet und nach Nutzung bezahlt wird.

Moment mal: Hatten wir das nicht schon? IBMs größte innere Revolution ereignete sich in den siebziger Jahren, als Big Blue vom Mietgeschäft zum Kaufmodell wechselte und damit einen ganzen Markt durcheinander brachte. Jetzt wird auf den Cloud-Plattformen dieses Paradigma wieder umgekehrt. Verkehrte Welt!

 

IT´s a Game Changer!

Woche für Woche kommen Studien auf den Schreibtisch, nach denen – je nach Geschäftsmodell des Auftraggebers – der deutsche Mittelstand entweder bei Investitionen in den digitalen Wandel gut im Schnitt liegt oder hoffnungslos hinterher hinkt. Nun, abgesehen davon, dass „gut im Schnitt“ noch lange nicht „Leader of the Pack“ ist und Hinkende nur wenig Aussicht darauf haben, zum Hauptfeld der Durchschnittlichen aufzuschließen: wie können sich seriös gebende Meinungsforscher und Beratungshäuser in ihrem Urteil eigentlich so unterscheiden? Nur im US-Wahlkampf lagen die Auguren weiter weg von der Realität.

Über die Fehlprognosen vor der Präsidentenwahl in den USA wurde bereits viel spekuliert, über die starken Abweichungen beim Urteil über „Industrie 4.0“ oder andere Auswirkungen des digitalen Wandels gibt es hingegen weniger Mutmaßungen. Deshalb hier ein Versuch: Es kommt immer drauf an, was man zählt und wie bewertet! Nicht neu? Mag sein – aber dann wäre es höchste Zeit, mit einem bewährten Fehler aufzuräumen.

Der digitale Wandel tritt nämlich in vier Aggregatzuständen auf, die ein Unternehmen entweder in Kältestarre verharren lassen oder aber fließend auf Veränderungen reagieren lassen. Am Ende steht jedenfalls ein superschnell reagierendes Plasma-Unternehmen, das nicht nur sich selbst, sondern auch seine Umgebung völlig verwandelt.

Versuchen wir es – etwas weniger metaphorisch – mit einer Taxonomie des digitalen Wandels:

  • Die Stagnation ist demnach die unterste Stufe des Umgangs mit dem digitalen Wandel.
  • Veränderungen führen im harmlosen Fall zu Transitionen, zu organisch und kontinuierlich sich entwickelnden Übergängen von einem Zustand in einen anderen.
  • Sind die Übergänge so umfassend, dass sich nicht nur ein neuer Zustand, sondern auch ein neues Geschäftsmodell entwickelt, kann man von einer Transformation, einer Umgestaltung, sprechen.
  • Werden ganze Lebens- und Gesellschaftsbereiche so tiefgreifend verändert, dass sich auch ihre jeweiligen Funktionsprinzipien ändern, ist dies Disruption.

Sehr gut lässt sich dies in der Automobilbranche erkennen, wo strenge Abgaswerte nicht dazu geführt haben, dass Unternehmen Technologien für Innovationen eingesetzt haben, sondern dafür, die Vorschriften zu umgehen und weiter stagnieren zu können. Wer mit Blick auf die Antriebstechnik Hybridmodelle anbietet, versucht eine vorsichtige Transition zur Elektromobilität umzusetzen. Die tatsächliche Transformation aber erfolgt erst, wenn (teil-)autonome Fahrzeuge im Verkehr den Fahrer entlasten. Die wirklich tiefgreifende Veränderung aller vom Auto erfassten Lebensbereiche ereignet sich mit dem Paradigmenwechsel, in dem nicht mehr Fahrzeuge, sondern Fahrzeiten verkauft werden – unabhängig davon, ob es sich um Personentransporte, Botengänge oder Frachten im Rahmen einer Logistikkette handelt.

Der Käufer von Fahrzeiten hat dann die totale Entscheidungshoheit über seine Mobilität und die seiner Güter. Er (oder sie) kann aggressiv oder defensiv durch den Verkehr pulsen, er kann ökologisch oder ökonomisch sinnvoll die Waren transportieren. Er kann kurzentschlossen Essen bestellen, spontan Spritztouren einschieben oder ein Cam-Car vor seinem Haus abstellen. Es ist jedenfalls der Konsument, der die Art und Weise der Nutzung bestimmt und damit zugleich das Tempo und die Tiefe des digitalen Wandels.

Nach diesem Muster wandeln sich praktisch alle Branchen und Lebensbereiche. Sie werden dadurch vorangetrieben, dass Konsumenten, also Nachfrager, digitale Antworten der Anbieter auf die bereits vorhandene digitale Ausstattung einfordern. Je mehr Smartphones verkauft werden, je mehr Wearables Gesundheitsdaten ermitteln, je mehr Smart Homes nach Verknüpfungsmöglichkeiten suchen – desto tiefgreifender müssen Unternehmen reagieren. Sie werden vom Pfad der Transition zur Transformation getrieben und müssen zugleich visionär genug sein, die drohende Disruption ihrer Geschäftsmodelle vorauszusehen. Oder sie stagnieren gemütlich im Hier und Gestern. Da weiß man wenigstens, was man hat – beziehungsweise hatte.