Neun Schritte in die Wolke

Cloud Computing wurde bislang im deutschen Mittelstand nur zögerlich angenommen. Das gilt interessanterweise sowohl für die mittelständischen Anwender als auch für mittelständische IT-Anbieter. Die einen wollen der Cloud nicht ihre Daten und ihr in Software gegossenes Wissen anvertrauen. Die anderen wollen der Cloud nicht in ein neues Geschäftsmodell folgen. Anders als in den USA, wo diese Ressentiments nicht vorherrschen, verhindern die Deutschen also die Cloud, weil sie keinen Grund für einen Paradigmenwechsel sehen oder aber weil sie ihn scheuen…

Das lässt sich nur allzu gut erklären: Die deutsche Wirtschaft war in den letzten Jahren mit ihrem eigenen Wachstum beschäftigt. In anderen Ländern, die mit wirtschaftlichen Problemen zu kämpfen hatten, haben sich die Unternehmen viel früher und konsequenter mit notwendigen Veränderungen beschäftigt. Zudem wurden bislang die disruptiven Kräfte, die die Cloud freimachen kann, nur in den wenigsten Fällen, genutzt. Überall dort, wo dies aber geschehen ist, werden die Cloud-Angebote allerdings auch gerne angenommen. Man muss nur mal auf sein Smartphone schauen: Viele der Funktionen, die dort durch Icons repräsentiert werden, wären ohne die Cloud überhaupt nicht denkbar. Ja, Mobile Computing ist per se ohne die Cloud nicht denkbar.

Eines der erfolgreichsten Cloud-Modelle, das sich in einer Vielzahl von Angeboten erfolgreich durchsetzt, ist die disruptive Methode des „Kill the Middleman“: Wer seine Bücher als eBook vertreibt, braucht keinen Verlag. Wer sich im Schwarm Geld leiht, braucht keine Bank. Wer bei Uber eine Mitfahrgelegenheit sucht, braucht keine Taxi-Mafia. Oder wer bei AirBnB eine Unterkunft anbietet, braucht keinen Makler. Was diese Anwendungen aber brauchen ist die Cloud.

Die Konsequenz daraus, die jetzt auf der deutschen Partnerkonferenz von Microsoft diskutiert wurde, ist geradezu trivial: Wer in der Cloud das Gleiche anbietet wie OnPremises, der wird in und mit der Cloud scheitern. Dabei sind es nur wenige Schritte auf dem Königsweg in die Cloud.

  1. Das Cloud-Angebot muss einen Zusatznutzen in bestehenden digitalen Welten erbringen.
  2. Das Nutzenversprechen sollte zu den aktuellen Megatrends wie Internet of Things, Industrie 4.0, Big Data, Collaboration, Social Media passen.
  3. Der Mehrwert des Cloud-Angebots muss für den einzelnen Anwender unmittelbar erfahrbar sein – langfristige strategische Potenziale ziehen nicht.
  4. Die Cloud ist ideal, um Erweiterungen und Zusatznutzen schnell und ohne Vertriebsaufwand zu vermarkten.
  5. Cloud-Angebote sollten bestehende Lösungen ergänzen, ehe sie abgelöst werden.
  6. Cloud-Angebote erschließen neue Zielgruppen in den Fachabteilungen der Unternehmen.
  7. Spätestens seit dem EuGH-Urteil, das den USA abspricht, für Daten ein sicherer Hafen zu sein, sollte der Standort D/EU als Wettbewerbsvorteil genutzt werden.
  8. Cloud-Angebote sollten zunächst ein Zusatzgeschäft sein, ehe Anbieter voll auf das neue Geschäftsmodell setzen.
  9. Der Vertrieb erhält eine neue Perspektive – in einem neuen Zielmarkt.

Der Weg in die Cloud erfolgt über das Verständnis, auf welchen Zusatznutzen Kunden heute schon ansprechen. Wer es versteht, dabei das Softwarelizenz-Kind nicht gleich mit dem Cloud-Bade auszuschütten, sondern sukzessive Erweiterungen in bestehende Softwarewelten schafft, wird erfolgreich sein. So überleben mittelständische Software-Anbieter auch die schwierige Drei-Jahres-Phase, in der der Cloud-Umsatz noch nicht die Software-Lizenzumsätze ersetzen kann. In dieser Phase kann aber das Legacy-Geschäft das Neugeschäft in der Cloud subventionieren.

VW: Virtuelle Welten

Dass man auch zu schnell bloggen kann, hat die vergangene Woche bewiesen, als die Abgas-Manipulationen bei Volkswagen noch als Verdacht im Raum standen, bei Erscheinen des Blogs aber schon längst vom Wolfsburger Konzern eingestanden worden waren. Zwar geben auch die drohenden Milliardenstrafen keinen Anlass, daran zu zweifeln, dass Volkswagen wie auch die anderen Automobilhersteller mit der Digitalisierung unseres Lebens – ob nun in der industriellen Produktion oder im total vernetzten Leben – den „Erfolg wagen“ werden und alle Chancen für den Wettlauf um die Zukunft haben. Aber die Gegenwart ist für den deutschen Automobilbau und die Marke „Made in Germany“ doch deutlich düsterer. Soviel dazu.

Aber wie steht es um die Reputation der Software-Industrie? Welches Zutrauen dürfen wir in von Menschen veranlasstem und erstelltem Code haben, der unser Leben beeinflusst? Welche Sicherheit haben wir, dass Analysen, die sich auf Algorithmen stützen, auch tatsächlich stimmen?

Dass also nach dem VW-GAU die Zukunft ganz allgemein nicht mehr ganz so strahlend erscheint, liegt an diesem schleichenden Verdacht über den Realitätsbezug virtueller Welten – und von einem Algorithmus wiedergegebene Wirklichkeiten sind immer virtuell. Sie sind bereits interpretiert – und wie wir jetzt sehen können, mitunter auch manipuliert.

Denn was die – immerhin schon satte zehn Jahre alte – Software am Auspuff eines VW Diesel vortäuschen konnte, kann vom Grundsatz her jede Analysesoftware, wenn sie zugleich mit der Absicht konzipiert wurde, die wahren Ergebnisse im Sinne des Erfinders zu beeinflussen. Wenn also die Qualität eines Produkts während eines Tests im Sinne des Herstellers korrigiert werden kann, warum dann nicht auch während eines Fertigungsprozesses? Weniger Ausschuss? – Kein Problem, wir messen einfach unter bestimmten Bedingungen weniger genau!

Mehr Kranke? Kein Problem, wir messen einfach weniger genau und schreiben falsche Werte in die Gesundheitskarte!

Oder der umgekehrte Fall: bessere vermeintliche Wirkung der Therapie. Die EU hatte unlängst unzählige Medikamente vom Markt genommen, weil sich die für ihre Zulassung von einem indischen Unternehmen gefertigten klinischen Studien als gefälscht herausstellten. Wenn hier auch Datenmaterial per Hand manipuliert wurde, ist eine gefälschte Messmethode in ähnlich gelagerten Fällen doch durchaus denkbar.

Läuft der Reaktor heiß? Wer´s nicht weiß, dem wird’s nicht heiß.

Können wir wirklich sicher sein, dass die Überwachungsvereine und Qualitätsmanager tatsächlich jeden Test- und Versagensfall ausgeschlossen haben, wenn eine Software in den produktiven Betrieb geht?

Und selbst wenn: Die Börsencrashs der Vergangenheit haben gezeigt, dass auch Softwaresysteme, die genau das tun, was sie sollen, gerade dadurch, dass alle Broker auf ihre Empfehlungen vertrauen, die gleiche Aktion starten und damit den Crash in Millisekunden sogar noch beschleunigen. Nicht erst der derzeit anhängende Fall zum Schwarzen Montag wirft diese Frage auf.

Wir müssen in immer komplexeren Zusammenhängen denken und Entscheidungen treffen. Dies können wir meist nur, wenn uns Softwaresysteme dabei helfen, die Komplexität zu meistern sowie Zusammenhänge und Konsequenzen zu erkennen. Doch die Ergebnisse, die Softwaresysteme ausspucken, sind immer nur virtuelle Welten, also Abbilder der Wirklichkeit, die wir durch einen Filter sehen, den wir selbst geschaffen haben. Womit und zu welchem Zweck ist uns beim Benutzen dieser Software-Lupen nicht immer klar.

Die folgende Liste ist eine kleine Übersicht von softwareinduzierten Ausfällen und Fehlleistungen der letzten zwei Wochen:

25. September: Sparkassenautomaten lahmgelegt. Angeblicher Grund: Softwarefehler.

14. September: OB-Auszählung in Herne verzögert. Angeblicher Grund: Softwarefehler.

13. September: Falsche Elterngeldbescheide in Pankow verschickt. Angeblicher Grund: Softwarefehler.

Die Liste kann nur unter Vorbehalt gelten, denn ihr liegt eine Google-Auswertung zugrunde. Und ob die vollständig oder ungefiltert ist, dafür mag wohl niemand seine Hand ins Feuer legen.

Der VW-GAU ist nicht allein ein Sündenfall der Automobilindustrie. Er zeigt vielmehr auf, wie anfällig unsere digitale, unsere virtuelle Welt für Manipulationen sein kann. Wir müssen gewarnt sein, sonst stinkt nicht nur der Abgas-Skandal zum Himmel.

 

Komplizierte Compliance

Die Geschichte ist so klebrig wie eine viel genutzte Türklinke.

“Der Spiegel“ und „Fakt“ hatten Einsicht in den Schriftverkehr zwischen dem Top-Management der SAP und einem internen Prüfer – und berichteten darüber. Das ist die Aufgabe der Medien.

Der Prüfer war mit einem internen Audit rund um die Entwicklung der InMemory-Datenbank Hana befasst, hatte Missstände festgestellt und dem SAP Vorstand berichtet. Das ist die Aufgabe der Prüfer.

Das SAP Management ist der Sache nachgegangen, hat mehr Details und vor allem Beweise verlangt und sich in einem jahrelangen, sich allmählich verhärtenden Dialog mit dem Prüfer auseinandergesetzt. Das ist die Aufgabe des Managements. Ob es diese Aufgabe gut gelöst hat, sei einmal dahingestellt.

Der Mann, der im „Spiegel“ Sebastian Miller ist, ist kein Whistle Blower vom Schlage Edward Snowdens. Der hatte als Motiv für seine NSA-Enthüllungen höhere, ja hehre Ziele und dafür persönliche Verfolgung und Einschränkungen der Bewegungsfreiheit in Kauf genommen. „Sebastian Miller“ hat – ob willentlich und wissentlich ist unklar – über seinen Vater und Anwalt Millionenforderungen an seinen Arbeitgeber gestellt. Das Wort Erpressung steht im Raum.

Und SAP, dessen Gegenwart und Zukunft am weiteren wirtschaftlichen Erfolg der Hana-Architektur hängt? Zunächst einmal gilt die Unschuldsvermutung, auf die jede Rechtsperson – und eben auch Unternehmen – ein Recht hat. Das gilt erst recht, nachdem SAP die unselige Geschichte um die eingestandenen fünf Terabyte heruntergeladener Dokumentationen von Oracle und PeopleSoft schiedlich-friedlich beigelegt hatte. Und konkrete Beweise für eine Verletzung von Urheberrechten Dritter – im aktuellen Fall werden IBM, Oracle, RIM und Teradata genannt – scheinen bislang ohnehin nicht vorzuliegen.

Doch der Weg zur blütenweißen Compliance-Weste ist ohnehin ein schmaler Grat, den einzuhalten ständige Aufsicht über Projekte, Prozesse und Personal verlangt. Wo liegt die Grenze zwischen Inspiration und Konspiration, wenn zwei Technologiefirmen – wie im Falle von Teradata und SAP – über einen optimierten Datenaustausch zwischen zwei Datenbank-Architekturen diskutieren und dabei Schnittstellen, Technologien und Techniken offenlegen? Können Verschwiegenheitsverpflichtungen Mitarbeiter wirklich davor bewahren, eine fremde Idee aufzugreifen und so in die eigene Gedankenwelt zu übernehmen, dass kaum noch zu erkennen ist, wessen geistiges Eigentum hier tatsächlich berührt worden war?

Compliance ist kompliziert – deshalb müssen alle Beteiligten hellwach sein und selbstkritisch das eigene Verhalten prüfen, Regeln aufstellen und ihre Einhaltung überwachen. Aber Compliance ist auch deshalb kompliziert, weil die Grenze zwischen legal und legitim von niemandem vorgezeichnet werden kann. Und Urheberrechtsverletzungen sind in einer digitalisierten Welt noch komplizierter. Dies gilt erst recht, seit im Software-Markt Trivial-Patente für den noch so kleinen Code vergeben werden. Zwischen Kapieren und Kopieren ist da kaum noch eine sichere Demarkationslinie zu ziehen. Das Plagiat beginnt bei falsch zitierten Quellen und endet nicht beim Auskundschaften fremden Datenmaterials.

So wenig konkret die Anschuldigungen sein mögen – so konkret ist der Schaden, den ein Unternehmen aus diesen Vorwürfen ziehen kann. Im aktuellen Fall hat der Prüfer selbst den kumulierten Schaden für die SAP, der sich aus Schadensersatzzahlungen, Strafen und Wertverlust ergeben könnte, auf satte 35 Milliarden Euro beziffert. Ein Horrorszenario für jedes Unternehmen. Der aktuelle SAP-Kurs gibt bereits nach.

Der Mann, der im „Spiegel“ Sebastian Miller ist, hat jetzt schon Geschichte geschrieben. Ob diese Geschichte einmal unter seinem Klarnamen geschrieben werden wird, ist fast schon unerheblich. Es ist die Geschichte, wie kompliziert Compliance ist – und wie leicht ein Vorwurf zur Vorverurteilung werden kann. Das Gerücht ist nun mal schneller als das Gericht.

 

Mainframe, dein Frame, Cloud-Frame

Es ist ja keineswegs so, dass die Dinosaurier ausgestorben sind – sie haben nur einfach ein neues Konzept umgesetzt, und ihre Nachfahren bevölkern als Vögel unseren Himmel. Sie haben sich sozusagen vom Boden in die Wolken erhoben…

Es ist auch keineswegs so, dass die Mainframes ausgestorben sind – sie haben nur einfach ein neues Konzept umgesetzt, und ihre Nachfahren leisten heute Schwerstarbeit in der Cloud.

Erstaunliche zwei Drittel des weltweiten Datenbestands in eCommerce- oder eBusiness-Anwendungen werden heute auf Speichersystemen gesammelt, die von Mainframes angesteuert werden. Gut 90 Prozent der 200 größten Unternehmen in Deutschland setzen unverändert auf Großrechner, um ihre Geschäftsprozesse zu steuern. In den USA dürfte der Anteil trotz der Technikverliebtheit der dortigen IT-Manager sogar noch größer sein.

Der Grund: Die Kosten pro Anwender sind deutlich geringer als bei Serverfarmen. Allerdings – und das ist der zweite Grund: Mehr als die Hälfte der Anwendungen auf den Mainframes hat mehr als 20 Jahre auf dem Software-Buckel. Und da diese Applikationen auch noch durchaus im produktiven Einsatz sind, nutzen sie auch etwa die Hälfte der zur Verfügung stehenden Rechnerzeit. Es ist die Software, die veraltet, während die Hardware durch kontinuierlichen Austausch jung bleibt.

Genau darin liegt das Problem für viele internationale ERP-Anbieter, die in den achtziger und neunziger Jahren zu Weltruhm gelangten, weil sie mit ihren Lösungen die Globalisierung der Konzerne beförderten und Software-Architekturen entstehen ließen, die nur mit erheblichem Upgrade-Aufwand auf einem Modernisierungspfad gehalten werden können. Über kurz oder lang steht für jeden CIO die Frage an: aushalten oder abschalten.

Die Lösung aus diesem Dilemma wird immer häufiger in der Totaloperation liegen: neue ERP-Lösungen, die auch einem geänderten Nutzungsverhalten entsprechen, werden die Altsysteme ablösen. Sie sind mit webbasierten Oberflächen, die vom PC-Arbeitsplatz bis zum Smartphone flexibel unterschiedlichste Endgeräte bedienen, ausgestattet und haben zugleich jene Offenheit, neue Megatrends wie Big Data, Predictive Analytics oder die Digitalisierung des Produktions-, Distributions- und Kommunikationsprozesse umzusetzen. Spätestens wenn die Altsysteme auch beim besten Willen nicht mehr den Marktprozessen und den Anforderungen an Transparenz entsprechen, wird es Zeit, software-technisch noch mal von vorne anzufangen.

Das wird der Moment sein, in dem Cloud-Computing auch im ERP-Umfeld seinen Durchbruch erlebt. Schon heute ist bei weltweit tätigen Unternehmen der Unterschied zwischen Cloud und Hosting im Prinzip kaum noch auszumachen – außer in der Frage, wer nun der Eigentümer der Infrastruktur ist. Das aber hat derzeit durchaus rechtliche Konsequenzen, wie die Debatte um NSA-Auslieferungsanträge für gespeicherte Daten, die auf von US-amerikanischen Unternehmen betriebenen Servern residieren, zeigt. Es hat aber auch Konsequenzen in der Frage, wer für die erheblichen Kosten fürs Systemmanagement aufkommen soll. Derzeit, so geben die globalen CIOs in Studien immer wieder zu Protokoll, fressen die Verwaltungsaufgaben bis zu drei Viertel des gesamten IT-Budgets. Schön, wenn sich das demnächst in die Cloud verflüchtigen würde.

Die Cloud ersetzt nicht den Mainframe, sondern die Software, die derzeit darauf läuft. Denn auch in den Data Centern der Cloud Provider wird mit Größtrechenanlagen gearbeitet – für viele Tausend Kunden gleichzeitig. Ein Mainframe in der Cloud ist immer noch ein Mainframe. Er ist nur irgendwie in die Wolken davongeflogen.