Make It Ten

Was ist schon groß dabei, wenn Microsoft entscheidet, seinem Windows-Betriebssystem der nächsten Generation nach der aktuellen Versionsnummer „8.1“ die glatte „10“ folgen zu lassen? Namen sind Schall und Rauch. Dass – so der offizielle Wortlaut aus Redmond – der Unterschied zum bestehenden Windows so tiefgreifend sei, dass ein einfaches Fortzählen nicht ausreiche, wollen wir gerne glauben. Ist ja auch eine gute Marketing-Aussage.

Glaubhaft ist aber auch, was der Alias „Cranbourne“ gepostet hat: „Windows9“ hätte demnach nie zu Debatte gestanden, weil Programme bei der Versionsabfrage des Betriebssystems nicht zweifelsfrei zwischen „Windows95“, „Windows98“ und Windows9“ hätten unterscheiden können.

Klingt jetzt aber auch wie ein Programmierbock der „Y2K“-Klasse. Immerhin scheint aber niemand damit zu rechnen, dass noch irgendwo eine Windows-Version „1.x“ im Einsatz ist…

Aber sei´s drum. Was drin ist (und rauskommt), ist entscheidend.

Und da ist vielleicht die Rückkehr des klassischen Startbildschirms ein Feature, mit dem hartnäckige Kachelhasser zurückgewonnen werden können. Da ist vielleicht die Verfügbarkeit von Apps aus dem Windows Store auch auf dem Desktop ein Feature, mit dem notorische Mobile-User auch an den Desktop zurückgeführt werden können. Da ist aber vor allem die dreistufige Update-Politik eine Methode, sowohl Privatkunden als auch Firmenkunden eng an Microsoft zu binden.

Seit knapp zehn Jahren denkt Microsoft intensiv darüber nach, wie sich die Deployment-Kosten in großen Organisationen so verringern lassen, dass Neuerungen möglichst zeitnah eingeführt werden können. Einer der größten Verhinderungsgründe für die Einführung von Microsoft Vista beispielsweise waren die erheblichen Kosten, die beim Umstieg von Windows95 und Windows98 (siehe oben) auf die IT-Organisation zukamen. Für einen vernünftigen Return-on-Invest waren die Effektivitätsgewinne einfach nicht groß genug. Also warteten (praktisch) alle auf Windows7.

Aber im mobilen und Cloud-basierten Business besteht ja einer der Vorteile darin, Updates jederzeit und möglichst aufwandfrei an den Endkunden zu bringen. Das stimmt uneingeschränkt für den privaten Verbraucher. In Organisationen aber folgt nach jedem Update eine Evaluierung, wenn nicht sogar Validierung – und hier lassen sich die gewohnten wöchentlichen Updates kaum seriös durchhalten.

Apple beispielsweise stellt allenfalls einmal im Jahr (oder zur Nachbesserung zweimal) ein neues iOS ins Netz. Aber Apple hat auch weniger mit Firmenkunden zu tun. Auch Google schaut stärker auf den Endverbraucher als auf das Enterprise.

Deshalb soll es bei Windows10 die Kraft der drei Geschwindigkeiten geben: Jederzeit sofort, teilweise nach Wahl, regelmäßig aber mäßig. Die Wahl der richtigen Geschwindigkeit ist nicht nur eine technische Herausforderung. Sie ist auch eine marketingtechnische Chance, weil Anbieter wie Microsoft, Apple und Google ihre Kunden durch sorgfältige Update-Politik in der Cloud bei der Stange und den Wettbewerb auf Distanz halten können.

Wenn auch Microsoft lange gebraucht hat – mit Windows10 scheint das Niveau erreicht zu werden, mit dem mobile und stationäre Anwender, OnPremise-Installationen und Cloud-Umgebungen gleichermaßen eng geführt und im richtigen Zeittakt bedient werden können. Microsoft hat erkannt, dass Windows das Trojanische Pferd ist, mit dem Anwender für die Cloud gewonnen werden können.

Denn ein Betriebssystem, das vom Smartphone über den Desktop bis zur Platform-as-a-Service alles unterstützt, ist selbst ein Marktplatz für die Anwendungen. Deshalb spielen Microsoft, Apple und Google in einer Liga.

IBM wird der bei OS/2 vermasselten Marktchance, Hewlett-Packard wird dem vernachlässigten Engagement bei HP-UX nachweinen. Beide haben heute keine direkte über ein eigenes Betriebssystem gesteuerte Beeinflussungsmöglichkeit für einen Markt, der vom Smartphone bis zum Rechenzentrum reicht.

Beide zielen deshalb auf eine andere Strategie – IBM seit rund einem Jahr, Hewlett-Packard seit dieser Woche. Sie suchen ihr Heil im Softwareservice. Geübt, komplexe Installationen zu managen, setzen sie darauf, dass der am stärksten boomende Cloud-Markt, Platform-as-a-Service, ihr Kerngeschäft sein wird. Dort, wo leistungsfähige Entwicklungsumgebungen die Voraussetzung dafür schaffen, dass bestehende Großanwendungen auch in der (privaten) Cloud einsatzfähig bleiben und zu günstigeren Konditionen betrieben werden, suchen beide Oldtimer der IT ihr Glück.

Die Chancen stehen aber nicht schlecht, dass der Markt vom Enduser-Betriebssystem aufgerollt wird. Und da zielt Microsoft jetzt voll auf die Zehn.

Mobilmachung für den Decision Day

 

Jetzt mal unter uns gesprochen: Das Thema Cloud Computing wäre längst tot, wenn es nicht eine viel mächtigere Bewegung gäbe, die die Cloud unverzichtbar macht: Mobile Computing.

Denn während sich die Unternehmen nach wie vor nur zögerlich mit ihrem Bedarf nach Daten, Anwendungen und Rechenpower der Cloud anvertrauen und auch angesichts der juristischen Unwägbarkeiten der Datensicherheit auch kaum noch Gründe für ein solches Vertrauensverhältnis entwickeln können, ziehen die Besitzer von Smartphones und Tablets mit wehenden Fahnen in die Wolke. Sie leben nach dem Grundsatz, alles immer und überall verfügbar haben zu wollen – seien es private Daten und Apps, Zugänge zur Unternehmens-IT oder die Kommunikationsmöglichkeiten mit Partnern, Lieferanten oder einfach mit der ganzen Welt.

Mobile ohne Cloud – das geht gar nicht.

Aber Cloud ohne Mobil geht auch nicht. Denn dann bräuchte die Cloud kein Mensch. Das haben nahezu alle großen IT-Anbieter in den knapp zehn Jahren, seit die Idee von den weltumspannenden Rechenzentrumsdienstleistungen durch die Marketing-Materialien geistert, schmerzhaft gelernt. SAP hat sich mit Business by Design ein Milliardengrab geschaufelt. IBM hat beim Wechsel von der benutzerorientierten Hardware zu cloud-basierten Services einen Schuldenberg aufgehäuft. Microsoft verstrickt sich in juristischen Grabenkämpfen. Facebook verlor lange Zeit Marktanteile, weil es nicht gelang, Freunde auch mobil zu liken.

Das Problem mit dem Cloud Computing war und ist, dass ein im Prinzip gut funktionierendes Geschäftsmodell – das der Lizenzverkäufe nämlich – durch ein noch nicht austariertes Mietmodell abgelöst werden soll. Sicher ist dabei nur eines: ein Tal der Tränen von mindestens drei Jahren, in denen die Mieteinnahmen langsamer steigen als die Lizenzeinnahmen einbrechen.

Im mobilen Business ist das anders. Hier wird kein altes Geschäftsmodell abgelöst, weil es vor Apples iPhone überhaupt kein Geschäftsmodell für das Mobile Computing gab. Das ist das große Versäumnis der Telekom-Provider, die immer nur die Leitung gesehen haben, aber nicht die Leistung.

Niemand hat die Herausforderung, die sich aus der Kundenmobilität ergibt, besser erkannt als Google, das mit Android heute 80 Prozent der Neukäufe an mobilen Endgeräten beherrscht. An dieser Vormachtstellung wird sich auch in vier Jahren, wenn laut IDC der Anteil auf 77 Prozent zurückgehen soll, nicht wirklich etwas ändern. Da wirkt sich die mit der Nokia-Übernahme teuer erkaufte knappe Verdopplung bei Windows Phone geradezu lächerlich aus – von derzeit 3,5 Prozent der Neukäufe auf 6,4 Prozent. Apple verteidigt seine Nische derweil mit rund 14 Prozent Marktanteil für iOS. Wenn hier – und nicht in der Unternehmens-IT – die Cloud-Kunden der Zukunft stecken, kann es nicht verwundern, dass Google jetzt seine verschärften Sicherheitsstandards veröffentlicht. Es geht um das Vertrauen jener drei Viertel der mobilen Kunden, die Android-Smartphones nutzen.

Ganz allmählich identifizieren auch die traditionellen IT-Anbieter den mobilen Kunden. SAP schwenkt nach Jahren der auf die IT-Zentralen ausgerichteten Geschäftspolitik jetzt auf Angebote für den mobilen Anwender ein. IBM holt sich für den mobilen Anwender im Unternehmen die Unterstützung von Apple hinzu. Dass Microsoft mit dem Kauf der Handy-Sparte von Nokia allem Anschein nach einen Missgriff getätigt hat, widerlegt die These nicht, dass der mobile Kunde erst den Zugang und die Motivation zum Cloud Computing eröffnet. Niemand weiß das besser als endkundenorientierte Anbieter wie Amazon und Google. Sie haben ihre Strategie längst auf den mobilen Anwender ausgerichtet – und bieten dazu auch eine Cloud-Infrastruktur.

Ähnlich wie den Telekom-Anbietern, die beim Mobile Computing nur den Übertragungsweg sehen, aber nicht die Zielperson, könnte es jetzt auch den traditionellen Logistikdiensten ergehen, die nur auf den Stau starren und dabei den Kunden übersehen. Denn der Kampf um die letzte Meile zielt künftig nicht allein darauf ab, die Millionen Haushalte möglichst kostengünstig und zeitnah zu erreichen. Der Logistikkunde von morgen ist ein Moving Target, ein Kaufnomade, der morgens sein Frühstück nach Hause, mittags seinen Pausensnack an den (mobilen) Arbeitsplatz und abends das Gourmet-Paket zum Chill-out in die Szene gebracht haben möchte. Amazon und Google experimentieren deshalb mit Transportdrohnen, weil sie nicht nur den Stau überfliegen wollen, sondern weil sie erkannt haben, dass sie ihrem mobilen Kunden überall hin folgen können müssen. Mit digitalen Medieninhalten ist das im Mobile Computing kein Problem. Jetzt arbeiten sie sozusagen an der Cloud für alles Analoge.

Die Mobilmachung ist längst im Gange. Und es wird für die etablierten IT-Anbieter zum D-Day kommen. Der Tag, an dem sie merken, dass ihre Kunden im wahrsten Sinne des Wortes einfach davon gegangen sind.

Globale Positionsbestimmung

Die Wirklichkeit erweist sich ja immer wieder als Regiekönig, wenn es darum geht, Tragödien und Komödien die treffsichere Pointe aufzusetzen. Nach einer Woche Generaldebatte – oder sollten wir sagen: Generalabrechnung mit der Digitalen Agenda, meldet Arianespace, dass der fünfte und sechste für das Globale System zur Positionsbestimmung, Galileo, ins All geschossene Satellit die Zielumlaufbahn um schlappe 6000 Kilometer verpasst hat. Ob es sich nun um einen derben Rechenfehler gehandelt haben mag oder um einen Defekt in der russischen (!) Trägerrakete Sojus, bleibt noch abzuwarten. Nebenbei gefragt: Warum eigentlich Sojus und nicht die mit europäischem Steuergeld entwickelte Ariane 5? Eins aber hat das ohnehin um sechs Jahre verspätete und um das Dreifache (mindestens) verteuerte System, das uns unabhängig vom amerikanischen GPS machen soll, schon jetzt erreicht: eine wahrhaft beschämende Globale Positionsbestimmung Europäischer Großtechnik: allenfalls unterer Durchschnitt!

In diese Einstufung hatten sich auch schon zuvor die drei für die Digitale Agenda zuständigen deutschen Bundesminister für Inneres, Wirtschaft und Infrastruktur eingereiht. Zwei große Themen sollen bis nach der nächsten Bundestagswahl nun aber wirklich, wirklich endlich einmal angegangenen werden: der flächendeckende Breitbandausbau und die verbesserte IT-Sicherheit.

Mit welchen Mitteln und vor allem aus welchen Mitteln – diese Frage bleibt vorerst unbeantwortet. Statt eine Vision zu vermitteln warnte das ministerielle Dreigestirn vor einer Dystopie, einer negativen Utopie: vom Daten-Tsunami sprach der eine, von einer Anschnallpflicht auf der Datenautobahn der andere. Der Duktus klang eher so, als müsse man den deutschen Internet-Michel vor Gefahren bewahren. Dass die Digitale Agenda (und ihre Verwirklichung oder Nicht-Verwirklichung) die Geschäftsprozesse der deutschen und europäischen Wirtschaft nachhaltiger beeinflussen wird als – sagen wir mal: der Mindestlohn oder die Rente mit 63 klang nicht an.

Denn tatsächlich arbeiten wir doch mit dem Konzept „Industrie 4.0“ ganz erheblich daran, zu einem Daten-Tsunami beizutragen. Es handelt sich nicht um eine Gefahr von außen, die eingedämmt gehört, sondern um eine Geschäftschance von innen heraus, der breiterer Raum gelassen werden sollte. Natürlich auch mit hoher Übertragungsrate von 50plus. Aber das ist doch keine Agenda für den Wirtschaftsstandort Deutschland im Jahr 2018, wenn andere Länder bereits „freie Datenfahrt für freie Bürger“ bei Tempo 100 flächendeckend anpeilen!

Auch das IT-Sicherheitsgesetz klingt eher nach Verordnungsbetrieb, als nach wirtschaftlicher und technologischer Aufholjagd. Dabei wären die Argumente für eine Europäische Cloud im „sicheren Hafen“ nie besser als heute. Daraus ließe sich Industrie-Politik der ersten Güte bereiten, wenn Anreize für europäische oder zumindest deutsche IT-Provider geschaffen würden, eine auf Schnelligkeit und Sicherheit ausgerichtete Cloud-Infrastruktur von Weltformat zu schaffen. Die Welt zu Gast auf europäischen Datenservern – das wäre eine Vision.

China hat diese Visionen nicht nur, sondern setzt sie auch konsequent um. Für Oktober wird die unter dem Arbeitstitel COS (China-Betriebssystem) gehandelte Systemsoftware für klassische Computer und ab Frühjahr 2015 für Smartphones erwartet. Es verbandelt – ähnlich wie die USA – nationale Interessen mit technologischen Entwicklungen. Das Ziel ist klar: Google mit Android, Apple mit iOS und Microsoft mit Windows 9 sollen aus dem Milliardenmarkt China ausgesperrt werden.

Europa verfolgt keine protektionistische Abschottungspolitik. Das hat unsere freie Wirtschaft gar nicht nötig. Aber es geht auch nicht darum, die Europäische Datenschutzrichtlinie auf amerikanischen Servern zu etablieren. Es geht darum, aus Europäischen Standards internationale Wettbewerbsvorteile zu generieren. Stattdessen auf Visionen zu verzichten oder bestehende Perspektiven zu verdaddeln, wie man das am Beispiel Galileo miterleben und miterleiden muss, ist keinesfalls in Ordnung. Im Gegenteil: es ist fahrlässig.

Wir wollen „Industrie 4.0“ und wir wollen die sichere und schnelle Infrastruktur, die dafür nötig ist. Wir wollen Technologie vor allem fördern und nicht vor allem vor ihr bewahrt werden. Die Digitale Agenda hat ihre Zielsetzung beinahe ins Gegenteil verkehrt. Sie ist auch eine Globale Positionsbestimmung. Und die ist derzeit niederschmetternd.

 

 

Cayman Islands für Daten gesucht

Das Internet vergisst ja nichts – und so kann man im Web immer noch das Interview lesen, das Microsofts Chefjustitiar Brad Smith der Financial Times zu Beginn des Jahres gab. Darin kommentierte er die im Dezember 2013 bekannt gegebenen Maßnahmen zum Schutz von Kundendaten. Eine dieser Maßnahmen bezieht sich auf die Wahlfreiheit der Kunden, ihre Daten an einem Microsoft-Rechenzentrum ihrer Wahl gespeichert zu wissen.

„Kunden sollten selbst entscheiden, wo ihre Daten liegen“, hatte Microsofts oberster Jurist damals betont und hinzugefügt: „“Die Leute sollten die Möglichkeit haben zu wissen, ob ihre Daten den Gesetzen und dem Zugriff der Regierung eines anderen Landes unterliegen und sie sollten auf Basis dieser Informationen wählen können, wo ihre Daten liegen.“

Die Ankündigung erzielte damals mehr Resonanz bei Datenschützern als bei Kunden – wohl auch deshalb, weil letztere die Brisanz der Entscheidung nicht sehen konnten. Die Datenschützer aber schon: „Wenn sie sich wirklich öffentlich dazu bekennen, Daten lokal zu speichern, werden sie sich vom Rest der Industrie abheben“, hieß es. Allerdings wurde auch gewarnt: „Sie wollen den Konflikt fast provozieren“ – nämlich den Konflikt zwischen den Gesetzen verschiedener Länder und die Frage, welches Recht überwiegen würde – das lokale oder das der USA.

Chris Soghoian, Datenschutzexperte bei der American Civil Liberties Union, brachte schon im Januar gegenüber dem Wall Street Journal auf den Punkt, wo der wahre Konflikt liegen wird: „Was mehr zählt ist nicht, wo die Daten gespeichert sind, sondern wo der Systemadministrator sitzt und wer ihm Anweisungen geben kann.“ Solange ein Unternehmen in den USA agiert, seien die Daten nicht in Sicherheit, sondern im Zugriff des 1986 verabschiedeten Stored Communications Act. – Genau dieser Argumentation hatte sich vor zwei Wochen das New Yorker Bezirksgericht angeschlossen und die Herausgabe von in Irland gespeicherten Mailinformationen gefordert.

Jetzt steht Microsoft als Weißer Ritter da, der sich in einem Konflikt „US-Gesetzgebung gegen den Rest der Welt“ auf die Seite der Verbraucher und Kunden stellt und gegen die eigene Regierung. Beflügelt mag das Verhalten noch durch freundliche Hinweise aus der deutschen Bundesregierung sein, man werde in keinem Fall deutsche Behörden dazu ermuntern, Daten bei US-Anbietern zu speichern, wenn die Gesetzgebung weiterhin so wenig vertrauenswürdig bleibe.

Aber unter uns: Microsoft ist anders als die American Civil Liberties Union keine Bürgerrechtsbewegung, sie ist auch keine Non-Profit-Organisation. Microsoft kämpft um sein Geschäftsmodell, das massives Cloud Computing für Geschäfts- und Privatkunden als entscheidende Säule der künftigen Entwicklung des Unternehmens sieht. Die gegenwärtige Auslegung des Stored Communication Act, wonach Daten im Ausland dem Zugriff jenes Landes unterliegen, in dem das Daten speichernde Unternehmen seinen Hauptsitz hat, erschüttert Microsofts Geschäftsstrategien ins Mark. Anders als beispielsweise Google, Amazon oder Facebook, profitiert Microsoft von mehr Datenschutz, während eine laxere Handhabe der informationellen Selbstbestimmung gerade die Geschäftsmodelle der Internet-Giganten befördert.

Geht Cloud Computing nur national? Muss Microsoft in jedem relevanten nationalen Markt eine rechtlich weitgehend unabhängige Organisation etablieren, um sich dem Zugriff des Stored Communications Act dauerhaft zu entziehen. Und was, wenn andere Legislativen ebenfalls die Rechtsauffassung der US-amerikanischen Gesetzgebung nachvollziehen? Brauchen wir ein Datenparadies auf den Cayman Islands oder in der Schweiz?

Microsoft hat in der Tat diesen Konflikt zugespitzt, um ihn einer Klärung näher zu bringen. Das wird im Revisionsverfahren sicher auch geschehen. Alles andere als eine Bestätigung des Stored Communications Act wäre eine Überraschung. Sollte es so weit kommen, wäre das gewiss nicht der letzte Akt im Streit um den Act.