Make It Ten

Was ist schon groß dabei, wenn Microsoft entscheidet, seinem Windows-Betriebssystem der nächsten Generation nach der aktuellen Versionsnummer „8.1“ die glatte „10“ folgen zu lassen? Namen sind Schall und Rauch. Dass – so der offizielle Wortlaut aus Redmond – der Unterschied zum bestehenden Windows so tiefgreifend sei, dass ein einfaches Fortzählen nicht ausreiche, wollen wir gerne glauben. Ist ja auch eine gute Marketing-Aussage.

Glaubhaft ist aber auch, was der Alias „Cranbourne“ gepostet hat: „Windows9“ hätte demnach nie zu Debatte gestanden, weil Programme bei der Versionsabfrage des Betriebssystems nicht zweifelsfrei zwischen „Windows95“, „Windows98“ und Windows9“ hätten unterscheiden können.

Klingt jetzt aber auch wie ein Programmierbock der „Y2K“-Klasse. Immerhin scheint aber niemand damit zu rechnen, dass noch irgendwo eine Windows-Version „1.x“ im Einsatz ist…

Aber sei´s drum. Was drin ist (und rauskommt), ist entscheidend.

Und da ist vielleicht die Rückkehr des klassischen Startbildschirms ein Feature, mit dem hartnäckige Kachelhasser zurückgewonnen werden können. Da ist vielleicht die Verfügbarkeit von Apps aus dem Windows Store auch auf dem Desktop ein Feature, mit dem notorische Mobile-User auch an den Desktop zurückgeführt werden können. Da ist aber vor allem die dreistufige Update-Politik eine Methode, sowohl Privatkunden als auch Firmenkunden eng an Microsoft zu binden.

Seit knapp zehn Jahren denkt Microsoft intensiv darüber nach, wie sich die Deployment-Kosten in großen Organisationen so verringern lassen, dass Neuerungen möglichst zeitnah eingeführt werden können. Einer der größten Verhinderungsgründe für die Einführung von Microsoft Vista beispielsweise waren die erheblichen Kosten, die beim Umstieg von Windows95 und Windows98 (siehe oben) auf die IT-Organisation zukamen. Für einen vernünftigen Return-on-Invest waren die Effektivitätsgewinne einfach nicht groß genug. Also warteten (praktisch) alle auf Windows7.

Aber im mobilen und Cloud-basierten Business besteht ja einer der Vorteile darin, Updates jederzeit und möglichst aufwandfrei an den Endkunden zu bringen. Das stimmt uneingeschränkt für den privaten Verbraucher. In Organisationen aber folgt nach jedem Update eine Evaluierung, wenn nicht sogar Validierung – und hier lassen sich die gewohnten wöchentlichen Updates kaum seriös durchhalten.

Apple beispielsweise stellt allenfalls einmal im Jahr (oder zur Nachbesserung zweimal) ein neues iOS ins Netz. Aber Apple hat auch weniger mit Firmenkunden zu tun. Auch Google schaut stärker auf den Endverbraucher als auf das Enterprise.

Deshalb soll es bei Windows10 die Kraft der drei Geschwindigkeiten geben: Jederzeit sofort, teilweise nach Wahl, regelmäßig aber mäßig. Die Wahl der richtigen Geschwindigkeit ist nicht nur eine technische Herausforderung. Sie ist auch eine marketingtechnische Chance, weil Anbieter wie Microsoft, Apple und Google ihre Kunden durch sorgfältige Update-Politik in der Cloud bei der Stange und den Wettbewerb auf Distanz halten können.

Wenn auch Microsoft lange gebraucht hat – mit Windows10 scheint das Niveau erreicht zu werden, mit dem mobile und stationäre Anwender, OnPremise-Installationen und Cloud-Umgebungen gleichermaßen eng geführt und im richtigen Zeittakt bedient werden können. Microsoft hat erkannt, dass Windows das Trojanische Pferd ist, mit dem Anwender für die Cloud gewonnen werden können.

Denn ein Betriebssystem, das vom Smartphone über den Desktop bis zur Platform-as-a-Service alles unterstützt, ist selbst ein Marktplatz für die Anwendungen. Deshalb spielen Microsoft, Apple und Google in einer Liga.

IBM wird der bei OS/2 vermasselten Marktchance, Hewlett-Packard wird dem vernachlässigten Engagement bei HP-UX nachweinen. Beide haben heute keine direkte über ein eigenes Betriebssystem gesteuerte Beeinflussungsmöglichkeit für einen Markt, der vom Smartphone bis zum Rechenzentrum reicht.

Beide zielen deshalb auf eine andere Strategie – IBM seit rund einem Jahr, Hewlett-Packard seit dieser Woche. Sie suchen ihr Heil im Softwareservice. Geübt, komplexe Installationen zu managen, setzen sie darauf, dass der am stärksten boomende Cloud-Markt, Platform-as-a-Service, ihr Kerngeschäft sein wird. Dort, wo leistungsfähige Entwicklungsumgebungen die Voraussetzung dafür schaffen, dass bestehende Großanwendungen auch in der (privaten) Cloud einsatzfähig bleiben und zu günstigeren Konditionen betrieben werden, suchen beide Oldtimer der IT ihr Glück.

Die Chancen stehen aber nicht schlecht, dass der Markt vom Enduser-Betriebssystem aufgerollt wird. Und da zielt Microsoft jetzt voll auf die Zehn.

Mobilmachung für den Decision Day

 

Jetzt mal unter uns gesprochen: Das Thema Cloud Computing wäre längst tot, wenn es nicht eine viel mächtigere Bewegung gäbe, die die Cloud unverzichtbar macht: Mobile Computing.

Denn während sich die Unternehmen nach wie vor nur zögerlich mit ihrem Bedarf nach Daten, Anwendungen und Rechenpower der Cloud anvertrauen und auch angesichts der juristischen Unwägbarkeiten der Datensicherheit auch kaum noch Gründe für ein solches Vertrauensverhältnis entwickeln können, ziehen die Besitzer von Smartphones und Tablets mit wehenden Fahnen in die Wolke. Sie leben nach dem Grundsatz, alles immer und überall verfügbar haben zu wollen – seien es private Daten und Apps, Zugänge zur Unternehmens-IT oder die Kommunikationsmöglichkeiten mit Partnern, Lieferanten oder einfach mit der ganzen Welt.

Mobile ohne Cloud – das geht gar nicht.

Aber Cloud ohne Mobil geht auch nicht. Denn dann bräuchte die Cloud kein Mensch. Das haben nahezu alle großen IT-Anbieter in den knapp zehn Jahren, seit die Idee von den weltumspannenden Rechenzentrumsdienstleistungen durch die Marketing-Materialien geistert, schmerzhaft gelernt. SAP hat sich mit Business by Design ein Milliardengrab geschaufelt. IBM hat beim Wechsel von der benutzerorientierten Hardware zu cloud-basierten Services einen Schuldenberg aufgehäuft. Microsoft verstrickt sich in juristischen Grabenkämpfen. Facebook verlor lange Zeit Marktanteile, weil es nicht gelang, Freunde auch mobil zu liken.

Das Problem mit dem Cloud Computing war und ist, dass ein im Prinzip gut funktionierendes Geschäftsmodell – das der Lizenzverkäufe nämlich – durch ein noch nicht austariertes Mietmodell abgelöst werden soll. Sicher ist dabei nur eines: ein Tal der Tränen von mindestens drei Jahren, in denen die Mieteinnahmen langsamer steigen als die Lizenzeinnahmen einbrechen.

Im mobilen Business ist das anders. Hier wird kein altes Geschäftsmodell abgelöst, weil es vor Apples iPhone überhaupt kein Geschäftsmodell für das Mobile Computing gab. Das ist das große Versäumnis der Telekom-Provider, die immer nur die Leitung gesehen haben, aber nicht die Leistung.

Niemand hat die Herausforderung, die sich aus der Kundenmobilität ergibt, besser erkannt als Google, das mit Android heute 80 Prozent der Neukäufe an mobilen Endgeräten beherrscht. An dieser Vormachtstellung wird sich auch in vier Jahren, wenn laut IDC der Anteil auf 77 Prozent zurückgehen soll, nicht wirklich etwas ändern. Da wirkt sich die mit der Nokia-Übernahme teuer erkaufte knappe Verdopplung bei Windows Phone geradezu lächerlich aus – von derzeit 3,5 Prozent der Neukäufe auf 6,4 Prozent. Apple verteidigt seine Nische derweil mit rund 14 Prozent Marktanteil für iOS. Wenn hier – und nicht in der Unternehmens-IT – die Cloud-Kunden der Zukunft stecken, kann es nicht verwundern, dass Google jetzt seine verschärften Sicherheitsstandards veröffentlicht. Es geht um das Vertrauen jener drei Viertel der mobilen Kunden, die Android-Smartphones nutzen.

Ganz allmählich identifizieren auch die traditionellen IT-Anbieter den mobilen Kunden. SAP schwenkt nach Jahren der auf die IT-Zentralen ausgerichteten Geschäftspolitik jetzt auf Angebote für den mobilen Anwender ein. IBM holt sich für den mobilen Anwender im Unternehmen die Unterstützung von Apple hinzu. Dass Microsoft mit dem Kauf der Handy-Sparte von Nokia allem Anschein nach einen Missgriff getätigt hat, widerlegt die These nicht, dass der mobile Kunde erst den Zugang und die Motivation zum Cloud Computing eröffnet. Niemand weiß das besser als endkundenorientierte Anbieter wie Amazon und Google. Sie haben ihre Strategie längst auf den mobilen Anwender ausgerichtet – und bieten dazu auch eine Cloud-Infrastruktur.

Ähnlich wie den Telekom-Anbietern, die beim Mobile Computing nur den Übertragungsweg sehen, aber nicht die Zielperson, könnte es jetzt auch den traditionellen Logistikdiensten ergehen, die nur auf den Stau starren und dabei den Kunden übersehen. Denn der Kampf um die letzte Meile zielt künftig nicht allein darauf ab, die Millionen Haushalte möglichst kostengünstig und zeitnah zu erreichen. Der Logistikkunde von morgen ist ein Moving Target, ein Kaufnomade, der morgens sein Frühstück nach Hause, mittags seinen Pausensnack an den (mobilen) Arbeitsplatz und abends das Gourmet-Paket zum Chill-out in die Szene gebracht haben möchte. Amazon und Google experimentieren deshalb mit Transportdrohnen, weil sie nicht nur den Stau überfliegen wollen, sondern weil sie erkannt haben, dass sie ihrem mobilen Kunden überall hin folgen können müssen. Mit digitalen Medieninhalten ist das im Mobile Computing kein Problem. Jetzt arbeiten sie sozusagen an der Cloud für alles Analoge.

Die Mobilmachung ist längst im Gange. Und es wird für die etablierten IT-Anbieter zum D-Day kommen. Der Tag, an dem sie merken, dass ihre Kunden im wahrsten Sinne des Wortes einfach davon gegangen sind.

Globale Positionsbestimmung

Die Wirklichkeit erweist sich ja immer wieder als Regiekönig, wenn es darum geht, Tragödien und Komödien die treffsichere Pointe aufzusetzen. Nach einer Woche Generaldebatte – oder sollten wir sagen: Generalabrechnung mit der Digitalen Agenda, meldet Arianespace, dass der fünfte und sechste für das Globale System zur Positionsbestimmung, Galileo, ins All geschossene Satellit die Zielumlaufbahn um schlappe 6000 Kilometer verpasst hat. Ob es sich nun um einen derben Rechenfehler gehandelt haben mag oder um einen Defekt in der russischen (!) Trägerrakete Sojus, bleibt noch abzuwarten. Nebenbei gefragt: Warum eigentlich Sojus und nicht die mit europäischem Steuergeld entwickelte Ariane 5? Eins aber hat das ohnehin um sechs Jahre verspätete und um das Dreifache (mindestens) verteuerte System, das uns unabhängig vom amerikanischen GPS machen soll, schon jetzt erreicht: eine wahrhaft beschämende Globale Positionsbestimmung Europäischer Großtechnik: allenfalls unterer Durchschnitt!

In diese Einstufung hatten sich auch schon zuvor die drei für die Digitale Agenda zuständigen deutschen Bundesminister für Inneres, Wirtschaft und Infrastruktur eingereiht. Zwei große Themen sollen bis nach der nächsten Bundestagswahl nun aber wirklich, wirklich endlich einmal angegangenen werden: der flächendeckende Breitbandausbau und die verbesserte IT-Sicherheit.

Mit welchen Mitteln und vor allem aus welchen Mitteln – diese Frage bleibt vorerst unbeantwortet. Statt eine Vision zu vermitteln warnte das ministerielle Dreigestirn vor einer Dystopie, einer negativen Utopie: vom Daten-Tsunami sprach der eine, von einer Anschnallpflicht auf der Datenautobahn der andere. Der Duktus klang eher so, als müsse man den deutschen Internet-Michel vor Gefahren bewahren. Dass die Digitale Agenda (und ihre Verwirklichung oder Nicht-Verwirklichung) die Geschäftsprozesse der deutschen und europäischen Wirtschaft nachhaltiger beeinflussen wird als – sagen wir mal: der Mindestlohn oder die Rente mit 63 klang nicht an.

Denn tatsächlich arbeiten wir doch mit dem Konzept „Industrie 4.0“ ganz erheblich daran, zu einem Daten-Tsunami beizutragen. Es handelt sich nicht um eine Gefahr von außen, die eingedämmt gehört, sondern um eine Geschäftschance von innen heraus, der breiterer Raum gelassen werden sollte. Natürlich auch mit hoher Übertragungsrate von 50plus. Aber das ist doch keine Agenda für den Wirtschaftsstandort Deutschland im Jahr 2018, wenn andere Länder bereits „freie Datenfahrt für freie Bürger“ bei Tempo 100 flächendeckend anpeilen!

Auch das IT-Sicherheitsgesetz klingt eher nach Verordnungsbetrieb, als nach wirtschaftlicher und technologischer Aufholjagd. Dabei wären die Argumente für eine Europäische Cloud im „sicheren Hafen“ nie besser als heute. Daraus ließe sich Industrie-Politik der ersten Güte bereiten, wenn Anreize für europäische oder zumindest deutsche IT-Provider geschaffen würden, eine auf Schnelligkeit und Sicherheit ausgerichtete Cloud-Infrastruktur von Weltformat zu schaffen. Die Welt zu Gast auf europäischen Datenservern – das wäre eine Vision.

China hat diese Visionen nicht nur, sondern setzt sie auch konsequent um. Für Oktober wird die unter dem Arbeitstitel COS (China-Betriebssystem) gehandelte Systemsoftware für klassische Computer und ab Frühjahr 2015 für Smartphones erwartet. Es verbandelt – ähnlich wie die USA – nationale Interessen mit technologischen Entwicklungen. Das Ziel ist klar: Google mit Android, Apple mit iOS und Microsoft mit Windows 9 sollen aus dem Milliardenmarkt China ausgesperrt werden.

Europa verfolgt keine protektionistische Abschottungspolitik. Das hat unsere freie Wirtschaft gar nicht nötig. Aber es geht auch nicht darum, die Europäische Datenschutzrichtlinie auf amerikanischen Servern zu etablieren. Es geht darum, aus Europäischen Standards internationale Wettbewerbsvorteile zu generieren. Stattdessen auf Visionen zu verzichten oder bestehende Perspektiven zu verdaddeln, wie man das am Beispiel Galileo miterleben und miterleiden muss, ist keinesfalls in Ordnung. Im Gegenteil: es ist fahrlässig.

Wir wollen „Industrie 4.0“ und wir wollen die sichere und schnelle Infrastruktur, die dafür nötig ist. Wir wollen Technologie vor allem fördern und nicht vor allem vor ihr bewahrt werden. Die Digitale Agenda hat ihre Zielsetzung beinahe ins Gegenteil verkehrt. Sie ist auch eine Globale Positionsbestimmung. Und die ist derzeit niederschmetternd.

 

 

Genial oder konfus: Dual-Use

Es gibt ja kaum noch einen runden Geburtstag, auf dem nicht Bilder aus den frühen Jahren des Jubilars gezeigt werden. Und womit werden sie gezeigt? Richtig: Mit PowerPoint, jenem aus der Ursoftware „Presenter“ entwickelten Office-Produkt, mit dem Microsoft gefühlte 90 Prozent der weltweiten Vortragsszene beherrscht vom Hörsaal bis zum Show-Room.

Jetzt könnte man einfach eine PowerPoint-Präsentation anhängen und den Jubilar Version für Version feiern. Denn Office ist 25 Jahre alt. Und Microsofts PR-Agentur feiert das angestaubte Thema Bürosoftware besonders „heftig!“. Ein ehrenwerter Versuch immerhin.

Aber die Zeiten sind zu ernst für entspanntes Schulterklopfen, das hat Microsofts CEO Satya Nadella auf der Bilanz-Telco mit Journalisten und Analysten deutlich gemacht. Und die Zahlen sagen es auch: In den letzten drei Monaten stieg der Umsatz zwar um 18 Prozent auf 23,4 Milliarden Dollar, der Nettogewinn fiel allerdings um sieben Prozent auf 4,6 Milliarden Dollar. Mehr Arbeit für weniger Lohn – das hört sich nicht gut an. Tatsächlich aber kann man das seit April im Konzernumsatz mitgeführte Nokia-Geschäft für diese Entwicklung verantwortlich machen. Zwar brachte die Nokia-Sparte zwei Milliarden Dollar Umsatz, drückte aber den Gewinn mit einem operativen Verlust von 692 Millionen Dollar.

Die Konsequenzen sind längst gezogen, die 18000 Kündigungsschreiben werden jetzt verschickt. Aber das beantwortet noch nicht die Frage, ob und wie Nokia künftig in die Microsoft-Landschaft passen wird. Dass „Hardware nicht um der Hardware willen“ produziert werden soll, so Nadella, fand spontan den Beifall der Analysten – und auch die Börse honorierte das angekündigte Gesundschrumpfen mit einem kräftigen „Like“. Seit Nadella Anfang Februar das Ruder übernommen hat, stieg Microsofts Aktienkurs um 20 Prozent. Also alles richtig, oder was?

Tatsächlich sind die großen Herausforderungen, die Microsoft meistern muss, nicht ausschließlich im Markt – sie liegen in den internen Strukturen, die Satya Nadella nun mit aller Kraft umzukrempeln scheint. Neue Produktverantwortung, flachere Hierarchien, mehr Eigeninitiative sollen die neue Kultur bringen. Und aus der neuen Kultur kommen künftig neue Produkte.

Zum Beispiel für Office, das ja als „365“ bereits pures Cloud-Computing unterstützt. Künftig sollen die Produktivitätswerkzeuge fürs Büro noch stärker als heute den doppelten Nutzen, den „Dual-Use“ aus Arbeits- und Privatleben berücksichtigen. Office soll noch stärker als heute für die sozialen Umgebungen ausgerichtet werden nach dem Motto: Sag mir, mit wem du zusammenarbeitest, und ich gebe dir, was du brauchst. Nadellas Vision ist aber nicht nur an Social Media angelehnt. Auch das Internet der Dinge steht Pate bei künftigen Microsoft-Entwicklungen: Analytischer, sozialer und mobiler sollen Microsofts Produkte künftig Daten von überall her auswerten und zu Strategien umsetzen können.

Und überall dort, wo Hardware in das Paradigma vom doppelten Nutzen hineinpasst, wird Microsoft auch eigene Hardware herstellen – bei ausgewählten Smartphones und Tablets. Eine Strategie der „Devices and Services“, wie sie Steve Ballmer vor Jahresfrist verkündet hat, ist das allerdings nicht. Das wurde und wird auch dadurch deutlich, dass Nadella nicht nur Software für das – künftig über alle Hardwarekategorien vereinheitlichte – Betriebssystem Windows offerieren wird, sondern auch Android und iOS unterstützt.

Denn egal, wer von welchem mobilen Gerät künftig Texte abfragt, Daten analysiert, Bilder speichert oder Geschäftsprozesse managt – als Verbindungsglied zur Umwelt sollen die Cloud-Services stehen und kräftig wachsen. Sie gehören in der aktuellen Microsoft-Bilanz bereits zu den klaren Spartensiegern. Doch Microsoft muss mehr erreichen als die Kannibalisierung der eigenen PC-Umsätze durch Cloud-Computing – auch wenn das der richtige erste Schritt ist. Es müssen neue Services hinzukommen, um den Datenregen aus der Wolke zu verdichten. Wenn das mit den neuen Produkten ab Windows 9 tatsächlich gelingt, hat Satya Nadella etwas erreicht, was Microsoft noch nie gelungen ist (und bisher auch noch nicht so richtig nötig hatte): sich völlig neu erfinden.

Dann wäre der Dual-Use alles andere als konfus, sondern einfach nur genial.