Make It Ten

Was ist schon groß dabei, wenn Microsoft entscheidet, seinem Windows-Betriebssystem der nächsten Generation nach der aktuellen Versionsnummer „8.1“ die glatte „10“ folgen zu lassen? Namen sind Schall und Rauch. Dass – so der offizielle Wortlaut aus Redmond – der Unterschied zum bestehenden Windows so tiefgreifend sei, dass ein einfaches Fortzählen nicht ausreiche, wollen wir gerne glauben. Ist ja auch eine gute Marketing-Aussage.

Glaubhaft ist aber auch, was der Alias „Cranbourne“ gepostet hat: „Windows9“ hätte demnach nie zu Debatte gestanden, weil Programme bei der Versionsabfrage des Betriebssystems nicht zweifelsfrei zwischen „Windows95“, „Windows98“ und Windows9“ hätten unterscheiden können.

Klingt jetzt aber auch wie ein Programmierbock der „Y2K“-Klasse. Immerhin scheint aber niemand damit zu rechnen, dass noch irgendwo eine Windows-Version „1.x“ im Einsatz ist…

Aber sei´s drum. Was drin ist (und rauskommt), ist entscheidend.

Und da ist vielleicht die Rückkehr des klassischen Startbildschirms ein Feature, mit dem hartnäckige Kachelhasser zurückgewonnen werden können. Da ist vielleicht die Verfügbarkeit von Apps aus dem Windows Store auch auf dem Desktop ein Feature, mit dem notorische Mobile-User auch an den Desktop zurückgeführt werden können. Da ist aber vor allem die dreistufige Update-Politik eine Methode, sowohl Privatkunden als auch Firmenkunden eng an Microsoft zu binden.

Seit knapp zehn Jahren denkt Microsoft intensiv darüber nach, wie sich die Deployment-Kosten in großen Organisationen so verringern lassen, dass Neuerungen möglichst zeitnah eingeführt werden können. Einer der größten Verhinderungsgründe für die Einführung von Microsoft Vista beispielsweise waren die erheblichen Kosten, die beim Umstieg von Windows95 und Windows98 (siehe oben) auf die IT-Organisation zukamen. Für einen vernünftigen Return-on-Invest waren die Effektivitätsgewinne einfach nicht groß genug. Also warteten (praktisch) alle auf Windows7.

Aber im mobilen und Cloud-basierten Business besteht ja einer der Vorteile darin, Updates jederzeit und möglichst aufwandfrei an den Endkunden zu bringen. Das stimmt uneingeschränkt für den privaten Verbraucher. In Organisationen aber folgt nach jedem Update eine Evaluierung, wenn nicht sogar Validierung – und hier lassen sich die gewohnten wöchentlichen Updates kaum seriös durchhalten.

Apple beispielsweise stellt allenfalls einmal im Jahr (oder zur Nachbesserung zweimal) ein neues iOS ins Netz. Aber Apple hat auch weniger mit Firmenkunden zu tun. Auch Google schaut stärker auf den Endverbraucher als auf das Enterprise.

Deshalb soll es bei Windows10 die Kraft der drei Geschwindigkeiten geben: Jederzeit sofort, teilweise nach Wahl, regelmäßig aber mäßig. Die Wahl der richtigen Geschwindigkeit ist nicht nur eine technische Herausforderung. Sie ist auch eine marketingtechnische Chance, weil Anbieter wie Microsoft, Apple und Google ihre Kunden durch sorgfältige Update-Politik in der Cloud bei der Stange und den Wettbewerb auf Distanz halten können.

Wenn auch Microsoft lange gebraucht hat – mit Windows10 scheint das Niveau erreicht zu werden, mit dem mobile und stationäre Anwender, OnPremise-Installationen und Cloud-Umgebungen gleichermaßen eng geführt und im richtigen Zeittakt bedient werden können. Microsoft hat erkannt, dass Windows das Trojanische Pferd ist, mit dem Anwender für die Cloud gewonnen werden können.

Denn ein Betriebssystem, das vom Smartphone über den Desktop bis zur Platform-as-a-Service alles unterstützt, ist selbst ein Marktplatz für die Anwendungen. Deshalb spielen Microsoft, Apple und Google in einer Liga.

IBM wird der bei OS/2 vermasselten Marktchance, Hewlett-Packard wird dem vernachlässigten Engagement bei HP-UX nachweinen. Beide haben heute keine direkte über ein eigenes Betriebssystem gesteuerte Beeinflussungsmöglichkeit für einen Markt, der vom Smartphone bis zum Rechenzentrum reicht.

Beide zielen deshalb auf eine andere Strategie – IBM seit rund einem Jahr, Hewlett-Packard seit dieser Woche. Sie suchen ihr Heil im Softwareservice. Geübt, komplexe Installationen zu managen, setzen sie darauf, dass der am stärksten boomende Cloud-Markt, Platform-as-a-Service, ihr Kerngeschäft sein wird. Dort, wo leistungsfähige Entwicklungsumgebungen die Voraussetzung dafür schaffen, dass bestehende Großanwendungen auch in der (privaten) Cloud einsatzfähig bleiben und zu günstigeren Konditionen betrieben werden, suchen beide Oldtimer der IT ihr Glück.

Die Chancen stehen aber nicht schlecht, dass der Markt vom Enduser-Betriebssystem aufgerollt wird. Und da zielt Microsoft jetzt voll auf die Zehn.

Globale Positionsbestimmung

Die Wirklichkeit erweist sich ja immer wieder als Regiekönig, wenn es darum geht, Tragödien und Komödien die treffsichere Pointe aufzusetzen. Nach einer Woche Generaldebatte – oder sollten wir sagen: Generalabrechnung mit der Digitalen Agenda, meldet Arianespace, dass der fünfte und sechste für das Globale System zur Positionsbestimmung, Galileo, ins All geschossene Satellit die Zielumlaufbahn um schlappe 6000 Kilometer verpasst hat. Ob es sich nun um einen derben Rechenfehler gehandelt haben mag oder um einen Defekt in der russischen (!) Trägerrakete Sojus, bleibt noch abzuwarten. Nebenbei gefragt: Warum eigentlich Sojus und nicht die mit europäischem Steuergeld entwickelte Ariane 5? Eins aber hat das ohnehin um sechs Jahre verspätete und um das Dreifache (mindestens) verteuerte System, das uns unabhängig vom amerikanischen GPS machen soll, schon jetzt erreicht: eine wahrhaft beschämende Globale Positionsbestimmung Europäischer Großtechnik: allenfalls unterer Durchschnitt!

In diese Einstufung hatten sich auch schon zuvor die drei für die Digitale Agenda zuständigen deutschen Bundesminister für Inneres, Wirtschaft und Infrastruktur eingereiht. Zwei große Themen sollen bis nach der nächsten Bundestagswahl nun aber wirklich, wirklich endlich einmal angegangenen werden: der flächendeckende Breitbandausbau und die verbesserte IT-Sicherheit.

Mit welchen Mitteln und vor allem aus welchen Mitteln – diese Frage bleibt vorerst unbeantwortet. Statt eine Vision zu vermitteln warnte das ministerielle Dreigestirn vor einer Dystopie, einer negativen Utopie: vom Daten-Tsunami sprach der eine, von einer Anschnallpflicht auf der Datenautobahn der andere. Der Duktus klang eher so, als müsse man den deutschen Internet-Michel vor Gefahren bewahren. Dass die Digitale Agenda (und ihre Verwirklichung oder Nicht-Verwirklichung) die Geschäftsprozesse der deutschen und europäischen Wirtschaft nachhaltiger beeinflussen wird als – sagen wir mal: der Mindestlohn oder die Rente mit 63 klang nicht an.

Denn tatsächlich arbeiten wir doch mit dem Konzept „Industrie 4.0“ ganz erheblich daran, zu einem Daten-Tsunami beizutragen. Es handelt sich nicht um eine Gefahr von außen, die eingedämmt gehört, sondern um eine Geschäftschance von innen heraus, der breiterer Raum gelassen werden sollte. Natürlich auch mit hoher Übertragungsrate von 50plus. Aber das ist doch keine Agenda für den Wirtschaftsstandort Deutschland im Jahr 2018, wenn andere Länder bereits „freie Datenfahrt für freie Bürger“ bei Tempo 100 flächendeckend anpeilen!

Auch das IT-Sicherheitsgesetz klingt eher nach Verordnungsbetrieb, als nach wirtschaftlicher und technologischer Aufholjagd. Dabei wären die Argumente für eine Europäische Cloud im „sicheren Hafen“ nie besser als heute. Daraus ließe sich Industrie-Politik der ersten Güte bereiten, wenn Anreize für europäische oder zumindest deutsche IT-Provider geschaffen würden, eine auf Schnelligkeit und Sicherheit ausgerichtete Cloud-Infrastruktur von Weltformat zu schaffen. Die Welt zu Gast auf europäischen Datenservern – das wäre eine Vision.

China hat diese Visionen nicht nur, sondern setzt sie auch konsequent um. Für Oktober wird die unter dem Arbeitstitel COS (China-Betriebssystem) gehandelte Systemsoftware für klassische Computer und ab Frühjahr 2015 für Smartphones erwartet. Es verbandelt – ähnlich wie die USA – nationale Interessen mit technologischen Entwicklungen. Das Ziel ist klar: Google mit Android, Apple mit iOS und Microsoft mit Windows 9 sollen aus dem Milliardenmarkt China ausgesperrt werden.

Europa verfolgt keine protektionistische Abschottungspolitik. Das hat unsere freie Wirtschaft gar nicht nötig. Aber es geht auch nicht darum, die Europäische Datenschutzrichtlinie auf amerikanischen Servern zu etablieren. Es geht darum, aus Europäischen Standards internationale Wettbewerbsvorteile zu generieren. Stattdessen auf Visionen zu verzichten oder bestehende Perspektiven zu verdaddeln, wie man das am Beispiel Galileo miterleben und miterleiden muss, ist keinesfalls in Ordnung. Im Gegenteil: es ist fahrlässig.

Wir wollen „Industrie 4.0“ und wir wollen die sichere und schnelle Infrastruktur, die dafür nötig ist. Wir wollen Technologie vor allem fördern und nicht vor allem vor ihr bewahrt werden. Die Digitale Agenda hat ihre Zielsetzung beinahe ins Gegenteil verkehrt. Sie ist auch eine Globale Positionsbestimmung. Und die ist derzeit niederschmetternd.

 

 

Immer noch ein Ass im Air-Mail

Wie das so ist mit Jubiläen. Die Feierlichkeiten anlässlich der ersten E-Mail in Deutschland vor 30 Jahren, übergehen die Tatsache, dass vorher schon solche elektronischen Briefe von Deutschen an deutschen Bildschirmen gelesen wurden. Vor dreißig Jahren allerdings landete die Willkommens-Nachricht zum ersten Mal auf einem Server, der auf deutschem Boden – und zwar in Karlsruhe – stand.

Das hatte damals vor allem anwendungstechnische Auswirkungen. Kürzere Antwortzeiten, eigene Domains, mehr Teilnehmer. Heute freilich überwiegen die juristischen Konsequenzen.

Und schon sind wir schön im Thema rund um die aktuelle Rechtsprechung. Da hat ein New Yorker Bezirksgericht nun die Notwendigkeit unterstrichen, Mail-Daten, die auf einem Server im irischen Dublin liegen, an die US-Ermittlungsbehörden auszuliefern. Beim Datenzugriff, so argumentierte die zuständige Richterin, gehe es nämlich nicht um den Standort der Daten, sondern um den Standort des Unternehmens, das die Kontrolle über diese Daten hat. Und das ist – abgesehen vom Besitzer der Daten – der Service-Provider: in diesem Fall Microsoft.

Microsoft hat sofort Revision angekündigt und damit zumindest bewirkt, dass das Urteil vorerst ausgesetzt wird. Doch wie das nun angerufene Kassationsgericht entscheiden wird, steht durchaus in den Sternen.

Aber das Sternendeuten kann schon beginnen. Angenommen, auch im Court of Appeal wird der Vorstellung Recht gegeben, dass es auf den Hauptsitz des die Daten speichernden Unternehmens ankommt und nicht auf den Standort des Rechenzentrums, das vom Cloud-Anbieter betrieben wird, dürfte nichts und niemand mehr vor dem Zugriff durch Regierungsbehörden sicher sein. Schon jetzt ist abzusehen, dass Großbritannien eine vergleichbare Rechtsauffassung in der Sache hat. Und weitere Länder könnten folgen…

Und es wäre auch nur noch ein kleiner Schritt vom Abruf der Verbindungsdaten bei Ermittlungen in der Drogenszene (wie im aktuellen Fall) bis zur Durchsetzung eines organisierten Abrufs von Unternehmensdaten zum Beispiel bei Banken. Ach nein – das berühmte bombensichere Schweizer Bankgeheimnis haben US-amerikanische Behörden ja bereits vor zwei Jahren erfolgreich geknackt – mit nachträglicher Genehmigung durch den Schweizer Bundesrat.

Und es wäre auch nur noch ein kleiner Schritt zur Ausspähung von Unternehmensdaten missliebiger Wettbewerber – ein juristisch verwertbarer Anfangsverdacht sollte sich doch immer finden lassen. Schließlich verbirgt sich ja hinter jedem großen Unternehmen ein kleines Verbrechen, wie man so sagt…

Auch wenn wir heute, im Jahr 2 nach Snowden, voller Misstrauen in die USA schauen – die Sorge, eine solche Rechtsauffassung würde, sollte sie bestehen bleiben, vor allem US-amerikanische Cloud-Anbieter treffen, ist geradezu naiv. Es träfe auch die Anbieter in anderen Ländern, die dieser Rechtsauffassung folgen.

Vor allem aber trifft es die Anwender, die gerade erst wieder Vertrauen ins Cloud-Computing entwickeln. So sinnvoll Cloud Computing aus technischer und wirtschaftlicher Sicht ist – es besteht die Gefahr, dass dieses Konzept längst unter die Trenchcoats der Wirtschaftsspione gerutscht ist. Es gibt eine „Achse der Neugier“, die alles daran setzen wird, die technologischen und juristischen Möglichkeiten zu nutzen.

Und schließlich sind es alle privaten Verbraucher, deren Smartphones ohne Cloud-Services weniger Nutzwert hätten, die unter dem länderübergreifenden Datenzugriff zu leiden hätten. Sie müssen sich künftig doppelt und dreifach überlegen, ob die Navigations-App Bewegungsdaten speichern darf, ob Kontakte zu Freunden gesichert werden oder wo sie ihre Bilder ablegen.

Der Wettlauf wird weiter gehen: für jedes Ass im Ärmel der Techniker findet sich offensichtlich auch eines im Ärmel der Juristenroben.

Genial oder konfus: Dual-Use

Es gibt ja kaum noch einen runden Geburtstag, auf dem nicht Bilder aus den frühen Jahren des Jubilars gezeigt werden. Und womit werden sie gezeigt? Richtig: Mit PowerPoint, jenem aus der Ursoftware „Presenter“ entwickelten Office-Produkt, mit dem Microsoft gefühlte 90 Prozent der weltweiten Vortragsszene beherrscht vom Hörsaal bis zum Show-Room.

Jetzt könnte man einfach eine PowerPoint-Präsentation anhängen und den Jubilar Version für Version feiern. Denn Office ist 25 Jahre alt. Und Microsofts PR-Agentur feiert das angestaubte Thema Bürosoftware besonders „heftig!“. Ein ehrenwerter Versuch immerhin.

Aber die Zeiten sind zu ernst für entspanntes Schulterklopfen, das hat Microsofts CEO Satya Nadella auf der Bilanz-Telco mit Journalisten und Analysten deutlich gemacht. Und die Zahlen sagen es auch: In den letzten drei Monaten stieg der Umsatz zwar um 18 Prozent auf 23,4 Milliarden Dollar, der Nettogewinn fiel allerdings um sieben Prozent auf 4,6 Milliarden Dollar. Mehr Arbeit für weniger Lohn – das hört sich nicht gut an. Tatsächlich aber kann man das seit April im Konzernumsatz mitgeführte Nokia-Geschäft für diese Entwicklung verantwortlich machen. Zwar brachte die Nokia-Sparte zwei Milliarden Dollar Umsatz, drückte aber den Gewinn mit einem operativen Verlust von 692 Millionen Dollar.

Die Konsequenzen sind längst gezogen, die 18000 Kündigungsschreiben werden jetzt verschickt. Aber das beantwortet noch nicht die Frage, ob und wie Nokia künftig in die Microsoft-Landschaft passen wird. Dass „Hardware nicht um der Hardware willen“ produziert werden soll, so Nadella, fand spontan den Beifall der Analysten – und auch die Börse honorierte das angekündigte Gesundschrumpfen mit einem kräftigen „Like“. Seit Nadella Anfang Februar das Ruder übernommen hat, stieg Microsofts Aktienkurs um 20 Prozent. Also alles richtig, oder was?

Tatsächlich sind die großen Herausforderungen, die Microsoft meistern muss, nicht ausschließlich im Markt – sie liegen in den internen Strukturen, die Satya Nadella nun mit aller Kraft umzukrempeln scheint. Neue Produktverantwortung, flachere Hierarchien, mehr Eigeninitiative sollen die neue Kultur bringen. Und aus der neuen Kultur kommen künftig neue Produkte.

Zum Beispiel für Office, das ja als „365“ bereits pures Cloud-Computing unterstützt. Künftig sollen die Produktivitätswerkzeuge fürs Büro noch stärker als heute den doppelten Nutzen, den „Dual-Use“ aus Arbeits- und Privatleben berücksichtigen. Office soll noch stärker als heute für die sozialen Umgebungen ausgerichtet werden nach dem Motto: Sag mir, mit wem du zusammenarbeitest, und ich gebe dir, was du brauchst. Nadellas Vision ist aber nicht nur an Social Media angelehnt. Auch das Internet der Dinge steht Pate bei künftigen Microsoft-Entwicklungen: Analytischer, sozialer und mobiler sollen Microsofts Produkte künftig Daten von überall her auswerten und zu Strategien umsetzen können.

Und überall dort, wo Hardware in das Paradigma vom doppelten Nutzen hineinpasst, wird Microsoft auch eigene Hardware herstellen – bei ausgewählten Smartphones und Tablets. Eine Strategie der „Devices and Services“, wie sie Steve Ballmer vor Jahresfrist verkündet hat, ist das allerdings nicht. Das wurde und wird auch dadurch deutlich, dass Nadella nicht nur Software für das – künftig über alle Hardwarekategorien vereinheitlichte – Betriebssystem Windows offerieren wird, sondern auch Android und iOS unterstützt.

Denn egal, wer von welchem mobilen Gerät künftig Texte abfragt, Daten analysiert, Bilder speichert oder Geschäftsprozesse managt – als Verbindungsglied zur Umwelt sollen die Cloud-Services stehen und kräftig wachsen. Sie gehören in der aktuellen Microsoft-Bilanz bereits zu den klaren Spartensiegern. Doch Microsoft muss mehr erreichen als die Kannibalisierung der eigenen PC-Umsätze durch Cloud-Computing – auch wenn das der richtige erste Schritt ist. Es müssen neue Services hinzukommen, um den Datenregen aus der Wolke zu verdichten. Wenn das mit den neuen Produkten ab Windows 9 tatsächlich gelingt, hat Satya Nadella etwas erreicht, was Microsoft noch nie gelungen ist (und bisher auch noch nicht so richtig nötig hatte): sich völlig neu erfinden.

Dann wäre der Dual-Use alles andere als konfus, sondern einfach nur genial.