Azure ist das neue Windows

Die Cloud-Plattform Azure ist der am schnellsten wachsende Produktbereich bei Microsoft. Das gilt nicht nur für den Umsatz und – erfreulicherweise für die Redmonder – auch für den Gewinn. Es gilt vor allem für die Innovationskraft. In keinem Segment kommen so schnell und so kontinuierlich neue Features auf den Markt – nicht zuletzt in den systemrelevanten Bereichen Sicherheit und künstliche Intelligenz.

Allein auf der Großkonferenz für das Microsoft Ökosystem vergangenen Monat – auf der Ignite 2018 in Orlando – wurden 70 Produkte und Features für die Azure Plattform angekündigt oder erweitert. Und mit der verbesserten Version von Azure Machine Learning will Microsoft vor allem im Bereich künstliche Intelligenz den Vorsprung gegenüber anderen Anbietern ausbauen – oder ihnen zumindest einen harten Wettbewerb liefern. Dabei nutzt es freilich, dass mit „Ideas“ KI-Features gleich für die gesamte Office 365 Gemeinde verfügbar sind. So schnell kann kaum ein anderer Software-Hersteller seine Innovationen im gesamten Ökosystem ausrollen.

Allein Windows macht im mobilen Geschäft nur wenig Freude. Grund genug für Satya Nadella einen völlig anderen und vor allem pragmatischeren Weg zu wählen. Wenn es nicht gelingt, mit Windows mobile gegenüber den marktdominierenden Betriebssystemen Android und iOS aufzuholen, warum dann nicht aus einem der beiden das Betriebssystem der Wahl für Microsoft machen? Die Musik spielt eh längst auf der Azure-Plattform, während die Bedeutung von Windows – zumindest im mobilen Bereich – zurückgeht. Wenn sie dort überhaupt jemals bestand.

Denn wenn Azure das neue Windows ist, dann kann Android auch ruhig das neue Windows mobile sein. Und genau das deutet sich jetzt an: Denn kommende Features in Windows 10 lassen ahnen, wohin die Reise geht. „App Mirroring“ – also die Möglichkeit, Apps unter Windows zu starten, die nicht über Windows verfügbar sind – soll künftig eine Verzahnung zwischen beiden Betriebssystemen bringen, indem auch der Android-Home-Screen gespiegelt wird. Mit einem eigenen Launcher, so sagen die Gerüchte, sollen die Apps dann von Windows aus gestartet werden können.

Das Feature ist zwar nicht unbedingt neu – auch andere Anbieter haben solche Launcher schon für Apps auf Fremdbetriebssystemen. Aber bemerkenswert ist es dennoch, dass Microsoft schon seit langem die Aktivitäten in Richtung Android immer weiter forciert. So ist auch umgekehrt Office längst auf Android verfügbar, während es deutlich komplizierter ist, das gleiche auch auf der Apple-Seite unter iOS zu verwirklichen.

Aber die Mühe lohnt sich. Android ist das mit großem Abstand am weitesten verbreitete Mobil-Betriebssystem, das zugleich auch noch die attraktivsten Wachstumsraten genießt. Nichts liegt also für Microsoft, das auf der Cloud-Seite vor allem gegen die derzeitige Marktführerschaft von Amazon Web Services ankämpft, näher, als sich auf dem ohnehin verlorenen Terrain im Mobil-Bereich eine Atempause zu verschaffen. Denn die Weltherrschaft wird schon lange nicht mehr auf dem Desktop und wohl auch nicht mehr auf dem Smartphone entschieden, sondern in der Cloud.

Deswegen soll Azure wiederholen, was vor Jahrzehnten mit Windows gelungen ist: globale Dominanz für Microsoft erreichen und absichern. Deshalb ist Azure das neue Windows und fließen nicht nur die Entwicklungsanstrengungen in diese Cloud-Plattform. Auch gut situierte Produkte wie Windows Server migrieren allmählich von On-Premises in die Cloud. Dort sind alle Optionen auf grün: Skalierbarkeit, globale Erreichbarkeit, Security- und Performance-Management und nicht zuletzt das Tempo, mit dem neue Produkte deployed werden.

In der Tat: Azure ist das neue Windows.

 

 

 

Irgendwas mit Cloud

 

Kann man sich noch vorstellen, dass die Studienberatungsstellen Ende des vergangenen Jahrtausends einmal davon abgeraten haben, Informatik zu studieren, weil das Angebot an Studienabgängern in absehbarer Zeit die Nachfrage übersteigen werde. Gut, dass viele Studierende damals auf die anderen MINT-Fächer – also Mathematik, Naturwissenschaften und Technik – ausgewichen sind oder wenigstens Wirtschaftsinformatik belegt haben. Wer das nicht tat, machte „Irgendwas mit Marketing“ oder „Irgendwas mit Medien“.

Anfang des neuen Jahrtausends sah die Welt dann ganz anders aus als in den Prognosen vorhergesagt. Das Y2K-Problem fegte den IT-Arbeitsmarkt leer. Der Hightech-Verband Bitkom identifizierte 30.000 offene Stellen im IT-Sektor, plädierte für die Green Card für gut ausgebildete Ausländer – und SAP sowie andere IT-Konzerne rekrutierten massenhaft Physiker, Chemiker und andere Absolventen analytisch geprägter Studiengänge, um sie als Programmierer, Systemanalytiker oder Berater umzuschulen. Andere – wie etwa Microsoft – setzten globale Schulungsmaßnahmen auf, um ihr Ökosystem fit für die Dezentralisierung der IT zu machen: Netzwerk-Administratoren, Helpdesk-Mitarbeiter und System-Engineers halten seitdem die IT am Laufen.

Inzwischen identifiziert der Bitkom allein in Deutschland ein Defizit von 55.000 IT-Fachkräften. Es würde freilich ohne die Schulungsmaßnahmen der IT-Anbieter noch schlimmer aussehen. Und immer noch bosseln wir an einem Einwanderungsgesetz herum, das uns den nötigen Skill ins Land bringt. Immer noch hängt unser Bildungssystem technologisch hinterher. Und bei einem Rekordtief der Arbeitslosenzahl mit 2,25 Millionen haben wir branchenübergreifend aktuell 834.000 offene Stellen.

Da ist es kein Wunder, dass IBM, SAP oder Microsoft das Bildungsdefizit selbst in die Hand nehmen. Der jüngste Vorstoß kommt mit der Microsoft Learn Platform jetzt aus Redmond. Der Clou dabei ist, dass damit nicht einfach nur eine weitere Zertifizierungsoffensive gestartet wird, sondern neue Cloud-orientierte Wissensgebiete mit bislang noch wenig verbreiteten Lernmethoden eröffnet werden. Microlearning und Gamification heißen dabei die Zauberworte, mit denen lebenslanges Lernen attraktiver und vor allem effektiver gestaltet werden soll.

Microsoft kommt damit auch einer veränderten Technologiewelt nach. Während früher mitunter Jahre zwischen der Ankündigung eines Produkts wie beispielsweise Windows Server und seiner tatsächlichen Markteinführung vergingen, liefern Cloud-Infrastrukturen heute Neuerungen im Wochentakt. Damit muss auch der Skill-Aufbau schneller erfolgen als in den guten alten PC-Zeiten. Doch wie damals, als der Personal Computer zugleich Gegenstand und Werkzeug des Lernens war, ist es heute die Cloud, die sich selbst ihre Kompetenzen schafft.

Die Microsoft Learn Platform wurde jetzt auf der Ignite in Orlando vorgestellt und dürfte erst der Anfang sein im Wettbewerb der Ökosysteme. Denn nach internen Analysen beklagen vor allem die großen IT-Anbieter, dass die technische Entwicklung inzwischen schneller voranschreitet als der Skill-Aufbau. Doch ohne ausgebildetes Personal können die Marktchancen, die sich gegenwärtig im Cloud Computing, im Internet of Things oder rund um die künstliche Intelligenz bieten, gar nicht genutzt werden. Microsoft Learn soll dieses Tempodefizit ausgleichen und neue Jobprofile ausprägen, die „irgendwas mit Cloud“ zu tun haben. Cloud Administrator, Cloud Developer, Cloud Solutions Architect heißen die neuen Fertigkeiten, mit denen die Herausforderungen des Cloud Computings gemeistert werden sollen wie Virtualisierung, Sicherheit, Datenmanagement oder Ressourcenmanagement. Hinzu kommen all die bislang unbekannten Jobs, derer es für die Gestaltung von KI-Systemen bedarf, um Machine Learning und Big Data Analytics voranzutreiben.

Es ist der alte, sich immer wieder bestätigende Wettlauf zwischen Mensch und Maschine. Je mehr die Maschinen können, umso mehr müssen auch die Menschen können. Technologie ist kein Jobvernichter, sondern ein Jobcreator. – Nur, dass die neuen Jobs kaum noch Ähnlichkeit mit den alten haben. Es wird lange dauern, ehe die Studienberater davon abraten werden, „Irgendwas mit Cloud“ zu studieren.

Die Zukunft wird kommen – für alle

„Ich beschäftige mich sehr mit der Zukunft“, soll der Erfinder Charles Kettering einst gesagt haben, „denn ich denke, den Rest meines Lebens mit ihr zu verbringen.“ Eine bessere Begründung für Zukunftsforschung gibt es nicht – abgesehen von purer Neugierde darauf, was denn da so technisch und gesellschaftlich auf uns zukommt. Kein Wunder also, dass der Hype Cycle der wichtigsten Zukunftstechnologien, den die Gartner Group regelmäßig aktualisiert, immer wieder für Spannung sorgt. Und es ist immer wieder faszinierend, mit welchen Wortschöpfungen die Auguren dabei um die Ecke kommen…

Denn ohne die aktuellen Buzzwords wie „transparently immersive experience“ wären die Technologieprognosen weniger spektakulär: die meisten Megatrends wie künstliche Intelligenz, digitale Ökosysteme, Biohacking und allgegenwärtige Infrastruktur sind ohnehin schon kaum zu übersehen. Doch die Gartner-Leute verstehen es, auch dem allzu Bekannten noch ein Quäntchen Utopie einzuhauchen…

Demokratisierte künstliche Intelligenz. Die Urheberrechte für den Begriff dürfte wohl Microsofts CEO Satya Nadella für sich beanspruchen, der seit drei Jahren erst die Demokratisierung von Cloud Services und dann von KI-Funktionen mit Hilfe von Intelligent Edge / Intelligent Cloud propagiert. Gemeint ist der Zugriff auf KI-Funktionen über allgegenwärtige Cloud-Infrastrukturen, wie wir das heute bereits bei Sprachassistenten gewohnt sind. Künftig wird KI zu mehr Autonomie bei Maschinen aller Art führen – vom selbstfahrenden Auto bis zur autonom entscheidenden Kampfdrohne.

Allgegenwärtige Infrastruktur. Die Weiterentwicklung der Cloud durch 5G-Technologien, Quantencomputer und superschnelle neuronale Netze mit unzähligen Maschinen als „User“ im Internet der Dinge wird uns eine Infrastruktur bescheren, die immer und überall verfügbar ist. Dabei wird die Blockchain-Technologie das Internet, wie wir es heute kennen, völlig umkrempeln – und vielleicht sicherer machen.

Transparent immersive Erfahrungen. Der Begriff ist nahezu unübersetzbar und lässt sich vielleicht am besten mit „Fürsorgliche Belagerung“ umschreiben. Gemeint ist, dass sich Maschinen um uns immer stärker unserem Empfindungsvermögen anpassen und sich auf die Art und Weise, wie wir zu kommunizieren und zu arbeiten wünschen, einstellen. 4D-Druck ist ein Bestandteil, also additive Fertigungsverfahren, in denen nicht nur dreidimensionale Werkstücke entstehen, sondern auch mit einem „Formengedächtnis“ ausgestattet werden, so dass sie unter Umwelteinflüssen wie Wasser ihre Gestalt ändern. Schwärme aus intelligenten Nanoteilchen, die uns bei unserer Arbeit zur Seite stehen, und KI-Services, die wegen der kürzeren Latenzzeiten wieder an den Rand (Edge) des allgegenwärtigen Cloud-Netzwerks wandern, werden uns in jeder Lebenslage begleiten.

Do It Yourself-Biohacking. Wem das nicht genügt, wird seinen Körper durch Technologie optimieren – etwa durch subkutan angebrachte Microchips zur Identifizierung oder zur Aufzeichnung von Körperfunktionen. Digitale Sensorerweiterungen für unsere Sinne sind dann ebenso selbstverständlich wie Muskelkraftverstärker und – ja, warum nicht? – Speichererweiterungen.

Digitale Ökosysteme. Und deshalb werden wir uns auf neue Geschäftsmodelle einstellen müssen, in denen nicht der einzelne Anbieter, sondern das Ökosystem aus Anbietern, Anwendern, Zulieferern und Veredlern gemeinsam erfolgreich ist. Die Sharing Economy ist ein frühes Beispiel dieses Phänomens, bei der der Betreiber des Ökosystems nicht mehr notwendigerweise auch der Hersteller des Produkts ist, sondern nur noch ein virtueller Marktplatzanbieter, der für die nötige Aufmerksamkeit zu sorgen hat. Und die Nutzer werden durch die Datenwährung, mit der sie bezahlen, zu den eigentlichen Veredlern des Produkts.

Jahr für Jahr werden die Gartner-Prognosen komplexer. Inzwischen führt nicht mehr einfach nur eine singuläre Technologie – wie es der Personal Computer war – zu einer Revolution. Es ist das Zusammenspiel zahlloser Strömungen, Infrastrukturen und Massenbewegungen, die die neuen Technologietrends orchestrieren. Die Erde wird zu einem gigantischen Computer mit Sextillionen IP-Adressen, in dem es nur so brummt. Nur auf dem Mond landen, Wohlstand gerecht verteilen oder unser Klima in den Griff bekommen, das schaffen wir immer noch nicht. Vielleicht benötigen wir als sechsten Trend eine globale Neufokussierung auf die wirklich überlebenswichtigen Dinge. Denn: Wir werden den Rest unseres Lebens in der Zukunft verbringen, die wir heute gestalten.

Kein deutscher Weg

Wenn es um Standards geht, ist es vernünftig, eine globale Einigung zu finden. Weder politische, noch technologische Alleingänge haben auf lange Sicht Erfolg. Das zu akzeptieren fällt insbesondere dann schwer, wenn man überzeugt ist, dass der eigene Standard der überlegene ist. Doch weder bei der Videoaufzeichnung, noch bei Audioaufnahmen oder Telekommunikationsprotokollen haben sich notwendigerweise die überlegenen Technologien durchgesetzt, sondern die, mit der Aussicht auf den breitesten Konsens. Selbst die Eisenbahnen, die lange Zeit national geprägt waren und Standards ganz bewusst zur gegenseitigen Abschottung eingesetzt haben, schwenken inzwischen mühsam auf global gültige Geltungsregeln ein.

Selbst Sicherheit, von der man meinen sollte, sie sei unverhandelbar, unterliegt offensichtlich diesem Fundamentalgesetz der globalen Gleichheit, wie sich jetzt an der „Deutschen Cloud“ zeigt. Vor drei Jahren hatten Microsoft Deutschland und die Deutsche Telekom in einer Art Treuhänderschaft zwei Cloud-Rechenzentren errichtet, die dem überlegenen deutschen Datenschutz Rechnung trugen und zugleich vor dem überbordenden Datenhunger US-amerikanischer Nachrichtendienste und Ermittlungsbehörden schützen sollte. Denn vor drei Jahren war die Rechtsprechung derart, dass ein transatlantisches Unternehmen die Wahl hatte, entweder gegen europäisches oder gegen US-amerikanisches Recht zu verstoßen.

Jetzt hat Microsoft angekündigt, die Microsoft Cloud Deutschland für neue Kunden nicht mehr anzubieten. Stattdessen werden hierzulande zwei neue Cloud-Rechenzentren errichtet, die bis 2020 zunächst Azure, dann Office 365 und schließlich die ERP-Suite Dynamics 365 in einer Public Cloud zur Verfügung stellen. Kunden der Deutschen Cloud können die Services weiter nutzen, erhalten aber keine zusätzlichen Features mehr. Die Deutsche Telekom will angeblich ihrerseits an der Deutschen Cloud festhalten.

Grundsätzlich hat sich die Rechtssituation seit 2015 nicht geändert – nach wie vor könnten US-Behörden Zugriff auf in Deutschland gespeicherte personenbezogene Daten verlangen, wenn der Betreiber der Cloud seinen Hauptsitz in den Vereinigten Staaten hat und damit auch im Ausland US-amerikanischer Rechtsauffassung unterliegt. Geändert hat sich die Lage allerdings insofern, als mit der Datenschutz Grundverordnung (DSGVO) ein inzwischen europaweit gültiger Standard zum Umgang mit personenbezogenen Daten besteht und andererseits die Cloud-Anbieter ihre internen Qualitätsansprüche soweit angehoben haben, dass das Datenschutz-Delta zur Deutschen Cloud immer kleiner geworden ist.

Jetzt hat der Markt entschieden. Durchschnittlich rund 18 Prozent höhere Kosten in der Deutschen Cloud und deutlich geringere Flexibilität haben dazu geführt, dass das nationale Angebot nie eine breite Anwenderschaft gefunden hat. Die neuen Microsoft-Rechenzentren werden dem globalen Qualitätsrahmen der Microsoft-Trusted-Cloud-Grundsätze und Compliance-Zertifikaten und -Testaten für komplexe Sicherheits- und Datenschutzanforderungen folgen. Darüber hinaus sollen die Rechenzentren künftig nach dem C5-Anforderungskatalog (Cloud Computing Compliance Controls Catalogue) ausgelegt werden.

Microsoft hat mit der Deutschen Cloud zusammen mit der Deutschen Telekom Maßstäbe gesetzt. Der Markt aber hat anders entschieden und ist mit weniger zufrieden. Einen deutschen Weg wird es nicht geben. Die Deutsche Cloud geht den Weg aller nationalen Standards. Sie unterliegen gegenüber der Globalisierung auch dann, wenn sie eigentlich besser sind.