Irgendwas mit Cloud

 

Kann man sich noch vorstellen, dass die Studienberatungsstellen Ende des vergangenen Jahrtausends einmal davon abgeraten haben, Informatik zu studieren, weil das Angebot an Studienabgängern in absehbarer Zeit die Nachfrage übersteigen werde. Gut, dass viele Studierende damals auf die anderen MINT-Fächer – also Mathematik, Naturwissenschaften und Technik – ausgewichen sind oder wenigstens Wirtschaftsinformatik belegt haben. Wer das nicht tat, machte „Irgendwas mit Marketing“ oder „Irgendwas mit Medien“.

Anfang des neuen Jahrtausends sah die Welt dann ganz anders aus als in den Prognosen vorhergesagt. Das Y2K-Problem fegte den IT-Arbeitsmarkt leer. Der Hightech-Verband Bitkom identifizierte 30.000 offene Stellen im IT-Sektor, plädierte für die Green Card für gut ausgebildete Ausländer – und SAP sowie andere IT-Konzerne rekrutierten massenhaft Physiker, Chemiker und andere Absolventen analytisch geprägter Studiengänge, um sie als Programmierer, Systemanalytiker oder Berater umzuschulen. Andere – wie etwa Microsoft – setzten globale Schulungsmaßnahmen auf, um ihr Ökosystem fit für die Dezentralisierung der IT zu machen: Netzwerk-Administratoren, Helpdesk-Mitarbeiter und System-Engineers halten seitdem die IT am Laufen.

Inzwischen identifiziert der Bitkom allein in Deutschland ein Defizit von 55.000 IT-Fachkräften. Es würde freilich ohne die Schulungsmaßnahmen der IT-Anbieter noch schlimmer aussehen. Und immer noch bosseln wir an einem Einwanderungsgesetz herum, das uns den nötigen Skill ins Land bringt. Immer noch hängt unser Bildungssystem technologisch hinterher. Und bei einem Rekordtief der Arbeitslosenzahl mit 2,25 Millionen haben wir branchenübergreifend aktuell 834.000 offene Stellen.

Da ist es kein Wunder, dass IBM, SAP oder Microsoft das Bildungsdefizit selbst in die Hand nehmen. Der jüngste Vorstoß kommt mit der Microsoft Learn Platform jetzt aus Redmond. Der Clou dabei ist, dass damit nicht einfach nur eine weitere Zertifizierungsoffensive gestartet wird, sondern neue Cloud-orientierte Wissensgebiete mit bislang noch wenig verbreiteten Lernmethoden eröffnet werden. Microlearning und Gamification heißen dabei die Zauberworte, mit denen lebenslanges Lernen attraktiver und vor allem effektiver gestaltet werden soll.

Microsoft kommt damit auch einer veränderten Technologiewelt nach. Während früher mitunter Jahre zwischen der Ankündigung eines Produkts wie beispielsweise Windows Server und seiner tatsächlichen Markteinführung vergingen, liefern Cloud-Infrastrukturen heute Neuerungen im Wochentakt. Damit muss auch der Skill-Aufbau schneller erfolgen als in den guten alten PC-Zeiten. Doch wie damals, als der Personal Computer zugleich Gegenstand und Werkzeug des Lernens war, ist es heute die Cloud, die sich selbst ihre Kompetenzen schafft.

Die Microsoft Learn Platform wurde jetzt auf der Ignite in Orlando vorgestellt und dürfte erst der Anfang sein im Wettbewerb der Ökosysteme. Denn nach internen Analysen beklagen vor allem die großen IT-Anbieter, dass die technische Entwicklung inzwischen schneller voranschreitet als der Skill-Aufbau. Doch ohne ausgebildetes Personal können die Marktchancen, die sich gegenwärtig im Cloud Computing, im Internet of Things oder rund um die künstliche Intelligenz bieten, gar nicht genutzt werden. Microsoft Learn soll dieses Tempodefizit ausgleichen und neue Jobprofile ausprägen, die „irgendwas mit Cloud“ zu tun haben. Cloud Administrator, Cloud Developer, Cloud Solutions Architect heißen die neuen Fertigkeiten, mit denen die Herausforderungen des Cloud Computings gemeistert werden sollen wie Virtualisierung, Sicherheit, Datenmanagement oder Ressourcenmanagement. Hinzu kommen all die bislang unbekannten Jobs, derer es für die Gestaltung von KI-Systemen bedarf, um Machine Learning und Big Data Analytics voranzutreiben.

Es ist der alte, sich immer wieder bestätigende Wettlauf zwischen Mensch und Maschine. Je mehr die Maschinen können, umso mehr müssen auch die Menschen können. Technologie ist kein Jobvernichter, sondern ein Jobcreator. – Nur, dass die neuen Jobs kaum noch Ähnlichkeit mit den alten haben. Es wird lange dauern, ehe die Studienberater davon abraten werden, „Irgendwas mit Cloud“ zu studieren.

Von der Suchmaschine zur Findemaschine

Was haben Amerika, die kosmische Hintergrundstrahlung, Viagra, Nylonstrümpfe und Sekundenkleber gemeinsam? – Nun, dies alles sind Funde auf der Suche nach etwas anderem. Kolumbus war auf der Suche nach dem Seeweg Richtung Indien; die kosmische Hintergrundstrahlung wurde zunächst als Störgeräusch beim Testen einer Antenne wahrgenommen; Viagra war ursprünglich ein Mittel zu Behandlung von Bluthochdruck und Angina Pectoris; Nylonstrümpfe waren nicht das erste Anwendungsbeispiel für Polyamide, aber deren erfolgreichstes; und die klebrige Eigenschaft von Cyanacrylat wurde zunächst als störend empfunden, ehe dieses „Feature“ als Sekundenkleber zum eigentlichen Verkaufsschlager wurde.

Alle diese Innovationen verbindet die Tatsache, dass ihnen der sprichwörtliche „glückliche Zufall“ zur Seite sprang, der allerdings nur „den vorbereiteten Geist begünstigt“. Will sagen: Nur wer sucht, kann auch finden. Ganz schnell sei noch erwähnt, dass dieses Phänomen seit gut 150 Jahren „Serendipität“ genannt wird, benannt nach dem Sanskrit-Wort für die Insel Ceylon. Denn in nur wenigen Jahren werden wir dieses wunderbare Phänomen nur noch „Big Data Analytics“, „Machine Learning“ oder „Cognitive Computing“ nennen…

Künstliche Intelligenz ersetzt vielleicht nicht den vorbereiteten Geist, aber doch den glücklichen Zufall, indem klassische Suchmechanismen zu Findemethoden ausgebaut werden. Ob bei der Entwicklung neuer Wirkstoffe in der Pharma-Industrie, bei der Diagnose seltener Krankheiten, bei der Hilfestellung am Arbeitsplatz oder beim autonomen Fahren oder Fliegen – KI ist im Begriff, überall den Zufall durch Analyse zu ersetzen.

Nirgendwo ist diese Entwicklung allerdings besser zu beobachten als im Handel, wo seit Jahrzehnten massenhaft gesammelte Konsumentendaten darauf warten, dass die richtigen Schlussfolgerungen zeitnah und zielorientiert gezogen werden. Handel definiert sich seit Jahrtausenden aus dem Ausgleich asymmetrischer Märkte, aus dem Wissensvorsprung des Verkäufers gegenüber dem Käufer, aus dem Ausgleich von Angebot und Nachfrage. KI bedient genau diese Eigenschaften und wird deshalb den Handel – egal ob im stationären Ladenlokal oder im Online-Shop – revolutionieren.

Dabei geht es gar nicht einmal darum, ob Drohnen künftig Waren ausliefern, Roboter im Baumarkt Kundenfragen beantworten, oder smarte Spiegel im Fashion-Shop dabei helfen, das richtige Outfit zusammenzustellen. Mit Hilfe von künstlicher Intelligenz werden schon heute Preise individuell austariert – je nach dem Potenzial des Kunden und dem Wunsch, ihn zu binden. KI sorgt für mehr Marken-Loyalität, weil sie auf das individuelle Bedürfnis der Kunden ausgelegte Erlebniswelten erschafft. Und KI sorgt dafür, dass das individuell gestaltete Produkt genau dem Kundenwunsch entspricht – und zwar, bevor der Kunde diesen Wunsch überhaupt geäußert hat. Am Ende sucht nicht der Kunde nach seinem Produkt, sondern das Produkt findet seinen Kunden. Der „glückliche Zufall“ wird automatisiert.

Mit KI wird Marktforschung zur Meinungsforschung, die sich nicht aus einer Sonntagsfrage speist, sondern jeden Schritt und jede Entscheidung des Käufers analysiert. Nicht nur Amazon und Google experimentieren mit KI-gestützter Kundenanalyse, auch WalMart oder die großen deutschen Discounter optimieren inzwischen ihr Warenangebot und das Laden-Layout mit Hilfe von der Auswertung großer Mengen an Kundendaten. Davon profitieren vor allem globale Handelsketten, die nicht nur über deutlich mehr Datenmaterial verfügen, sondern auch über die notwendigen Economies of Scale, in denen die riesigen Investitionen überhaupt wirtschaftlich vertretbar sind – egal, ob am Point of Sale oder im Lieferservice.

Die Nutzung von künstlicher Intelligenz im Handel steht sonderbarerweise im krassen Gegensatz zur Wahrnehmung der Kunden. Sie bemerken es kaum, wenn KI-Assistenten ihre Kaufentscheidung beeinflussen oder die Lieferung zum richtigen Zeitpunkt am richtigen Ort erfolgt. Im Gegenteil: Nur 15 Prozent der Deutschen glauben, dass KI-Technologie einen tatsächlichen Nutzen erbringt. Damit lebt der Handel auch weiterhin von der Asymmetrie: der Verkäufer weiß mehr als der Käufer – nur auf höherem Niveau.

Die Zukunft wird kommen – für alle

„Ich beschäftige mich sehr mit der Zukunft“, soll der Erfinder Charles Kettering einst gesagt haben, „denn ich denke, den Rest meines Lebens mit ihr zu verbringen.“ Eine bessere Begründung für Zukunftsforschung gibt es nicht – abgesehen von purer Neugierde darauf, was denn da so technisch und gesellschaftlich auf uns zukommt. Kein Wunder also, dass der Hype Cycle der wichtigsten Zukunftstechnologien, den die Gartner Group regelmäßig aktualisiert, immer wieder für Spannung sorgt. Und es ist immer wieder faszinierend, mit welchen Wortschöpfungen die Auguren dabei um die Ecke kommen…

Denn ohne die aktuellen Buzzwords wie „transparently immersive experience“ wären die Technologieprognosen weniger spektakulär: die meisten Megatrends wie künstliche Intelligenz, digitale Ökosysteme, Biohacking und allgegenwärtige Infrastruktur sind ohnehin schon kaum zu übersehen. Doch die Gartner-Leute verstehen es, auch dem allzu Bekannten noch ein Quäntchen Utopie einzuhauchen…

Demokratisierte künstliche Intelligenz. Die Urheberrechte für den Begriff dürfte wohl Microsofts CEO Satya Nadella für sich beanspruchen, der seit drei Jahren erst die Demokratisierung von Cloud Services und dann von KI-Funktionen mit Hilfe von Intelligent Edge / Intelligent Cloud propagiert. Gemeint ist der Zugriff auf KI-Funktionen über allgegenwärtige Cloud-Infrastrukturen, wie wir das heute bereits bei Sprachassistenten gewohnt sind. Künftig wird KI zu mehr Autonomie bei Maschinen aller Art führen – vom selbstfahrenden Auto bis zur autonom entscheidenden Kampfdrohne.

Allgegenwärtige Infrastruktur. Die Weiterentwicklung der Cloud durch 5G-Technologien, Quantencomputer und superschnelle neuronale Netze mit unzähligen Maschinen als „User“ im Internet der Dinge wird uns eine Infrastruktur bescheren, die immer und überall verfügbar ist. Dabei wird die Blockchain-Technologie das Internet, wie wir es heute kennen, völlig umkrempeln – und vielleicht sicherer machen.

Transparent immersive Erfahrungen. Der Begriff ist nahezu unübersetzbar und lässt sich vielleicht am besten mit „Fürsorgliche Belagerung“ umschreiben. Gemeint ist, dass sich Maschinen um uns immer stärker unserem Empfindungsvermögen anpassen und sich auf die Art und Weise, wie wir zu kommunizieren und zu arbeiten wünschen, einstellen. 4D-Druck ist ein Bestandteil, also additive Fertigungsverfahren, in denen nicht nur dreidimensionale Werkstücke entstehen, sondern auch mit einem „Formengedächtnis“ ausgestattet werden, so dass sie unter Umwelteinflüssen wie Wasser ihre Gestalt ändern. Schwärme aus intelligenten Nanoteilchen, die uns bei unserer Arbeit zur Seite stehen, und KI-Services, die wegen der kürzeren Latenzzeiten wieder an den Rand (Edge) des allgegenwärtigen Cloud-Netzwerks wandern, werden uns in jeder Lebenslage begleiten.

Do It Yourself-Biohacking. Wem das nicht genügt, wird seinen Körper durch Technologie optimieren – etwa durch subkutan angebrachte Microchips zur Identifizierung oder zur Aufzeichnung von Körperfunktionen. Digitale Sensorerweiterungen für unsere Sinne sind dann ebenso selbstverständlich wie Muskelkraftverstärker und – ja, warum nicht? – Speichererweiterungen.

Digitale Ökosysteme. Und deshalb werden wir uns auf neue Geschäftsmodelle einstellen müssen, in denen nicht der einzelne Anbieter, sondern das Ökosystem aus Anbietern, Anwendern, Zulieferern und Veredlern gemeinsam erfolgreich ist. Die Sharing Economy ist ein frühes Beispiel dieses Phänomens, bei der der Betreiber des Ökosystems nicht mehr notwendigerweise auch der Hersteller des Produkts ist, sondern nur noch ein virtueller Marktplatzanbieter, der für die nötige Aufmerksamkeit zu sorgen hat. Und die Nutzer werden durch die Datenwährung, mit der sie bezahlen, zu den eigentlichen Veredlern des Produkts.

Jahr für Jahr werden die Gartner-Prognosen komplexer. Inzwischen führt nicht mehr einfach nur eine singuläre Technologie – wie es der Personal Computer war – zu einer Revolution. Es ist das Zusammenspiel zahlloser Strömungen, Infrastrukturen und Massenbewegungen, die die neuen Technologietrends orchestrieren. Die Erde wird zu einem gigantischen Computer mit Sextillionen IP-Adressen, in dem es nur so brummt. Nur auf dem Mond landen, Wohlstand gerecht verteilen oder unser Klima in den Griff bekommen, das schaffen wir immer noch nicht. Vielleicht benötigen wir als sechsten Trend eine globale Neufokussierung auf die wirklich überlebenswichtigen Dinge. Denn: Wir werden den Rest unseres Lebens in der Zukunft verbringen, die wir heute gestalten.

Kein deutscher Weg

Wenn es um Standards geht, ist es vernünftig, eine globale Einigung zu finden. Weder politische, noch technologische Alleingänge haben auf lange Sicht Erfolg. Das zu akzeptieren fällt insbesondere dann schwer, wenn man überzeugt ist, dass der eigene Standard der überlegene ist. Doch weder bei der Videoaufzeichnung, noch bei Audioaufnahmen oder Telekommunikationsprotokollen haben sich notwendigerweise die überlegenen Technologien durchgesetzt, sondern die, mit der Aussicht auf den breitesten Konsens. Selbst die Eisenbahnen, die lange Zeit national geprägt waren und Standards ganz bewusst zur gegenseitigen Abschottung eingesetzt haben, schwenken inzwischen mühsam auf global gültige Geltungsregeln ein.

Selbst Sicherheit, von der man meinen sollte, sie sei unverhandelbar, unterliegt offensichtlich diesem Fundamentalgesetz der globalen Gleichheit, wie sich jetzt an der „Deutschen Cloud“ zeigt. Vor drei Jahren hatten Microsoft Deutschland und die Deutsche Telekom in einer Art Treuhänderschaft zwei Cloud-Rechenzentren errichtet, die dem überlegenen deutschen Datenschutz Rechnung trugen und zugleich vor dem überbordenden Datenhunger US-amerikanischer Nachrichtendienste und Ermittlungsbehörden schützen sollte. Denn vor drei Jahren war die Rechtsprechung derart, dass ein transatlantisches Unternehmen die Wahl hatte, entweder gegen europäisches oder gegen US-amerikanisches Recht zu verstoßen.

Jetzt hat Microsoft angekündigt, die Microsoft Cloud Deutschland für neue Kunden nicht mehr anzubieten. Stattdessen werden hierzulande zwei neue Cloud-Rechenzentren errichtet, die bis 2020 zunächst Azure, dann Office 365 und schließlich die ERP-Suite Dynamics 365 in einer Public Cloud zur Verfügung stellen. Kunden der Deutschen Cloud können die Services weiter nutzen, erhalten aber keine zusätzlichen Features mehr. Die Deutsche Telekom will angeblich ihrerseits an der Deutschen Cloud festhalten.

Grundsätzlich hat sich die Rechtssituation seit 2015 nicht geändert – nach wie vor könnten US-Behörden Zugriff auf in Deutschland gespeicherte personenbezogene Daten verlangen, wenn der Betreiber der Cloud seinen Hauptsitz in den Vereinigten Staaten hat und damit auch im Ausland US-amerikanischer Rechtsauffassung unterliegt. Geändert hat sich die Lage allerdings insofern, als mit der Datenschutz Grundverordnung (DSGVO) ein inzwischen europaweit gültiger Standard zum Umgang mit personenbezogenen Daten besteht und andererseits die Cloud-Anbieter ihre internen Qualitätsansprüche soweit angehoben haben, dass das Datenschutz-Delta zur Deutschen Cloud immer kleiner geworden ist.

Jetzt hat der Markt entschieden. Durchschnittlich rund 18 Prozent höhere Kosten in der Deutschen Cloud und deutlich geringere Flexibilität haben dazu geführt, dass das nationale Angebot nie eine breite Anwenderschaft gefunden hat. Die neuen Microsoft-Rechenzentren werden dem globalen Qualitätsrahmen der Microsoft-Trusted-Cloud-Grundsätze und Compliance-Zertifikaten und -Testaten für komplexe Sicherheits- und Datenschutzanforderungen folgen. Darüber hinaus sollen die Rechenzentren künftig nach dem C5-Anforderungskatalog (Cloud Computing Compliance Controls Catalogue) ausgelegt werden.

Microsoft hat mit der Deutschen Cloud zusammen mit der Deutschen Telekom Maßstäbe gesetzt. Der Markt aber hat anders entschieden und ist mit weniger zufrieden. Einen deutschen Weg wird es nicht geben. Die Deutsche Cloud geht den Weg aller nationalen Standards. Sie unterliegen gegenüber der Globalisierung auch dann, wenn sie eigentlich besser sind.