Cloud ist nicht Cloud

In der galaktischen Enzyklopädie „The Hitchhiker´s Guide to the Galaxy“ steht der lebenskluge Rat: „Traue keinem Wesen, von dem du nicht weißt, womit es denkt…“

Gut, also gilt es auf der Erde – immerhin ein Teil dieser Galaxie – zu fragen: Womit denken Alexa, Cortana oder Siri? Wo denkt sich Amazon unsere Kaufempfehlungen aus? Was denkt das Google-Auto, wenn es abbiegt? Wer trifft wo die Entscheidungen im Internet der Dinge?

Zugegeben, Dinge sind keine Wesen. Sie werden durch künstliche Intelligenz zwar vielleicht wesenhaft – aber das ist auch alles. Wo und womit sie kalkulieren und wer die Algorithmen dafür bereitstellt – diese Fragen gewinnen von Tag zu Tag an Bedeutung. Um das zu verstehen, bedarf es offensichtlich erst eines Großskandals wie den um die massenhafte Ausspähung von Facebook-Accounts durch Cambridge Analytica und der mutmaßlichen Weiterverwertung der Beute für die Präsidentenwahl in den USA und das Brexit-Referendum in Großbritannien.

Denn künstliche Intelligenz ist als „Gott der kleinen Dinge“ offensichtlich so unterschwellig, dass sie von ihren Nutzern gar nicht als solche wahrgenommen wird. Nicht einmal jeder sechste Deutsche will laut einer jetzt veröffentlichten Studie bemerkt haben, im letzten Jahr mit künstlicher Intelligenz in Berührung gekommen zu sein. Allein die Verkaufszahlen der Smartphones mit ihren KI-Funktionen in der Spracherkennung und den Einkaufs-Apps bei Amazon bis Zalando weisen darauf hin, dass mehr als die Hälfte der Bevölkerung mehrfach wöchentlich KI-Erfahrungen gemacht haben müsste.

Das ist das Phänomen der zweiten Welle des Cloud Computings: Wir greifen über benutzerfreundliche Schnittstellen auf Funktionen zurück, deren Funktionsweise, ja sogar deren Existenz uns nicht bewusst ist. Denn die Cloud ist schon lange nicht mehr nur das externe Rechenzentrum, in das Unternehmen ihre IT auslagern, um mehr Flexibilität und weniger Kosten zu erzielen. Die zweite Welle der Cloud liefert eine Plattform für Funktionen, die wir mobil und „on the fly“ nutzen, ohne dafür die Rechenleistung mit uns herumschleppen zu müssen. Online-Shopping, Spracherkennung, (teil-)autonomes oder vernetztes Fahren, Security Features, smart Data, predictive Analytics – all das nutzen wir, ohne es uns recht bewusst zu machen. Das freundliche Application Programming Interface liefert uns den Service frei Haus.

Das ist so gut und so schlecht wie die Absichten, die damit verfolgt werden. Deshalb baut die zweite Welle des Cloud Computings immer stärker auf die wichtigste Währung im Internet, mit der sich nicht über Blockchain spekulieren lässt: Vertrauen. Es geht nicht mehr um die Frage, wem man Anwendungen und Daten anvertraut. Es geht inzwischen um die Frage, wem man (Vor-) Entscheidungen anvertrauen möchte.

Für Unternehmen und Organisationen wird es somit immer wichtiger, diese zweite Welle des Cloud Computings für sich zu nutzen. Denn Cloud-Services mit künstlicher Intelligenz bieten nicht nur mehr Kundenkomfort, sie binden durch eine positive Customer Experience ihre Kunden immer stärker an die Plattform, der sie sich anvertraut haben. Für Markenanbieter wird das zu einem wettbewerbsentscheidenden Imagefaktor. Die „Freude am Fahren“ oder der „Vorsprung durch Technik“ wird nicht mehr durch die Motorleistung des Fahrzeugs erfahrbar, sondern durch die Serviceleistungen des vernetzten Automobils. Die Eigenschaften eines Haushaltsgeräts definieren sich nicht mehr aus seiner Hardware, sondern aus der Plattform heraus, vom dem es seine Software-Updates bezieht. Und der Online-Einkauf bei der Modemarke des Vertrauens definiert sich nicht mehr ausschließlich über Produkt und Preis, sondern über die Customer Experience.

Doch schon erscheint die dritte Cloud-Welle am KI-Horizont. Durch sie werden die Services nicht mehr nur den Kunden zur Verfügung gestellt, sondern den Dingen selbst, die untereinander vernetzt sind, Daten austauschen und koordiniert agieren. Fahrzeuge teilen sich Störungen im Verkehrsablauf mit, Lieferdienste optimieren die letzte Meile, Maschinen verzahnen die Wertschöpfungskette.

Unternehmen und Organisationen sollten ihre Digitalstrategie möglichst schnell auf diese zweite und dritte Welle des Cloud Computings ausrichten und dabei sich selbst und den Kunden in den Mittelpunkt stellen. Sonst weiß man bald wirklich nicht mehr, womit das Ding da draußen denkt…

 

 

Sparen wäre falsch

Er wisse genau, welche Rede er halten müsste, um den Saal zum Toben zu bringen. Leider werden wir nie erfahren, was Jens Spahn seinen neuen Kollegen im Bundesgesundheitsministerium gesagt hätte. Aber wir können es ja mal probieren:

Jens Spahn hätte zum Beispiel sagen können, dass die 8000 Pflegekräfte, die die große Koalition fest eingeplant hat, nur ein erster Anfang sind. Dass also die Zahl der Arbeitsplätze im Pflegebereich stärker dem tatsächlichen Bedarf angepasst werden soll. Angesichts der heute gängigen Praxis, dass Pflegedienste bereits Kündigungen aussprechen, weil sie den zusätzlichen Anforderungen nicht mehr genüge tun können, wäre das ein Satz, der nicht nur den Saal zum Toben gebracht hätte. Vielleicht hätte der Bundesgesundheitsminister auch gesagt, dass die Digitalisierung im Pflegebereich stärker Einzug nehmen soll – zum Beispiel durch Pflegeroboter, die die Mitarbeiter vor körperlicher Überforderung bewahren.

Vielleicht hätte Jens Spahn auch gesagt, dass es nun mit der Entwicklung einer patientenzentrierten, standardisierten, elektronischen Gesundheitsakte ernst werden soll. Ihr Ziel, nämlich die Schaffung eines einfachen, barrierefreien Zugangs für jeden Patienten zu seinen eigenen Gesundheitsdaten, würde die therapeutische Partnerschaft mit dem ärztlichem Fachpersonal stärken. Bisher blieb dieser Plan immer nur in den Anfängen stecken.

Dabei könnte sie wie schon die ebenfalls steckengebliebene Gesundheitskarte unmittelbar Leben retten. Denn je schneller im Notfall die ärztlichen Helfer Klarheit über Vorerkrankungen und Medikamentenversorgung erhalten, desto konkreter können sie eingreifen.

Dazu ist es allerdings auch Voraussetzung, dass die Deutschen sich aus sicheren Quellen über medizinische Themen, Gesundheitsfragen und Vorsorge informieren können. Immer häufiger vertrauen sich Patienten lieber „Doktor Google“ an und versorgen sich bei Doc Morris oder anderen Online-Apotheken mit dem schnell wirkenden Schmerzmittel, das es rezeptfrei over the counter gibt. Die seriöse Beratung wird dagegen einer Diskussion um die Zwei-Klassen-Gesellschaft geopfert.

Der Bundesgesundheitsminister hätte also in seiner ungehaltenen Rede eine Online-Plattform ankündigen können, die ein umfassendes und gut vernetztes Informationsangebot bereit hält. So würde nicht nur die Gesundheitskompetenz in der Gesellschaft verbessert. Die Informationsplattform könnte auch zu mehr Transparenz bei den wahren Kostentreibern im Gesundheitswesen beitragen. Der Nutzen von Therapiepfaden und die dabei verursachten -kosten sind heute doch nur Experten verständlich.

Dabei muss nicht nur ein rechtssicherer Rahmen für Patienteninformationen geschaffen werden, sondern auch für die Apparate und Anwendungen, in denen diese Patientendaten entstehen. Damit ist zugleich die Basis für eine Digitalstrategie im Gesundheitswesen geschaffen, die es Kliniken und Ärztegemeinschaften erlaubt, fach- und therapieübergreifend neue Technologien zu nutzen. Vor allem der Einsatz der künstlichen Intelligenz zur Analyse und Diagnose, sowie zur Wahl der richtigen Therapie und schließlich zu ihrer Überwachung könnte ein Schwerpunkt der Rede von Jens Spahn gewesen sein.

Dazu braucht es neue Formen der Kooperation zwischen den etablierten Trägern der Gesundheitsversorgung und Newcomern wie den Internet-Giganten und Startups der digitalen Wirtschaft. Der Bundesgesundheitsminister hätte darüber reden können, wie traditionelle Medizin und Digitales zu einem neuen Gesundheitswesen 4.0 zusammen geschmiedet werden. Fitness-Tracker, Smart Watches, Gesundheits-Apps und Online-Plattformen gibt es bereits zu Hauf. Aber die Hürden, die überwunden werden müssen, damit alle diese Systeme auch zum Wohle des Patienten zusammenarbeiten können, sind hoch. Aber sie wären die richtige Herausforderung für einen zupackenden Politiker vom Schlage eines Jens Spahn.

Zugegeben – das alles kostet Geld. Und weil das so ist, hat der Bundesgesundheitsminister diese Rede auch nicht gehalten. Aber sparen wäre jetzt das falsche.

Abschied vom Fat Client

Wozu braucht man eigentlich heute noch ein Betriebssystem?

Für alle, die nicht wissen, was ein Betriebssystem – englisch: Operating System, oder kurz: OS – ist: Es ist das Ding, das einen alle paar Wochen auf dem Smartphone daran erinnert, dass eine neue Version existiert, die man downloaden soll. Für diejenigen, die heute noch an ihrem Desktop kleben, lautet die Erklärung freilich anders: Es ist das Ding, dass knapp fünf Minuten benötigt, um den Personal Computer zu starten und dann aber alle die wunderbaren Anwendungen ausführt, die auf Win32 basieren – also Spiele, Multimedia, veraltete Office-Anwendungen, ERP-Clients… solche Sachen.

Aber Desktop-User sind eine aussterbende Rasse. Immer mehr Menschen nutzen Notebooks, Tablets, Smartphones. Rein rechnerisch kommen bereits zwei mobile Geräte auf jeden Deutschen. In Schwellenländern, in denen das größte Wachstum an IT-Endgeräten zu verzeichnen ist, spielen Desktops kaum noch eine Rolle. Mobile is the name of the game.

Und in mobilen Geräten dient das Betriebssystem eigentlich nur noch dazu, einen Browser zu starten, in dem dann die eigentlichen Anwendungswelten entfaltet werden: eine App für Facebook, eine App fürs Navigieren, eine App für Mails, eine App für Fitness – ach ja, und eine App fürs Telefonieren.

Auf diese Welten sind die Betriebssysteme Android und iOS optimal ausgelegt. Windows hingegen ist – auch in der Version Windows 10 – im Kern immer noch ein Betriebssystem für den Fat Client, für den Desktop PC, der zur Not auch ohne Server im Hintergrund seine Arbeitslast aufnimmt. Dieser Blog übrigens entsteht an einem Fat Client. Aber alles – von der Recherche über das Verfassen bis zur Veröffentlichung – könnte auch von einem mobilen Endgerät aus geschehen. Immer mehr Geschäftsprozesse lassen sich wunderbar von diesen Thin Clients aus erledigen. Mit modernen Benutzeroberflächen bekommen selbst globale Unternehmenslösungen einen Thin Client auf dem Smartphone oder Tablet. Die Zeiten ändern sich und unsere Endgeräte mit ihnen.

Das ist Microsofts Achillesferse. Windows – auch Windows 10 – ist vom Desktop her gedacht, nicht vom mobilen Endgerät. Windows 10 S ist der erste Versuch, eine abgestrippte Version fürs Mobile anzubieten. Aber sie kommt nicht allzu gut an. Sie ist kein „Mobile Native“ wie Android, sondern höchstens ein „Mobile Immigrant“.

Deshalb verdichten sich Gerüchte, wonach Microsoft seit Monaten unter dem Codenamen „Andromeda“ an einem nativen Betriebssystem fürs Mobile arbeitet, das zugleich mit einem – neuen – Betriebssystem für den Desktop (Codename „Polaris“) kooperiert. Für Microsofts Weltbild sind die beiden Codenamen geradezu sinnstiftend: auf der einen Seite der Nordstern, auf den die bisherige Navigation ausgerichtet war, auf der anderen Seite die Nachbar-Galaxie – eine fremde Welt. Dabei gibt es schon länger Gerüchte um einen Android-Look-alike von Microsoft. Dass Andromeda zumindest die ersten beiden Silben mit Android gemeinsam hat, dürfte durchaus als Hinweis gewertet werden.

Beiden gemeinsam ist Windows Core OS, der kleinste gemeinsame Nenner aller Betriebssystem-Varianten, die Microsoft derzeit auf dem Schirm hat. Neben Andromeda und Polaris sollen dies „Aruba“ für den Surface Hub und Oasis für „Mixed Reality“-Geräte sein. Sie sollen ab 2019 die Plattformen bilden, auf denen Microsoft die eigenen System- und Software-Welten gründet. Eine Betriebssystem-Plattform für alle IT-Welten vom Fat Client bis zum Thin Client in der Cloud – das ist der fehlende Schlussstein in Microsofts „Intelligent Cloud, Intelligent Edge“-Strategie.

Mit Polaris dürfte Microsoft auch auf Google Chrome OS zielen, das zwar bisher nur marginale Marktanteile erobern konnte. Aber gerade in Schulen ist Google mit kostengünstigen Chromebooks erfolgreich. Mit den Schwellenländern in Asien und Afrika entsteht zudem ein gigantischer Markt für einfache Endgeräte, die in der Fläche schnell einsatzbereit sind. Das ist ein Markt, den Microsoft nicht vernachlässigen darf, wenn es seine Plattform-Dominanz erhalten will. Denn zugleich gilt: jeder Windows-User ist ein Kandidat für die Cloud Plattform Azure. Und hier hat Microsoft in den letzten Monaten einen Aufstieg erlebt, der zu Lasten anderer Cloud-Anbieter – allen voran Amazon – geht. Es gilt, dieses Business von unten her abzusichern – mit nicht mehr ganz so fetten Clients auf dem Desktop und nicht mehr ganz so dünnen Clients auf dem Smartphone. Das ist des Googles Kern.

Unklare Kante

Die ewig oszillierende Informationstechnologie ist wieder einmal im Begriff, die Richtung zu wechseln im fortdauernden Wechselspiel von Zentralisierung und Dezentralisierung. Nachdem auf die zentralen Mainframes die verteilten Personal Computer folgten, die wiederum durch Server zusammengefasst wurden, kommt rund um das Cloud Computing die nächste Restrukturierungsrunde. Denn auf die zentralen Server-Farmen folgte die Auslagerung von Teilen der IT, wobei der Weg zu Hybrid-Lösungen gerade erst begonnen hat. Doch schon folgt der nächste Dezentralisierungsschritt an der Kante zwischen Mensch und Maschine, zwischen Endgerät und Server, zwischen Datenerfassung und Datenanalyse.

Edge Computing ersetzt nicht die Cloud, aber es entlastet sie. Denn je mehr Daten durch mobile Endgeräte und intelligente Maschinen anfallen, desto notwendiger wird eine Infrastruktur, die die Daten abfängt, bevor sie die Kanäle verstopfen. Das Internet der Dinge mit seinen Billionen an Sensordaten benötigt eine Instanz, in der die Minimalinformationen verdichtet werden, ehe sie von den zentralen Unternehmenslösungen zur Planungsgrundlage herangezogen werden.

Edge Computing wird überall dort zum Einsatz kommen, wo unsere Kommunikation auf schnelle Interaktion ausgelegt sein wird. Das kann überall, mit jedem und allem sein: wenn wir von selbstfahrenden Autos, interaktiven Werbeplakaten, Systemen zur Gesichtserkennung und Standortbestimmung umgeben sind und gleichzeitig Posts über Facebook (oder seinem heute noch unbekannten Nachfolger) verbreiten, uns mit Freunden beim nächsten Starbucks verabreden und vorher schnell noch „148 Mails checken“ – dann wollen wir nicht auf die Antwort einer imaginären Cloud warten, sondern kommunizieren, als wäre der nächste Netzknoten „um die Ecke“ oder wir „Close to the Edge“.

Dabei kommen praktisch ausschließlich Systeme zum Einsatz, die es heute schon gibt – Edge Computing nutzt die Rechenleistung von Smartphones, Tablets, Controllern, Routern und Servern für eine schnelle Peer-to-Peer-Vernetzung. Dennoch dürften die Investitionen immens sein, berücksichtigt man die Allgegenwart der Edge. Die Cloud schwebt über allem, Edge schwingt überall.

Dabei sind nicht nur Cloud-Provider und Telekommunikationsanbieter, die Betreiber von Infrastrukturen für Smart Cities oder Smart Factories betroffen. Jede Organisation, deren Geschäftserfolg von der Unmittelbarkeit der Kommunikation mit ihrer Klientel abhängig ist, wird sich auf die Kante konzentrieren müssen. Dabei dürfte der größere Aufwand nicht in der Hardware liegen, sondern in der Entwicklung neuer Apps, die eine interaktive User Experience erlauben. Die „MeNow“-Generation wird Ubiquität und Unmittelbarkeit in praktisch jeder Lebenslage einfordern – bei der Kaufentscheidung, bei Gesundheitsfragen, bei Verabredungen und beim Feedback zu Ereignissen in der aktuellen Umgebung.

Das ist kein Ausdruck einer hypernervösen Gesellschaft, die alles im Jetzt und Hier erleben will. Es ist vielmehr das Symptom einer sich immer genauer synchronisierenden Welt, in der Millisekunden entscheiden können. Ein Auto legt bei Tempo 160 knapp viereinhalb Meter pro Zehntelsekunde zurück. Bei der Darstellung virtueller Realitäten werden Verzögerungen von mehr als fünf Millisekunden, die zwischen Kopfbewegung und Bildaufbau liegen, bereits als störend empfunden. Schon vor zehn Jahren schätzte Amazon-Pionier Greg Linden, dass eine Millisekunde Verzögerung im laufenden Online-Verkauf ein Prozent des Umsatzes kosten kann. Und ebenfalls 2006 rechnete Melissa Mayer vor, dass 500 Millisekunden Verzögerung bei der Online-Suche den Google-Umsatz um bis zu 20 Prozent verringern würden. Und nicht zuletzt entscheiden Millisekunden im Online-Trading an den Börsen über Gewinn und Verlust.

Nach Einschätzung der Gartner Group, die Edge Computing zum nächsten ganz großen Ding in der Informationstechnik erkoren hat, werden in den kommenden fünf Jahren zwei von fünf Unternehmen in diese Technologie investiert haben. Heute schätzt Gartner, dass nicht einmal ein Prozent der Organisationen weltweit Anstrengungen in diese Richtung unternommen hat.

Wie allerdings Unternehmen in die Kante investieren sollen, ist noch weitgehend unklar. Es wird nicht jeder Punkt-zu-Punkt-Verbindungen zwischen wichtigen Knoten in ungebrochenem Fiberglas legen können. Selbst dann würde eine Datenreise von San Francisco nach New York City und zurück immer noch 42 Millisekunden verbrauchen – ohne Verarbeitungszeit für die Anfrage. Edge Computing fordert die Lichtgeschwindigkeit heraus. Ein herrliches Thema für Science Fiction. Wir stehen an der Kante zum Sprawl, wie William Gibson das alles umfassende Datennetz in der Megalopolis seiner Neuromancer-Trilogie nannte. Es lohnt sich, die Welt des Sprawls oder der späteren Matrix noch einmal zu besuchen. Wir stehen an der unklaren Kante zur nächsten Dezentralisierungsrunde.