New Deal

Der 32. Präsident der Vereinigten Staaten, Franklin Delano Roosevelt, versprach seinen Landsleuten bei seinem Amtsantritt während der großen Depression 1933, „die Karten neu zu mischen“. Der „New Deal“ sorgte für einen unglaublichen Wirtschaftsaufschwung, zunächst in den USA, dann weltweit. Er war nicht nur unternehmerfreundlich, sondern zugleich arbeitnehmerfreundlich ausgelegt. Gesellschaftlich, wirtschaftlich und technologisch wurden in der Tat die Karten neu gemischt.

Letzte Woche wurde ein vergleichbarer New Deal auf dem Weltwirtschaftsgipfel in Davos heraufbeschworen. Er war in der Abschlussrede des 45. Präsidenten der Vereinigten Staaten ebenso zu hören, wie im Beitrag der Bundeskanzlerin. Der italienische Ministerpräsident beschwor diesen New Deal ebenso herauf, wie sein polnischer Amtskollege. Und einig waren sich alle auch in der Bedrohung, der mit einem neuen sozialwirtschaftlichen Auftrag begegnet werden muss: künstliche Intelligenz.

Sie war der eigentliche Star des Weltwirtschaftsgipfels. Immerhin, so formulierte es Sundar Pichai, der CEO von Google, werde künstliche Intelligenz noch wichtiger für die Zukunft unserer Gesellschaft als die Beherrschung des Feuers durch den Menschen. Denn früher, ergänzte der britische Schatzkanzler Phil Hammond, seien Computer dumm und schnell gewesen. Nun aber würden sie schlau und schnell. Für die Gesellschaft mache das einen großen Unterschied, warnte er.

Warner gab es freilich schon vor Davos: Mit Tesla-Chef Elon Musk und Apple-Mitbegründer Steve Wozniak kommen sie sogar aus den eigenen Reihen. Tatsächlich sind mit künstlicher Intelligenz ausgestattete Computer ein zweischneidiges Schwert. Wir können mit künstlicher Intelligenz einige der größten Bedrohungen wie zum Beispiel den Klimawandel angehen, urteilte Microsofts Chef-Justiziar Brad Smith, der mit seinem neuen Buch „The Future Computed“ nach Davos gereist war. Aber sie könnten auch einen dritten Weltkrieg auslösen, ergänzte Alibaba-Gründer Jack Ma.

So einig sich politische und wirtschaftliche Führer in der Beurteilung sind, dass künstliche Intelligenz langfristig die Welt fundamental verändern wird, so uneins sind sie sich über die kurzfristigen Prognosen. Während die eine Gruppe davon ausgeht, dass künstliche Intelligenz in den kommenden Monaten Zehntausende von Arbeitskräften kosten wird, weist eine jüngste McKinsey-Studie darauf hin, dass zunächst erst einmal zusätzliche Arbeitsplätze entstehen werden, ehe sich ein totaler Wandel am Arbeitsmarkt vollzieht.

Dabei zeichnet sich ein bislang nicht diskutierter Aspekt des Wandels von Arbeit, Verantwortung und Ethik ab: während bislang vor allem davor gewarnt wird, dass die Arbeitsplätze entfallen werden, die lediglich eine niedrige Qualifikation verlangen – und davon gibt es weltweit immer noch Millionen – , warnten die Wirtschaftsbosse in Davos davor, dass ihre eigene Zunft vom Aussterben bedroht sein könnte. Je besser es KI-Systemen gelingt, aus Daten Analysen zu ziehen und daraus wiederum Entscheidungen zu treffen, desto weniger bedarf es einer Managerriege. Dann gehe es vielmehr darum, den Entscheidungen Taten folgen zu lassen.

Was aber machen die Top-Executives in der Zukunft mit der vielen freien Zeit, die sie dank künstlicher Intelligenz haben, witzelte ein Davos-Beobachter: Sie werden vielleicht auf noch mehr Weltwirtschaftsmeetings wie dem in Davos gehen. Das wäre tatsächlich nicht die schlechteste Idee. Denn – so hat es den Anschein – nie war eine weltweite Abstimmung und Synchronisation der Maßnahmen wichtiger für Weltfrieden, Weltklima, Weltgesundheit, Weltwirtschaft und Weltgesellschaft als heute. Digitalisierung und künstliche Intelligenz werfen Fragen auf, die zur Zeit niemand beantworten zu können scheint. Auch dieser Blog nicht.

Denn es geht nicht nur darum, die Karten neu zu mischen, sondern sie auch gerecht zu verteilen. Wer dann die Asse und wer die Luschen in Händen hat, dürfte eine Frage von weltpolitischem Ausmaß werden. Dazu wurde in Davos das Wort von der Fortschrittsdividende geprägt, die sich aus dem Einsatz von künstlicher Intelligenz ergeben kann. Den sozialen Sprengstoff, der in der Verteilung dieser Fortschrittsdividende steckt, brachte Italiens Ministerpräsident Paolo Gentiloni auf den Punkt: eine technisch-globale Elite auf der einen Seite und viele Gruppen von lokalen Frustrierten auf der anderen Seite seien die größte Sorge der Politik.

Es sei nicht genug, wenn sich nur 20 oder 30 Prozent der Bevölkerung für die Segnungen des Fortschritts begeisterten, sagte Bundeskanzlerin Angela Merkel. Deshalb wollen alle in die „Demokratisierung von KI“ (Microsoft-CEO Satya Nadella) investieren: Frankreichs Präsident Emmanuel Macron erklärte, dass er zehn Milliarden Euro in einen auf KI fokussierten Innovationsfonds stecken will. Großbritanniens Ministerpräsidentin Theresa May kündigte eine eigene Regierungsstelle für KI an. Und wir Deutschen? Wir warten erst einmal darauf, dass sich eine handlungsfähige Bundesregierung findet. Dann werden wohl auch hierzulande die Karten neu gemischt. Hoffentlich nicht zu spät.

 

Frohe wAInacht

Kein Event im jährlichen (christlichen) Festival-Kalender ist so mit Emotionen überfrachtet, wie die Solemnitas in nativitate Domini, das „Hochfest der Geburt des Herrn“. Unsere Hoffnungen, unsere guten Wünsche, unser gesamter Setzkasten aus Emotionen ist mit diesem 25. Dezember verbunden. Dabei hat in vielen Ländern – wie zum Beispiel in Deutschland – der Vorabend längst die Bedeutung des Weihnachtsfests auf sich vereinigt: es ist der Tag, an dem die Geschenke überreicht werden. Wo dies in der Nacht geschieht und die Geschenke erst am folgenden Morgen ausgepackt werden, heißt der Tag dann auch schon nicht mehr unbedingt Christmas, sondern Boxing Day.

Und der „Auspack-Tag“ weist denn auch schon schamlos auf die ökonomische (und für viele tatsächliche) Bedeutung dieses emotionalen Großkampftages hin: Das Jahresendgeschäft ist inzwischen derart mit dem Tag verknüpft, an dem die christliche Welt ihr größtes Geschenk erhielt, dass Börsenkurse, Kreditgeschäfte, IT-Infrastrukturen und Logistikkonzepte auf diese dem Konsum geweihte Nacht ausgelegt sind. Ohne anschlaggeschützte Weihnachtsmärkte, ohne Retail-Ketten und ohne den Online-Handel wäre das Fest der Geschenke nicht mehr zu meistern.

Grund genug für Lifestyle- und Wirtschaftsmagazine, in der sogenannten stillen Zeit die Stimme fürs Amazon-Bashing zu erheben. „Gelieferte Weihnacht“ hieß es beim Spiegel, „Die Perfide Psychologie des Kaufens“ in der Wirtschaftswoche und die Süddeutsche Zeitung meint, dass die Kunden Amazon längst „ausgeliefert“ sind. Dabei gewinnt der Spiegel mit seinem Titel den Zyniker-Preis, indem er Maria in der Anbetung des Kindes an Umtauschoptionen denken lässt.

Aber den Gipfel der Scheinheiligkeit erklimmt Edeka mit seinem Weihnachtsspot(t) (Link), in dem in einer verödeten, menschenvergessenen Welt ein kleiner anarchisch veranlagter Roboter den Geist der Weihnacht entdeckt. Der Hashtag KeinFestOhne verweist darauf, dass künstliche Intelligenz nicht die menschliche Wärme ersetzen kann. Der Spot übersieht dabei, dass es erst die Artificial Intelligence des Robots ist, die ihn erkennen lässt, worin der Kern des Weihnachtsfestes liegt. Ein treffenderes Beispiel für Machine Learning kann man gar nicht produzieren – auch wenn es wohl unabsichtlich geschah.

Tatsächlich wäre Weihnachten ohne Amazon und Co. ein anderes Weihnachten. Die Süddeutsche Zeitung formuliert es als Vorwurf, aber in Wahrheit ist es eine Leistung: „Amazon macht es den Kunden leicht, sie bekommen genau das, was sie wollen: schnelle Lieferung, ein riesiges Angebot, günstige Preise.“ Und diese Leistung stützt sich auf zwei Pfeiler: Big Data und AI. „Nach jahrelangem Datensammeln kennt der Konzern die Kunden besser als sie sich selbst. Amazon erinnert sich an alles, was ein Kunde je gekauft hat oder kaufen wollte.“ War das nicht genau das, was wir beim Verschwinden des letzten Tante-Emma-Ladens beklagt haben – den Verlust der Individualität. Jetzt bekommen wir sie auf artifizielle Weise zurück.

Big Data Analytics ist unsere moderne Form der Sterndeuterei. Mit künstlicher Intelligenz erkennen wir die Zeichen am Himmel und brechen auf, nicht um dem Erlöser zu huldigen, sondern den Erlösen. Das ist kein Phänomen der Neuzeit. Vor beinahe Tausend Jahren, im Jahr 1038, entschied Kaiser Konrad II., dass der vierte Adventssonntag auf den Heiligen Abend fallen darf. Seitdem gibt es von Zeit zu Zeit so kurze Adventszeiten wie in diesem Jahr. Was damals durchaus im Sinne des personalintensiven Handwerks war, ist heute keineswegs im Sinne des materialintensiven Handels. Er verliert einen der umsatzstärksten Tage im Jahr.

Aber es gibt ja inzwischen Black Fridays und Crazy Mondays. Doch mit jedem dieser verkaufsintensiven Tage verschärfen sich die Herausforderungen an die Logistik. Im stationären Handel müssen die Waren rechtzeitig in den Regalen liegen, im Online-Handel rechtzeitig im Postkasten. Auch das ist ohne künstliche Intelligenz nicht mehr zu meistern. Denn je stärker wir unser Kaufverhalten synchronisieren, umso genauer müssen unsere Handels- und Logistiksysteme auf unser Verhalten reagieren. Der Hashtag „KeinFestOhne“, den Edeka bemüht, bezieht sich auf den Kern von Weihnachten als Fest der Liebe. Aber es ist auch das Fest der Logistik – nd der Hilfe durch Artificial Intelligence.

Frohe wAInachten!

Unklare Kante

Die ewig oszillierende Informationstechnologie ist wieder einmal im Begriff, die Richtung zu wechseln im fortdauernden Wechselspiel von Zentralisierung und Dezentralisierung. Nachdem auf die zentralen Mainframes die verteilten Personal Computer folgten, die wiederum durch Server zusammengefasst wurden, kommt rund um das Cloud Computing die nächste Restrukturierungsrunde. Denn auf die zentralen Server-Farmen folgte die Auslagerung von Teilen der IT, wobei der Weg zu Hybrid-Lösungen gerade erst begonnen hat. Doch schon folgt der nächste Dezentralisierungsschritt an der Kante zwischen Mensch und Maschine, zwischen Endgerät und Server, zwischen Datenerfassung und Datenanalyse.

Edge Computing ersetzt nicht die Cloud, aber es entlastet sie. Denn je mehr Daten durch mobile Endgeräte und intelligente Maschinen anfallen, desto notwendiger wird eine Infrastruktur, die die Daten abfängt, bevor sie die Kanäle verstopfen. Das Internet der Dinge mit seinen Billionen an Sensordaten benötigt eine Instanz, in der die Minimalinformationen verdichtet werden, ehe sie von den zentralen Unternehmenslösungen zur Planungsgrundlage herangezogen werden.

Edge Computing wird überall dort zum Einsatz kommen, wo unsere Kommunikation auf schnelle Interaktion ausgelegt sein wird. Das kann überall, mit jedem und allem sein: wenn wir von selbstfahrenden Autos, interaktiven Werbeplakaten, Systemen zur Gesichtserkennung und Standortbestimmung umgeben sind und gleichzeitig Posts über Facebook (oder seinem heute noch unbekannten Nachfolger) verbreiten, uns mit Freunden beim nächsten Starbucks verabreden und vorher schnell noch „148 Mails checken“ – dann wollen wir nicht auf die Antwort einer imaginären Cloud warten, sondern kommunizieren, als wäre der nächste Netzknoten „um die Ecke“ oder wir „Close to the Edge“.

Dabei kommen praktisch ausschließlich Systeme zum Einsatz, die es heute schon gibt – Edge Computing nutzt die Rechenleistung von Smartphones, Tablets, Controllern, Routern und Servern für eine schnelle Peer-to-Peer-Vernetzung. Dennoch dürften die Investitionen immens sein, berücksichtigt man die Allgegenwart der Edge. Die Cloud schwebt über allem, Edge schwingt überall.

Dabei sind nicht nur Cloud-Provider und Telekommunikationsanbieter, die Betreiber von Infrastrukturen für Smart Cities oder Smart Factories betroffen. Jede Organisation, deren Geschäftserfolg von der Unmittelbarkeit der Kommunikation mit ihrer Klientel abhängig ist, wird sich auf die Kante konzentrieren müssen. Dabei dürfte der größere Aufwand nicht in der Hardware liegen, sondern in der Entwicklung neuer Apps, die eine interaktive User Experience erlauben. Die „MeNow“-Generation wird Ubiquität und Unmittelbarkeit in praktisch jeder Lebenslage einfordern – bei der Kaufentscheidung, bei Gesundheitsfragen, bei Verabredungen und beim Feedback zu Ereignissen in der aktuellen Umgebung.

Das ist kein Ausdruck einer hypernervösen Gesellschaft, die alles im Jetzt und Hier erleben will. Es ist vielmehr das Symptom einer sich immer genauer synchronisierenden Welt, in der Millisekunden entscheiden können. Ein Auto legt bei Tempo 160 knapp viereinhalb Meter pro Zehntelsekunde zurück. Bei der Darstellung virtueller Realitäten werden Verzögerungen von mehr als fünf Millisekunden, die zwischen Kopfbewegung und Bildaufbau liegen, bereits als störend empfunden. Schon vor zehn Jahren schätzte Amazon-Pionier Greg Linden, dass eine Millisekunde Verzögerung im laufenden Online-Verkauf ein Prozent des Umsatzes kosten kann. Und ebenfalls 2006 rechnete Melissa Mayer vor, dass 500 Millisekunden Verzögerung bei der Online-Suche den Google-Umsatz um bis zu 20 Prozent verringern würden. Und nicht zuletzt entscheiden Millisekunden im Online-Trading an den Börsen über Gewinn und Verlust.

Nach Einschätzung der Gartner Group, die Edge Computing zum nächsten ganz großen Ding in der Informationstechnik erkoren hat, werden in den kommenden fünf Jahren zwei von fünf Unternehmen in diese Technologie investiert haben. Heute schätzt Gartner, dass nicht einmal ein Prozent der Organisationen weltweit Anstrengungen in diese Richtung unternommen hat.

Wie allerdings Unternehmen in die Kante investieren sollen, ist noch weitgehend unklar. Es wird nicht jeder Punkt-zu-Punkt-Verbindungen zwischen wichtigen Knoten in ungebrochenem Fiberglas legen können. Selbst dann würde eine Datenreise von San Francisco nach New York City und zurück immer noch 42 Millisekunden verbrauchen – ohne Verarbeitungszeit für die Anfrage. Edge Computing fordert die Lichtgeschwindigkeit heraus. Ein herrliches Thema für Science Fiction. Wir stehen an der Kante zum Sprawl, wie William Gibson das alles umfassende Datennetz in der Megalopolis seiner Neuromancer-Trilogie nannte. Es lohnt sich, die Welt des Sprawls oder der späteren Matrix noch einmal zu besuchen. Wir stehen an der unklaren Kante zur nächsten Dezentralisierungsrunde.

Vor dem HAIpe

In regelmäßigen Abständen liefert uns die Gartner Group Megatrends und Zukunftstechnologien frei Haus, die uns ein anregendes Kribbeln im Rückgrat verursachen, weil sie so unfassbar sind, dass wir nicht glauben können, noch zu Lebzeiten mit ihnen konfrontiert zu werden. Und in der Tat bedeutet dieser Blick in die Kristallkugel der Informationstechnologie auch nach Gartners eigener Definition, dass wir uns nach kurzem Schaudern auch gut wieder den eigentlichen Herausforderungen des digitalen Wandels zuwenden können.

Denn der Hype Cycle, der den Technologieprognosen zugrunde liegt, ist von Gartner im Jahr 2000 in fünf Phasen unterteilt worden: Nach dem Auftauchen der Innovation (I) folgt der Gipfel der überzogenen Erwartungen (II), die schließlich ins Tal der Desillusion (III) führen, worauf sich der sanfte Anstieg der Erleuchtung und realistischen Einschätzung (IV) anschließt, der schließlich auf der Hochebene des produktiven Einsatzes (V) ankommt. Demnach sind die Megatrends und Zukunftstechnologien stets in der Phase der überzogenen Erwartungen.

Aber auch im Hype erkennt man die Richtung, in die sich die Informationstechnologie in einem Zeitraum von fünf bis zehn Jahren bewegen wird. Und der Hype der Stunde schreibt sich mit AI: „Artificial Intelligence Everywhere“ nennen die Gartner-Analysten das, was uns aus neuronalen Netzen und regelbasierten Systemen blüht. Denn während die künstliche Intelligenz auf Servern irgendwo in der Cloud residiert, nutzen alle möglichen mobilen und stationären Anwendungen die AI-Services über APIs – nahtlos und unmerklich.

Und gleich dürfen wir auch wieder neue Hype-Vokabeln lernen:

  • Artificial General Intelligence ist die Allgemeinverfügbarkeit dieser Dienste, die der menschlichen Intelligenz noch recht nahe kommen soll.
  • Deep Learning oder Machine Learning beschreibt die Fähigkeit, mit Hilfe neuronaler Netze aus den Aktivitäten für die Zukunft zu lernen. Einsatzgebiete sind Bild-, Sprach- und Gesichtserkennung.
  • Deep Reinforcement Learning wiederum erweitert die Lernmechanismen um Methoden zur Verstärkung (Belohnung) und Schwächung (Bestrafung) von Impulsen. So wird ein System animiert, sich so weiterzuentwickeln, dass der Anteil an Belohnung möglichst 100 Prozent ist.
  • Cognitive Computing schließlich beschreibt die Simulation menschlicher Denkprozesse, wie sie heute pionierhaft durch IBM Watson erreicht wird. Dabei wird eine Kombination bereits bewährter Technologien angewendet: Data Mining, Mustererkennung, die Verarbeitung natürlicher Sprache und die Nachahmung menschlicher Fähigkeiten wie Lernen, Erinnern, Argumentation und Problemlösung.

Da AI-basierte Systeme nicht nur menschliches Verhalten simulieren, sondern auch menschliches Verhalten zu deuten verstehen, wird die Schnittstelle zwischen Mensch und Maschine immer komfortabler – jedenfalls für den Menschen. Gartner hat auch dafür einen neuen Hype-Text erfunden: Transparently Immersive Experience. Gemeint ist, dass Maschinen immer mehr in die Ausdruckwelt des Menschen eindringen, ihn verstehen und sich verständlich machen. Dazu tragen nicht nur AI-Funktionen wie Sprach- und Gestensteuerung bei, sondern auch neue Darstellungsformen wie Virtual beziehungsweise Augmented Reality oder die Möglichkeit, von praktisch jedem physischen Gegenstand einen digitalen Zwilling zu erzeugen, der Simulationen, Modifikationen, Wartung, Erweiterungen und Weiterentwicklungen erlaubt, ohne dass das Original dafür auseinandergenommen oder auch nur vom Netz oder aus dem Arbeitsprozess genommen werden muss.

Und schließlich glaubt Gartner, dass sich digitale Plattformen für Alles und Jedes in der Cloud etablieren werden. So wird es beispielsweise unter der Wortschöpfung Edge Computing zu Vorschalt-Systemen kommen, die das massive Datenvolumen aus dem Internet der Dinge bündeln, ehe AI-Systeme mit den Daten konfrontiert werden. So ist bereits heute klar, dass ERP-Systeme ein Manufacturing Execution System benötigen, um mit dem gigantischen Datenvolumen aus dem Internet der Dinge fertig zu werden. Ähnliche Plattformen wird es auch in anderen Bereichen geben – beim autonomen Fahren, beim Smart Farming, bei der Telemedizin oder bei Sicherheitssystemen.

Ach ja: 5G, der um das Zehnfache gegenüber der heutigen LTE-Technologie schnellere Mobilfunkstandard, gehört laut Gartner ebenfalls zu den wichtigsten Zukunftstechnologien, auch wenn nach Einschätzung der Gartner-Analysten im Jahr 2020 erst drei Prozent der Anbieter diese zehn Gigabit pro Sekunde schnelle Bandbreite im Programm haben werden. Aber bei allem HAIpe um künstliche Intelligenz – da lassen wir natürlich die neue Bundesregierung nicht vom Haken.