Zurück in die Zukunft

Befinden wir uns noch in Gegenwart der Zukunft oder schon in der Zukunft, die wir gegenwärtig vorhersagen? Zu ähnlichen chrono-philosophischen Fragestellungen mag kommen, wer sich die zehn IT-Trends zu Gemüte führt, von denen die Auguren der Gartner Group glauben, dass sie vor allen anderen Trends das Jahr 2019 beeinflussen werden. Dabei haben die zehn Megatrends, die für das Jahr 2018 nach Ansicht von Gartner entscheidend gewesen sein sollten, noch kaum ihre Wirkung entfaltet. Aber bis zum Jahreswechsel sind es ja auch noch gut 60 Tage…

Denn kaum ein Unternehmen hat tatsächlich angefangen, seine Produktionsmaschinen und Produkte so mit Sensoren auszustatten, dass bei vollem Ernst von einem „digitalen Zwilling“ die Rede sein könnte, also einem genauen virtuellen Abbild der Realität, das durch die Daten entsteht, die von der Realität erzeugt werden. Jetzt aber spricht Gartner davon, dass es Unternehmen 2019 „leicht fallen „ werde, eine solche „Digital Twin“-Strategie umzusetzen. Bis zum Jahr 2020 sollen 20 Milliarden IP-Adressen im Internet der Dinge aktiv sein, die die Voraussetzung für den digitalen Zwilling von Milliarden Dingen sein werden. Sie werden durch die Daten, die sie sammeln, immer smarter und helfen dabei, das zukünftige Verhalten der Dinge zu simulieren.

Das greift bereits tief in die Trickkiste der künstlichen Intelligenz hinein, die dafür sorgen wird, dass die Dinge im Internet immer stärker autonom agieren und damit die Automatisierung auf einen neuen Level der Selbständigkeit bringen werden. Dabei werden auch die Methoden des Machine Learnings immer weiter genutzt, um tiefergehende Analysen zu ermöglichen, auf deren Basis dann Maschinen ihre Entscheidungen treffen. Dabei wird der Prozess der Datenaufbereitung, der Datenauswertung und der Datenvisualisierung auch selbst immer weiter automatisiert – augmented Analytics nennt Gartner das von nun an.

Dabei wird auch die Entwicklung von neuen KI-Algorithmen immer weiter automatisiert und mit Hilfe von KI-Systemen beschleunigt. Bis 2022 sollen diese Methoden bereits in 40 Prozent der Entwicklungsprojekte Realität sein. Damit verbunden ist freilich ein ungeheurer Bedarf an KI-Entwicklern, die zusammen mit Datenanalysten die Entwicklerteams begleiten. Man darf sich fragen, wie in der Zukunft dieser spezielle Fachkräftebedarf gedeckt wird.

Künstliche Intelligenz wird auch ins Edge Computing eingreifen. Mit der Edge rückt die Cloud wieder stärker an den eigentlichen Ort der Prozesse und Datenentstehung. Man könnte fast sagen, dass hier nach der Zentralisierung Richtung Cloud wieder ein Stück Dezentralisierung kommt, über die die Latenzzeiten – also die Wartezeit, bis die Cloud-Services über die 5G-Bandbreiten reagiert haben – verkürzt werden soll. Allerdings sollen spezielle KI-Chips auch dafür sorgen, dass diese peripheren Endgeräte smart genug sind, um auf Cloud-Services zu verzichten.

Dass mehr Rechenpower und KI-Cleverness auch wieder näher an den eigentlichen Ort des Geschehens rücken soll, findet laut Gartner auch seinen Grund in dem weiter zunehmenden Einsatz von Augmented Reality. Die virtuellen und begleitenden Realitätswelten benötigen nämlich enorme Rechnerleistung, um überhaupt zeit- und realitätsnah entstehen zu können. Das ganze wird dann mehr und mehr unsere Smart Spaces, wie Gartner den Sammelbegriff für Smart Homes, Smart Cities und Smart Factories nennt, beeinflussen.

Demzufolge wird sich ab 2019 eine Diskussion über digitale Ethik und die Bedeutung (wenn nicht den Verbleib) der Privatsphäre eröffnen, die die Rolle des Menschen in dieser KI-fizierten Zukunft untersucht. Vielleicht aber überlassen wir die Entscheidung über richtig und falsch dann schon den Quantum Computern, die auch komplexeste Wechselwirkungen zwischen Maschinen, Materialien, Methoden und Menschen simulieren können. Vielleicht empfiehlt uns Gartner dann, in die Gegenwart zurückzukehren – als Re-Dezentralisierung, Re-Despezialisierung, Re-Delinearisierung und zuletzt Regression.

 * Das Foto wurde der Steven-Spielberg-Produktion „Zurück in die Zukunft“ entnommen.

 

Unklare Kante

Die ewig oszillierende Informationstechnologie ist wieder einmal im Begriff, die Richtung zu wechseln im fortdauernden Wechselspiel von Zentralisierung und Dezentralisierung. Nachdem auf die zentralen Mainframes die verteilten Personal Computer folgten, die wiederum durch Server zusammengefasst wurden, kommt rund um das Cloud Computing die nächste Restrukturierungsrunde. Denn auf die zentralen Server-Farmen folgte die Auslagerung von Teilen der IT, wobei der Weg zu Hybrid-Lösungen gerade erst begonnen hat. Doch schon folgt der nächste Dezentralisierungsschritt an der Kante zwischen Mensch und Maschine, zwischen Endgerät und Server, zwischen Datenerfassung und Datenanalyse.

Edge Computing ersetzt nicht die Cloud, aber es entlastet sie. Denn je mehr Daten durch mobile Endgeräte und intelligente Maschinen anfallen, desto notwendiger wird eine Infrastruktur, die die Daten abfängt, bevor sie die Kanäle verstopfen. Das Internet der Dinge mit seinen Billionen an Sensordaten benötigt eine Instanz, in der die Minimalinformationen verdichtet werden, ehe sie von den zentralen Unternehmenslösungen zur Planungsgrundlage herangezogen werden.

Edge Computing wird überall dort zum Einsatz kommen, wo unsere Kommunikation auf schnelle Interaktion ausgelegt sein wird. Das kann überall, mit jedem und allem sein: wenn wir von selbstfahrenden Autos, interaktiven Werbeplakaten, Systemen zur Gesichtserkennung und Standortbestimmung umgeben sind und gleichzeitig Posts über Facebook (oder seinem heute noch unbekannten Nachfolger) verbreiten, uns mit Freunden beim nächsten Starbucks verabreden und vorher schnell noch „148 Mails checken“ – dann wollen wir nicht auf die Antwort einer imaginären Cloud warten, sondern kommunizieren, als wäre der nächste Netzknoten „um die Ecke“ oder wir „Close to the Edge“.

Dabei kommen praktisch ausschließlich Systeme zum Einsatz, die es heute schon gibt – Edge Computing nutzt die Rechenleistung von Smartphones, Tablets, Controllern, Routern und Servern für eine schnelle Peer-to-Peer-Vernetzung. Dennoch dürften die Investitionen immens sein, berücksichtigt man die Allgegenwart der Edge. Die Cloud schwebt über allem, Edge schwingt überall.

Dabei sind nicht nur Cloud-Provider und Telekommunikationsanbieter, die Betreiber von Infrastrukturen für Smart Cities oder Smart Factories betroffen. Jede Organisation, deren Geschäftserfolg von der Unmittelbarkeit der Kommunikation mit ihrer Klientel abhängig ist, wird sich auf die Kante konzentrieren müssen. Dabei dürfte der größere Aufwand nicht in der Hardware liegen, sondern in der Entwicklung neuer Apps, die eine interaktive User Experience erlauben. Die „MeNow“-Generation wird Ubiquität und Unmittelbarkeit in praktisch jeder Lebenslage einfordern – bei der Kaufentscheidung, bei Gesundheitsfragen, bei Verabredungen und beim Feedback zu Ereignissen in der aktuellen Umgebung.

Das ist kein Ausdruck einer hypernervösen Gesellschaft, die alles im Jetzt und Hier erleben will. Es ist vielmehr das Symptom einer sich immer genauer synchronisierenden Welt, in der Millisekunden entscheiden können. Ein Auto legt bei Tempo 160 knapp viereinhalb Meter pro Zehntelsekunde zurück. Bei der Darstellung virtueller Realitäten werden Verzögerungen von mehr als fünf Millisekunden, die zwischen Kopfbewegung und Bildaufbau liegen, bereits als störend empfunden. Schon vor zehn Jahren schätzte Amazon-Pionier Greg Linden, dass eine Millisekunde Verzögerung im laufenden Online-Verkauf ein Prozent des Umsatzes kosten kann. Und ebenfalls 2006 rechnete Melissa Mayer vor, dass 500 Millisekunden Verzögerung bei der Online-Suche den Google-Umsatz um bis zu 20 Prozent verringern würden. Und nicht zuletzt entscheiden Millisekunden im Online-Trading an den Börsen über Gewinn und Verlust.

Nach Einschätzung der Gartner Group, die Edge Computing zum nächsten ganz großen Ding in der Informationstechnik erkoren hat, werden in den kommenden fünf Jahren zwei von fünf Unternehmen in diese Technologie investiert haben. Heute schätzt Gartner, dass nicht einmal ein Prozent der Organisationen weltweit Anstrengungen in diese Richtung unternommen hat.

Wie allerdings Unternehmen in die Kante investieren sollen, ist noch weitgehend unklar. Es wird nicht jeder Punkt-zu-Punkt-Verbindungen zwischen wichtigen Knoten in ungebrochenem Fiberglas legen können. Selbst dann würde eine Datenreise von San Francisco nach New York City und zurück immer noch 42 Millisekunden verbrauchen – ohne Verarbeitungszeit für die Anfrage. Edge Computing fordert die Lichtgeschwindigkeit heraus. Ein herrliches Thema für Science Fiction. Wir stehen an der Kante zum Sprawl, wie William Gibson das alles umfassende Datennetz in der Megalopolis seiner Neuromancer-Trilogie nannte. Es lohnt sich, die Welt des Sprawls oder der späteren Matrix noch einmal zu besuchen. Wir stehen an der unklaren Kante zur nächsten Dezentralisierungsrunde.