Unklare Kante

Die ewig oszillierende Informationstechnologie ist wieder einmal im Begriff, die Richtung zu wechseln im fortdauernden Wechselspiel von Zentralisierung und Dezentralisierung. Nachdem auf die zentralen Mainframes die verteilten Personal Computer folgten, die wiederum durch Server zusammengefasst wurden, kommt rund um das Cloud Computing die nächste Restrukturierungsrunde. Denn auf die zentralen Server-Farmen folgte die Auslagerung von Teilen der IT, wobei der Weg zu Hybrid-Lösungen gerade erst begonnen hat. Doch schon folgt der nächste Dezentralisierungsschritt an der Kante zwischen Mensch und Maschine, zwischen Endgerät und Server, zwischen Datenerfassung und Datenanalyse.

Edge Computing ersetzt nicht die Cloud, aber es entlastet sie. Denn je mehr Daten durch mobile Endgeräte und intelligente Maschinen anfallen, desto notwendiger wird eine Infrastruktur, die die Daten abfängt, bevor sie die Kanäle verstopfen. Das Internet der Dinge mit seinen Billionen an Sensordaten benötigt eine Instanz, in der die Minimalinformationen verdichtet werden, ehe sie von den zentralen Unternehmenslösungen zur Planungsgrundlage herangezogen werden.

Edge Computing wird überall dort zum Einsatz kommen, wo unsere Kommunikation auf schnelle Interaktion ausgelegt sein wird. Das kann überall, mit jedem und allem sein: wenn wir von selbstfahrenden Autos, interaktiven Werbeplakaten, Systemen zur Gesichtserkennung und Standortbestimmung umgeben sind und gleichzeitig Posts über Facebook (oder seinem heute noch unbekannten Nachfolger) verbreiten, uns mit Freunden beim nächsten Starbucks verabreden und vorher schnell noch „148 Mails checken“ – dann wollen wir nicht auf die Antwort einer imaginären Cloud warten, sondern kommunizieren, als wäre der nächste Netzknoten „um die Ecke“ oder wir „Close to the Edge“.

Dabei kommen praktisch ausschließlich Systeme zum Einsatz, die es heute schon gibt – Edge Computing nutzt die Rechenleistung von Smartphones, Tablets, Controllern, Routern und Servern für eine schnelle Peer-to-Peer-Vernetzung. Dennoch dürften die Investitionen immens sein, berücksichtigt man die Allgegenwart der Edge. Die Cloud schwebt über allem, Edge schwingt überall.

Dabei sind nicht nur Cloud-Provider und Telekommunikationsanbieter, die Betreiber von Infrastrukturen für Smart Cities oder Smart Factories betroffen. Jede Organisation, deren Geschäftserfolg von der Unmittelbarkeit der Kommunikation mit ihrer Klientel abhängig ist, wird sich auf die Kante konzentrieren müssen. Dabei dürfte der größere Aufwand nicht in der Hardware liegen, sondern in der Entwicklung neuer Apps, die eine interaktive User Experience erlauben. Die „MeNow“-Generation wird Ubiquität und Unmittelbarkeit in praktisch jeder Lebenslage einfordern – bei der Kaufentscheidung, bei Gesundheitsfragen, bei Verabredungen und beim Feedback zu Ereignissen in der aktuellen Umgebung.

Das ist kein Ausdruck einer hypernervösen Gesellschaft, die alles im Jetzt und Hier erleben will. Es ist vielmehr das Symptom einer sich immer genauer synchronisierenden Welt, in der Millisekunden entscheiden können. Ein Auto legt bei Tempo 160 knapp viereinhalb Meter pro Zehntelsekunde zurück. Bei der Darstellung virtueller Realitäten werden Verzögerungen von mehr als fünf Millisekunden, die zwischen Kopfbewegung und Bildaufbau liegen, bereits als störend empfunden. Schon vor zehn Jahren schätzte Amazon-Pionier Greg Linden, dass eine Millisekunde Verzögerung im laufenden Online-Verkauf ein Prozent des Umsatzes kosten kann. Und ebenfalls 2006 rechnete Melissa Mayer vor, dass 500 Millisekunden Verzögerung bei der Online-Suche den Google-Umsatz um bis zu 20 Prozent verringern würden. Und nicht zuletzt entscheiden Millisekunden im Online-Trading an den Börsen über Gewinn und Verlust.

Nach Einschätzung der Gartner Group, die Edge Computing zum nächsten ganz großen Ding in der Informationstechnik erkoren hat, werden in den kommenden fünf Jahren zwei von fünf Unternehmen in diese Technologie investiert haben. Heute schätzt Gartner, dass nicht einmal ein Prozent der Organisationen weltweit Anstrengungen in diese Richtung unternommen hat.

Wie allerdings Unternehmen in die Kante investieren sollen, ist noch weitgehend unklar. Es wird nicht jeder Punkt-zu-Punkt-Verbindungen zwischen wichtigen Knoten in ungebrochenem Fiberglas legen können. Selbst dann würde eine Datenreise von San Francisco nach New York City und zurück immer noch 42 Millisekunden verbrauchen – ohne Verarbeitungszeit für die Anfrage. Edge Computing fordert die Lichtgeschwindigkeit heraus. Ein herrliches Thema für Science Fiction. Wir stehen an der Kante zum Sprawl, wie William Gibson das alles umfassende Datennetz in der Megalopolis seiner Neuromancer-Trilogie nannte. Es lohnt sich, die Welt des Sprawls oder der späteren Matrix noch einmal zu besuchen. Wir stehen an der unklaren Kante zur nächsten Dezentralisierungsrunde.

Vor dem HAIpe

In regelmäßigen Abständen liefert uns die Gartner Group Megatrends und Zukunftstechnologien frei Haus, die uns ein anregendes Kribbeln im Rückgrat verursachen, weil sie so unfassbar sind, dass wir nicht glauben können, noch zu Lebzeiten mit ihnen konfrontiert zu werden. Und in der Tat bedeutet dieser Blick in die Kristallkugel der Informationstechnologie auch nach Gartners eigener Definition, dass wir uns nach kurzem Schaudern auch gut wieder den eigentlichen Herausforderungen des digitalen Wandels zuwenden können.

Denn der Hype Cycle, der den Technologieprognosen zugrunde liegt, ist von Gartner im Jahr 2000 in fünf Phasen unterteilt worden: Nach dem Auftauchen der Innovation (I) folgt der Gipfel der überzogenen Erwartungen (II), die schließlich ins Tal der Desillusion (III) führen, worauf sich der sanfte Anstieg der Erleuchtung und realistischen Einschätzung (IV) anschließt, der schließlich auf der Hochebene des produktiven Einsatzes (V) ankommt. Demnach sind die Megatrends und Zukunftstechnologien stets in der Phase der überzogenen Erwartungen.

Aber auch im Hype erkennt man die Richtung, in die sich die Informationstechnologie in einem Zeitraum von fünf bis zehn Jahren bewegen wird. Und der Hype der Stunde schreibt sich mit AI: „Artificial Intelligence Everywhere“ nennen die Gartner-Analysten das, was uns aus neuronalen Netzen und regelbasierten Systemen blüht. Denn während die künstliche Intelligenz auf Servern irgendwo in der Cloud residiert, nutzen alle möglichen mobilen und stationären Anwendungen die AI-Services über APIs – nahtlos und unmerklich.

Und gleich dürfen wir auch wieder neue Hype-Vokabeln lernen:

  • Artificial General Intelligence ist die Allgemeinverfügbarkeit dieser Dienste, die der menschlichen Intelligenz noch recht nahe kommen soll.
  • Deep Learning oder Machine Learning beschreibt die Fähigkeit, mit Hilfe neuronaler Netze aus den Aktivitäten für die Zukunft zu lernen. Einsatzgebiete sind Bild-, Sprach- und Gesichtserkennung.
  • Deep Reinforcement Learning wiederum erweitert die Lernmechanismen um Methoden zur Verstärkung (Belohnung) und Schwächung (Bestrafung) von Impulsen. So wird ein System animiert, sich so weiterzuentwickeln, dass der Anteil an Belohnung möglichst 100 Prozent ist.
  • Cognitive Computing schließlich beschreibt die Simulation menschlicher Denkprozesse, wie sie heute pionierhaft durch IBM Watson erreicht wird. Dabei wird eine Kombination bereits bewährter Technologien angewendet: Data Mining, Mustererkennung, die Verarbeitung natürlicher Sprache und die Nachahmung menschlicher Fähigkeiten wie Lernen, Erinnern, Argumentation und Problemlösung.

Da AI-basierte Systeme nicht nur menschliches Verhalten simulieren, sondern auch menschliches Verhalten zu deuten verstehen, wird die Schnittstelle zwischen Mensch und Maschine immer komfortabler – jedenfalls für den Menschen. Gartner hat auch dafür einen neuen Hype-Text erfunden: Transparently Immersive Experience. Gemeint ist, dass Maschinen immer mehr in die Ausdruckwelt des Menschen eindringen, ihn verstehen und sich verständlich machen. Dazu tragen nicht nur AI-Funktionen wie Sprach- und Gestensteuerung bei, sondern auch neue Darstellungsformen wie Virtual beziehungsweise Augmented Reality oder die Möglichkeit, von praktisch jedem physischen Gegenstand einen digitalen Zwilling zu erzeugen, der Simulationen, Modifikationen, Wartung, Erweiterungen und Weiterentwicklungen erlaubt, ohne dass das Original dafür auseinandergenommen oder auch nur vom Netz oder aus dem Arbeitsprozess genommen werden muss.

Und schließlich glaubt Gartner, dass sich digitale Plattformen für Alles und Jedes in der Cloud etablieren werden. So wird es beispielsweise unter der Wortschöpfung Edge Computing zu Vorschalt-Systemen kommen, die das massive Datenvolumen aus dem Internet der Dinge bündeln, ehe AI-Systeme mit den Daten konfrontiert werden. So ist bereits heute klar, dass ERP-Systeme ein Manufacturing Execution System benötigen, um mit dem gigantischen Datenvolumen aus dem Internet der Dinge fertig zu werden. Ähnliche Plattformen wird es auch in anderen Bereichen geben – beim autonomen Fahren, beim Smart Farming, bei der Telemedizin oder bei Sicherheitssystemen.

Ach ja: 5G, der um das Zehnfache gegenüber der heutigen LTE-Technologie schnellere Mobilfunkstandard, gehört laut Gartner ebenfalls zu den wichtigsten Zukunftstechnologien, auch wenn nach Einschätzung der Gartner-Analysten im Jahr 2020 erst drei Prozent der Anbieter diese zehn Gigabit pro Sekunde schnelle Bandbreite im Programm haben werden. Aber bei allem HAIpe um künstliche Intelligenz – da lassen wir natürlich die neue Bundesregierung nicht vom Haken.

Neues Jobprofil: Der IT-Erklärbär

Die Aussichten könnten besser kaum sein: mehr als die Hälfte der deutschen Anwenderunternehmen plant, das Budget im kommenden Jahr mit Blick auf den digitalen Wandel aufzustocken. Und immerhin jeder dritte will die Ausgaben wenigstens auf der bisherigen Höhe belassen. Das klingt schon deshalb ermutigend, weil die meisten Unternehmen in Investitionen in das Cloud Computing immer noch und vor allem Kostensenkungsmaßnahmen erkennen. Dass Cloud Computing sich aber inzwischen vom reinen Outsourcing-Modell zur hybriden Architektur für Mehrwert-Dienste wie Big Data, Künstliche Intelligenz oder mobile Computing entwickelt, bricht sich erst allmählich in den Köpfen der Anwender Bahn.

Dort herrschen vielmehr „beängstigende Verständnislücken“, wie sie jetzt der internationale Lösungsanbieter Epicor in einer groß angelegten Studie beobachtet hat. Immerhin eine von drei Führungskräften in Deutschland hat nach eigenem Bekunden zwar schon etwas von „Big Data“ oder „Cloud“ beziehungsweise „Software as a Service“ gehört, verbindet mit den Begriffen aber keine konkrete Vorstellung. Darüber hinaus gaben 36 Prozent zu, dass sie nicht mit dem „Internet of Things“ vertraut sind, für „3D-Druck“ liegt dieser Wert bei 44 Prozent, bei „Machine Learning“ bei 40 Prozent.

Der Wettlauf in die Digitalisierung scheint tatsächlich viele Anwender zu überfordern. Es geht nicht allein darum, auf der Höhe der technischen Entwicklung zu bleiben. Ebenso wichtig – wenn nicht wichtiger – ist es, die Möglichkeiten, die diese Technologien bieten, auch intern zu kommunizieren. Denn schließlich geht es darum, mit Hilfe von Big Data, KI, IoT, 3D-Druck oder Machine Learning die eigene Strategie so auszugestalten, dass man als Anwender einen größtmöglichen Nutzen daraus ziehen kann. Tatsächlich aber, so hat die Unternehmensberatung Kienbaum jetzt in einer groß angelegten Studie erfahren, hat eine von vier Führungskräften in Deutschland keine Klarheit über die aktuellen und zukünftigen Unternehmensziele. Ja, sogar jeder fünfte Manager mit Personalverantwortung tappt diesbezüglich im Dunkeln.

Die Geschwindigkeit, mit der sich die Dinge ändern, war vielleicht noch nie so hoch wie heute. Und die Veränderungen sind wohl auch noch nie so weitreichend gewesen – sieht man vielleicht von der Beherrschbarkeit des Feuers ab.

Und während viele Anwender diese Entwicklung damit abzutun scheinen, dass es sich bei der digitalen Transformation um eine Nebenwirkung der digitalen Giganten wie Google, Apple und Amazon handelt, die mit der eigenen Zukunft nur wenig zu tun hat, sind es in Wahrheit doch die Betreiber der Unternehmens-Architekturen – also Microsoft, IBM, Oracle oder SAP – die auf dem Weg ins Cloud Computing mit Hochgeschwindigkeit voranschreiten und gestern Big Data, heute IoT und morgen künstliche Intelligenz promoten. Da kann es nicht verwundern, dass manch mittelständischer Anwender angesichts technologischer Höchstgeschwindigkeit, mangelnder interner Kommunikation und dem Fehlen einer verlässlichen Vision auf der Strecke bleibt.

Da kann nur ein professioneller Erklärbär des Vertrauens helfen – und der ist im Grunde auch schnell bei der Hand. Die wenigsten mittelständischen Anwender kaufen direkt bei einem der großen Architektur-Anbieter. Sie arbeiten eher mit dem Systemhaus um die Ecke zusammen, das in etwa die gleichen Strukturen aufweist, den gleichen Menschenschlag herangebildet hat und offen zugibt, ebenfalls nur mit hängender Zunge mit der technischen Entwicklung Schritt zu halten. 82 Prozent der ITK-Anbieter blicken hoffnungsvoll in die Zukunft. Sie erkennen allmählich, dass Cloud Computing und die damit verbundenen Technologien einen Riesenmarkt für sie darstellen.

Microsoft zum Beispiel rechnet vor, dass 90 Prozent des eigenen Umsatzes durch Partner stimuliert ist. Und umgekehrt bedeutet jeder Euro Umsatz bei Microsoft ein Vielfaches an Einnahmen bei den Partnern. Das gilt ganz analog bei IBM, Oracle und SAP, die diese Zahlen nicht so dezidiert offenlegen, aber im Prinzip die gleiche Channel-Strategie fahren.

Und dieser Vertriebskanal befindet sich selbst im Umbruch. Es geht nicht mehr darum, goldene DVDs in den Firmenrechner zu stecken, um das nächste Update zu „deployen“. Es geht darum, aus den vielen Technologie-Optionen die richtigen für das Anwenderunternehmen auszuwählen, bei der Formulierung einer langfristigen Digitalstrategie zu helfen und diese Maßnahmen dann Schritt für Schritt umzusetzen. Dazu muss man die Zukunft erklären können. Und Voraussetzung dafür wiederum ist es, die technologische Zukunft auch zu verstehen.

Hier steckt wiederum die große Herausforderung für die Architektur-Anbieter. Sie müssen ihre Partner „enablen“, diese neue Rolle des Erklärbärs auch richtig auszuspielen. Ihre Aufgabe muss es sein, die „beängstigenden Verständnislücken“ zu schließen – ehe morgen neue aufbrechen.

Digitalien – Geteiltes Land

Eine Studie der Management-Schule WHU hat jetzt gezeigt, dass selbst unter den Unternehmen in Deutschland, die unter starkem Modernisierungsdruck stehen, die Formulierung einer ganzheitlichen Digitalstrategie die Ausnahme ist. Lediglich 20 Prozent der Befragten sehen sich so weit. Die Hälfte der Unternehmen hat immerhin die Zuständigkeiten für eine Strategie der digitalen Innovationen und Geschäftsmodelle benannt. Ebenfalls die Hälfte sieht sich immer noch zu schlecht über die Themen und Technologien der digitalen Innovation informiert. Und ebenfalls 50 Prozent – vermutlich die gleiche Hälfte – versteht das Thema Digitalisierung vor allem als Angriffspunkt für weitere Rationalisierungsschritte und zur Kostenersparnis.

Deutschland, geteiltes Digitalland. Dieser Eindruck drängt sich nicht nur bei der Befragung von Unternehmen und Managern auf. Auch die Versorgung mit der geeigneten Infrastruktur sorgt hierzulande für ein geteiltes Bild. Die einen – stadtnahen Nutzer – verfügen über große Bandbreiten im Internetverkehr. Die anderen – ländlichen Bewohner – müssen noch immer ihr Handy aus dem Fenster halten, wenn sie einen vernünftigen Empfang haben wollen. Hier wiederholt sich die Erfahrung aus der Einführung der Elektrizität: Das Land teilt sich in diejenigen, die über das Licht der Informationstechnik verfügen, und diejenigen, für die das nicht gilt. Die im Dunkeln sieht man nicht, sang Bertolt Brecht (in einem etwas anderen Zusammenhang).

Dass die Beurteilung der digitalen Gaben auch in der Bevölkerung in zwei Lager – aus Befürwortern und Gegnern – teilt, muss da nicht überraschen. Die Beratungsfirma PricewaterhouseCoopers hat jetzt Bundesbürger in einer repräsentativen Befragung nach ihrer Einschätzung der künstlichen Intelligenz befragt und ebenfalls ein in der Hälfte gespaltenes Land vorgefunden. Dass künstliche Intelligenz bei der Bewältigung der drängendsten und komplexesten Fragen der Menschheit – wie dem Klimawandel, demographischen Wandel oder medizinischen Herausforderungen, aber auch Schutz vor Cybercrime – helfen könnte, glaubt jeweils ziemlich exakt die Hälfte der Befragten.

Im Prinzip nehmen sogar neun von zehn Befragten an, dass KI in irgendeiner Form dabei helfen kann, bestehende Probleme zu meistern. Aber das bedeutet noch lange nicht, dass KI-Forschung und KI-Systeme positiv konnotiert sind. 51 Prozent finden, dass KI negative Emotionen auslöse. Und dass künstlich intelligente Systeme künftig Arbeitsplätze vernichten werden, davon sind sogar zwei Drittel der Befragten überzeugt.

Die Umfragen zeigen eine klassische Umbruchsituation, wie sie nur mit der industriellen Revolution verglichen werden kann. Rund um die Dampfmaschine, die Eisenbahn und die Elektrifizierung haben sich seinerzeit viele absurde Mythen etabliert – wie die, dass der Mensch für die hohen Geschwindigkeiten nicht geschaffen sei. Tatsächlich zeigt sich auch heute, dass das Wissen über die Möglichkeiten und Limitierungen der künstlichen Intelligenz durchaus auch Anleihen aus dem Märchenland nimmt. Zwar haben nur sechs Prozent der Bevölkerung den Begriff „künstliche Intelligenz“ noch nie gehört. Doch drei von fünf Bundesbürgern können nicht erklären, worum es sich tatsächlich dabei handelt.

Wir brauchen eine neue Epoche der Aufklärung, in der wir den Menschen nicht nur auf die naturwissenschaftlichen Füße stellen, sondern auch seinen Kopf auf eine informationstechnisch-kognitive Zukunft ausrichten. So wie auch die nächste Bundesregierung den Breitbandausbau auf ihre Fahnen schreiben und die nächsten Fördermilliarden für digitale Projekte bereitstellen wird, muss sie auch beim Bildungsausbau in Deutschland kräftig nachlegen. Derzeit – auch das ist ein aktuelles Ergebnis – fehlen jährlich zwölf Milliarden Euro, wie das Institut der deutschen Wirtschaft in seinem Bildungsmonitor berechnet. Vom Kindergarten bis zur Hochschule besteht durchgehender Investitionsbedarf, um den Herausforderungen des demographischen wie des digitalen Wandels zu begegnen.

Denn das wissen die Bundesbürger über künstliche Intelligenz immerhin: Sie wird komplexere, kreativere, vernetztere, ganzheitlichere Arbeitsplätze schaffen und die Kärrnerarbeit den Maschinen überlassen. Nur zehn Prozent der Befragten glauben, dass künstliche Intelligenz Kreativität hervorbringt. Allerdings traut jeder Vierte der Technologie zu, im Jahr 2025 einen Nummer-Eins-Hit zu schreiben.

Oder sollte sich ereignen, was bereits mit dem Smartphone bei der Verbreitung des mobilen Internets zu beobachten war. Seit Jahren sind es nämlich die Internet-Giganten aus dem Silicon Valley, die dabei helfen, digitale Fertigkeiten einzustudieren. Ihr Erfolgsgeheimnis ist Convenience. Was leicht fällt, wird auch akzeptiert, wenn nicht gar geliebt. Es wäre nicht unwahrscheinlich, wenn dieser „Bildungsauftrag“ auch bei den aktuellen Digitaltechnologien durch Google, Amazon und Apple erfüllt wird. Denn schon ein Drittel der befragten Bundesbürger will zuhause einen digitalen Assistenten haben. Ebenso viele wollen sich durch künstliche Intelligenz bei der Steuererklärung helfen lassen. Und 28 Prozent wollen lieber mit einem KI-System als im Volkshochschulunterricht eine neue Sprache lernen.

Und nicht zuletzt: Den Papierkram im Job würden 22 Prozent doch ganz gerne einem digitalen Assistenten überlassen. Geteiltes Leid ist eben halbes Leid. Auch in Digitalien.