Vor dem HAIpe

In regelmäßigen Abständen liefert uns die Gartner Group Megatrends und Zukunftstechnologien frei Haus, die uns ein anregendes Kribbeln im Rückgrat verursachen, weil sie so unfassbar sind, dass wir nicht glauben können, noch zu Lebzeiten mit ihnen konfrontiert zu werden. Und in der Tat bedeutet dieser Blick in die Kristallkugel der Informationstechnologie auch nach Gartners eigener Definition, dass wir uns nach kurzem Schaudern auch gut wieder den eigentlichen Herausforderungen des digitalen Wandels zuwenden können.

Denn der Hype Cycle, der den Technologieprognosen zugrunde liegt, ist von Gartner im Jahr 2000 in fünf Phasen unterteilt worden: Nach dem Auftauchen der Innovation (I) folgt der Gipfel der überzogenen Erwartungen (II), die schließlich ins Tal der Desillusion (III) führen, worauf sich der sanfte Anstieg der Erleuchtung und realistischen Einschätzung (IV) anschließt, der schließlich auf der Hochebene des produktiven Einsatzes (V) ankommt. Demnach sind die Megatrends und Zukunftstechnologien stets in der Phase der überzogenen Erwartungen.

Aber auch im Hype erkennt man die Richtung, in die sich die Informationstechnologie in einem Zeitraum von fünf bis zehn Jahren bewegen wird. Und der Hype der Stunde schreibt sich mit AI: „Artificial Intelligence Everywhere“ nennen die Gartner-Analysten das, was uns aus neuronalen Netzen und regelbasierten Systemen blüht. Denn während die künstliche Intelligenz auf Servern irgendwo in der Cloud residiert, nutzen alle möglichen mobilen und stationären Anwendungen die AI-Services über APIs – nahtlos und unmerklich.

Und gleich dürfen wir auch wieder neue Hype-Vokabeln lernen:

  • Artificial General Intelligence ist die Allgemeinverfügbarkeit dieser Dienste, die der menschlichen Intelligenz noch recht nahe kommen soll.
  • Deep Learning oder Machine Learning beschreibt die Fähigkeit, mit Hilfe neuronaler Netze aus den Aktivitäten für die Zukunft zu lernen. Einsatzgebiete sind Bild-, Sprach- und Gesichtserkennung.
  • Deep Reinforcement Learning wiederum erweitert die Lernmechanismen um Methoden zur Verstärkung (Belohnung) und Schwächung (Bestrafung) von Impulsen. So wird ein System animiert, sich so weiterzuentwickeln, dass der Anteil an Belohnung möglichst 100 Prozent ist.
  • Cognitive Computing schließlich beschreibt die Simulation menschlicher Denkprozesse, wie sie heute pionierhaft durch IBM Watson erreicht wird. Dabei wird eine Kombination bereits bewährter Technologien angewendet: Data Mining, Mustererkennung, die Verarbeitung natürlicher Sprache und die Nachahmung menschlicher Fähigkeiten wie Lernen, Erinnern, Argumentation und Problemlösung.

Da AI-basierte Systeme nicht nur menschliches Verhalten simulieren, sondern auch menschliches Verhalten zu deuten verstehen, wird die Schnittstelle zwischen Mensch und Maschine immer komfortabler – jedenfalls für den Menschen. Gartner hat auch dafür einen neuen Hype-Text erfunden: Transparently Immersive Experience. Gemeint ist, dass Maschinen immer mehr in die Ausdruckwelt des Menschen eindringen, ihn verstehen und sich verständlich machen. Dazu tragen nicht nur AI-Funktionen wie Sprach- und Gestensteuerung bei, sondern auch neue Darstellungsformen wie Virtual beziehungsweise Augmented Reality oder die Möglichkeit, von praktisch jedem physischen Gegenstand einen digitalen Zwilling zu erzeugen, der Simulationen, Modifikationen, Wartung, Erweiterungen und Weiterentwicklungen erlaubt, ohne dass das Original dafür auseinandergenommen oder auch nur vom Netz oder aus dem Arbeitsprozess genommen werden muss.

Und schließlich glaubt Gartner, dass sich digitale Plattformen für Alles und Jedes in der Cloud etablieren werden. So wird es beispielsweise unter der Wortschöpfung Edge Computing zu Vorschalt-Systemen kommen, die das massive Datenvolumen aus dem Internet der Dinge bündeln, ehe AI-Systeme mit den Daten konfrontiert werden. So ist bereits heute klar, dass ERP-Systeme ein Manufacturing Execution System benötigen, um mit dem gigantischen Datenvolumen aus dem Internet der Dinge fertig zu werden. Ähnliche Plattformen wird es auch in anderen Bereichen geben – beim autonomen Fahren, beim Smart Farming, bei der Telemedizin oder bei Sicherheitssystemen.

Ach ja: 5G, der um das Zehnfache gegenüber der heutigen LTE-Technologie schnellere Mobilfunkstandard, gehört laut Gartner ebenfalls zu den wichtigsten Zukunftstechnologien, auch wenn nach Einschätzung der Gartner-Analysten im Jahr 2020 erst drei Prozent der Anbieter diese zehn Gigabit pro Sekunde schnelle Bandbreite im Programm haben werden. Aber bei allem HAIpe um künstliche Intelligenz – da lassen wir natürlich die neue Bundesregierung nicht vom Haken.

Neues Jobprofil: Der IT-Erklärbär

Die Aussichten könnten besser kaum sein: mehr als die Hälfte der deutschen Anwenderunternehmen plant, das Budget im kommenden Jahr mit Blick auf den digitalen Wandel aufzustocken. Und immerhin jeder dritte will die Ausgaben wenigstens auf der bisherigen Höhe belassen. Das klingt schon deshalb ermutigend, weil die meisten Unternehmen in Investitionen in das Cloud Computing immer noch und vor allem Kostensenkungsmaßnahmen erkennen. Dass Cloud Computing sich aber inzwischen vom reinen Outsourcing-Modell zur hybriden Architektur für Mehrwert-Dienste wie Big Data, Künstliche Intelligenz oder mobile Computing entwickelt, bricht sich erst allmählich in den Köpfen der Anwender Bahn.

Dort herrschen vielmehr „beängstigende Verständnislücken“, wie sie jetzt der internationale Lösungsanbieter Epicor in einer groß angelegten Studie beobachtet hat. Immerhin eine von drei Führungskräften in Deutschland hat nach eigenem Bekunden zwar schon etwas von „Big Data“ oder „Cloud“ beziehungsweise „Software as a Service“ gehört, verbindet mit den Begriffen aber keine konkrete Vorstellung. Darüber hinaus gaben 36 Prozent zu, dass sie nicht mit dem „Internet of Things“ vertraut sind, für „3D-Druck“ liegt dieser Wert bei 44 Prozent, bei „Machine Learning“ bei 40 Prozent.

Der Wettlauf in die Digitalisierung scheint tatsächlich viele Anwender zu überfordern. Es geht nicht allein darum, auf der Höhe der technischen Entwicklung zu bleiben. Ebenso wichtig – wenn nicht wichtiger – ist es, die Möglichkeiten, die diese Technologien bieten, auch intern zu kommunizieren. Denn schließlich geht es darum, mit Hilfe von Big Data, KI, IoT, 3D-Druck oder Machine Learning die eigene Strategie so auszugestalten, dass man als Anwender einen größtmöglichen Nutzen daraus ziehen kann. Tatsächlich aber, so hat die Unternehmensberatung Kienbaum jetzt in einer groß angelegten Studie erfahren, hat eine von vier Führungskräften in Deutschland keine Klarheit über die aktuellen und zukünftigen Unternehmensziele. Ja, sogar jeder fünfte Manager mit Personalverantwortung tappt diesbezüglich im Dunkeln.

Die Geschwindigkeit, mit der sich die Dinge ändern, war vielleicht noch nie so hoch wie heute. Und die Veränderungen sind wohl auch noch nie so weitreichend gewesen – sieht man vielleicht von der Beherrschbarkeit des Feuers ab.

Und während viele Anwender diese Entwicklung damit abzutun scheinen, dass es sich bei der digitalen Transformation um eine Nebenwirkung der digitalen Giganten wie Google, Apple und Amazon handelt, die mit der eigenen Zukunft nur wenig zu tun hat, sind es in Wahrheit doch die Betreiber der Unternehmens-Architekturen – also Microsoft, IBM, Oracle oder SAP – die auf dem Weg ins Cloud Computing mit Hochgeschwindigkeit voranschreiten und gestern Big Data, heute IoT und morgen künstliche Intelligenz promoten. Da kann es nicht verwundern, dass manch mittelständischer Anwender angesichts technologischer Höchstgeschwindigkeit, mangelnder interner Kommunikation und dem Fehlen einer verlässlichen Vision auf der Strecke bleibt.

Da kann nur ein professioneller Erklärbär des Vertrauens helfen – und der ist im Grunde auch schnell bei der Hand. Die wenigsten mittelständischen Anwender kaufen direkt bei einem der großen Architektur-Anbieter. Sie arbeiten eher mit dem Systemhaus um die Ecke zusammen, das in etwa die gleichen Strukturen aufweist, den gleichen Menschenschlag herangebildet hat und offen zugibt, ebenfalls nur mit hängender Zunge mit der technischen Entwicklung Schritt zu halten. 82 Prozent der ITK-Anbieter blicken hoffnungsvoll in die Zukunft. Sie erkennen allmählich, dass Cloud Computing und die damit verbundenen Technologien einen Riesenmarkt für sie darstellen.

Microsoft zum Beispiel rechnet vor, dass 90 Prozent des eigenen Umsatzes durch Partner stimuliert ist. Und umgekehrt bedeutet jeder Euro Umsatz bei Microsoft ein Vielfaches an Einnahmen bei den Partnern. Das gilt ganz analog bei IBM, Oracle und SAP, die diese Zahlen nicht so dezidiert offenlegen, aber im Prinzip die gleiche Channel-Strategie fahren.

Und dieser Vertriebskanal befindet sich selbst im Umbruch. Es geht nicht mehr darum, goldene DVDs in den Firmenrechner zu stecken, um das nächste Update zu „deployen“. Es geht darum, aus den vielen Technologie-Optionen die richtigen für das Anwenderunternehmen auszuwählen, bei der Formulierung einer langfristigen Digitalstrategie zu helfen und diese Maßnahmen dann Schritt für Schritt umzusetzen. Dazu muss man die Zukunft erklären können. Und Voraussetzung dafür wiederum ist es, die technologische Zukunft auch zu verstehen.

Hier steckt wiederum die große Herausforderung für die Architektur-Anbieter. Sie müssen ihre Partner „enablen“, diese neue Rolle des Erklärbärs auch richtig auszuspielen. Ihre Aufgabe muss es sein, die „beängstigenden Verständnislücken“ zu schließen – ehe morgen neue aufbrechen.

Digitalien – Geteiltes Land

Eine Studie der Management-Schule WHU hat jetzt gezeigt, dass selbst unter den Unternehmen in Deutschland, die unter starkem Modernisierungsdruck stehen, die Formulierung einer ganzheitlichen Digitalstrategie die Ausnahme ist. Lediglich 20 Prozent der Befragten sehen sich so weit. Die Hälfte der Unternehmen hat immerhin die Zuständigkeiten für eine Strategie der digitalen Innovationen und Geschäftsmodelle benannt. Ebenfalls die Hälfte sieht sich immer noch zu schlecht über die Themen und Technologien der digitalen Innovation informiert. Und ebenfalls 50 Prozent – vermutlich die gleiche Hälfte – versteht das Thema Digitalisierung vor allem als Angriffspunkt für weitere Rationalisierungsschritte und zur Kostenersparnis.

Deutschland, geteiltes Digitalland. Dieser Eindruck drängt sich nicht nur bei der Befragung von Unternehmen und Managern auf. Auch die Versorgung mit der geeigneten Infrastruktur sorgt hierzulande für ein geteiltes Bild. Die einen – stadtnahen Nutzer – verfügen über große Bandbreiten im Internetverkehr. Die anderen – ländlichen Bewohner – müssen noch immer ihr Handy aus dem Fenster halten, wenn sie einen vernünftigen Empfang haben wollen. Hier wiederholt sich die Erfahrung aus der Einführung der Elektrizität: Das Land teilt sich in diejenigen, die über das Licht der Informationstechnik verfügen, und diejenigen, für die das nicht gilt. Die im Dunkeln sieht man nicht, sang Bertolt Brecht (in einem etwas anderen Zusammenhang).

Dass die Beurteilung der digitalen Gaben auch in der Bevölkerung in zwei Lager – aus Befürwortern und Gegnern – teilt, muss da nicht überraschen. Die Beratungsfirma PricewaterhouseCoopers hat jetzt Bundesbürger in einer repräsentativen Befragung nach ihrer Einschätzung der künstlichen Intelligenz befragt und ebenfalls ein in der Hälfte gespaltenes Land vorgefunden. Dass künstliche Intelligenz bei der Bewältigung der drängendsten und komplexesten Fragen der Menschheit – wie dem Klimawandel, demographischen Wandel oder medizinischen Herausforderungen, aber auch Schutz vor Cybercrime – helfen könnte, glaubt jeweils ziemlich exakt die Hälfte der Befragten.

Im Prinzip nehmen sogar neun von zehn Befragten an, dass KI in irgendeiner Form dabei helfen kann, bestehende Probleme zu meistern. Aber das bedeutet noch lange nicht, dass KI-Forschung und KI-Systeme positiv konnotiert sind. 51 Prozent finden, dass KI negative Emotionen auslöse. Und dass künstlich intelligente Systeme künftig Arbeitsplätze vernichten werden, davon sind sogar zwei Drittel der Befragten überzeugt.

Die Umfragen zeigen eine klassische Umbruchsituation, wie sie nur mit der industriellen Revolution verglichen werden kann. Rund um die Dampfmaschine, die Eisenbahn und die Elektrifizierung haben sich seinerzeit viele absurde Mythen etabliert – wie die, dass der Mensch für die hohen Geschwindigkeiten nicht geschaffen sei. Tatsächlich zeigt sich auch heute, dass das Wissen über die Möglichkeiten und Limitierungen der künstlichen Intelligenz durchaus auch Anleihen aus dem Märchenland nimmt. Zwar haben nur sechs Prozent der Bevölkerung den Begriff „künstliche Intelligenz“ noch nie gehört. Doch drei von fünf Bundesbürgern können nicht erklären, worum es sich tatsächlich dabei handelt.

Wir brauchen eine neue Epoche der Aufklärung, in der wir den Menschen nicht nur auf die naturwissenschaftlichen Füße stellen, sondern auch seinen Kopf auf eine informationstechnisch-kognitive Zukunft ausrichten. So wie auch die nächste Bundesregierung den Breitbandausbau auf ihre Fahnen schreiben und die nächsten Fördermilliarden für digitale Projekte bereitstellen wird, muss sie auch beim Bildungsausbau in Deutschland kräftig nachlegen. Derzeit – auch das ist ein aktuelles Ergebnis – fehlen jährlich zwölf Milliarden Euro, wie das Institut der deutschen Wirtschaft in seinem Bildungsmonitor berechnet. Vom Kindergarten bis zur Hochschule besteht durchgehender Investitionsbedarf, um den Herausforderungen des demographischen wie des digitalen Wandels zu begegnen.

Denn das wissen die Bundesbürger über künstliche Intelligenz immerhin: Sie wird komplexere, kreativere, vernetztere, ganzheitlichere Arbeitsplätze schaffen und die Kärrnerarbeit den Maschinen überlassen. Nur zehn Prozent der Befragten glauben, dass künstliche Intelligenz Kreativität hervorbringt. Allerdings traut jeder Vierte der Technologie zu, im Jahr 2025 einen Nummer-Eins-Hit zu schreiben.

Oder sollte sich ereignen, was bereits mit dem Smartphone bei der Verbreitung des mobilen Internets zu beobachten war. Seit Jahren sind es nämlich die Internet-Giganten aus dem Silicon Valley, die dabei helfen, digitale Fertigkeiten einzustudieren. Ihr Erfolgsgeheimnis ist Convenience. Was leicht fällt, wird auch akzeptiert, wenn nicht gar geliebt. Es wäre nicht unwahrscheinlich, wenn dieser „Bildungsauftrag“ auch bei den aktuellen Digitaltechnologien durch Google, Amazon und Apple erfüllt wird. Denn schon ein Drittel der befragten Bundesbürger will zuhause einen digitalen Assistenten haben. Ebenso viele wollen sich durch künstliche Intelligenz bei der Steuererklärung helfen lassen. Und 28 Prozent wollen lieber mit einem KI-System als im Volkshochschulunterricht eine neue Sprache lernen.

Und nicht zuletzt: Den Papierkram im Job würden 22 Prozent doch ganz gerne einem digitalen Assistenten überlassen. Geteiltes Leid ist eben halbes Leid. Auch in Digitalien.

 

Die mobile Revolution

Die mobile Revolution begann vor genau einem Vierteljahrhundert. Sie begann mit der Freischaltung des sogenannten D-Netzes in Deutschland durch Mannesmann mobil und De.Te.Mobil. Die eine überlebte den Erfolg des eigenen Netzes nicht und wurde samt der stahlharten Mutter an Vodafone verkauft. Die andere wurde zu T-Mobile – die Nummer Eins im deutschen Mobilfunknetz mit einem Marktanteil von 35 Prozent und die Nummer Drei im US-Mobilmarkt, die sich Gerüchten zufolge gerade anschickt, mit der Nummer Vier zu fusionieren.

Nein, die wirkliche mobile Revolution begann vor genau einem Jahrzehnt. Sie begann mit dem Verkauf des ersten iPhones in den USA durch Apple und – zunächst exklusiv – durch AT&T. Damit wurde aus dem Handy das multifunktionale Smartphone. Nokia, der damalige Marktführer mit einem Marktanteil von 33 Prozent – hielt das Touch-Ding für eine vorübergehende Modeerscheinung und bezahlte diese Fehleinschätzung mit der Bedeutungslosigkeit. Apple hingegen wurde zum wertvollsten Unternehmen der Welt.

Rund eine Milliarde iPhones hat Apple in diesen zehn Jahren verkauft, etwas mehr als 600 Millionen davon sind aktuell im Gebrauch, was einem Marktanteil von knapp 15 Prozent entspricht. Auch wenn der Anteil im Vergleich zu den „Nachahmer-Produkten“ gering ist, hat Apple eine weltweite Umwälzung des Mobile Computings bewirkt. Hierzulande nutzen laut Bitkom 78 Prozent der Deutschen ein Smartphone, der Rest hängt am guten alten Handy, mit dem man nur telefonieren kann. Die zweitwichtigste Funktion nach Telefonieren ist für 90 Prozent der Smartphone-User die Kamera. Sieben von zehn geben an, das Smartphone zum Musikhören, Nachrichten lesen und als Zugang zu den sozialen Netzen zu benutzen. Das sind die Lebensgewohnheiten, die vor zehn Jahren noch unvorstellbar waren.

Das Smartphone in Gestalt des iPhones könnte die bisher wichtigste Innovation des noch jungen 21. Jahrhunderts und der Wegbereiter des digitalen Wandels sein. Mehr noch als durch das Internet markiert es die Popularisierung des digitalisierten Lebens. Und dieses Leben ist mobil: Allein in Deutschland sind derzeit 130 Millionen SIM-Karten im aktiven Einsatz. Damit hat jeder Deutsche, der der Grundschule entwachsen ist, zwei mobile Endgeräte. Sie sind Navigationssystem, persönlicher Assistent, Nachrichtenbörse, Fotokamera und Album, Musik- und Video-Streamer und Nachschlagewerk in einem – ganz zu schweigen von der Spielebox. Die Vielfalt ist unbegrenzt: Allein im Apple-Store werden zwei Millionen Apps angeboten. In Google Play sind es noch 350.000 mehr. Darunter befinden sich Front-Ends für Unternehmenslösungen, Vergleichsbörsen, eCommerce-Shops, soziale Medien, ePaper, Übersetzungshilfen und und und.

Aber das iPhone war auch eine Revolution des Designs. Kein Gerät hat sich so schmeichelnd in die Hände seiner User hineinbegeben wie das iPhone. Selbst das Auspacken hat Steve Jobs damals zu einem Ereignis gemacht, ja zu einem Erlebnis. Und die jungfräulich weißen Apple Flagshipstores wurden stilgebend für Trend-Marken.

Heute herrscht bei Apple so etwas wie Ruhe vor dem Sturm. Tim Cook, dem Nachfolger des verstorbenen Steve Jobs als CEO, wird von Analysten vorgeworfen, dass das nächste ganz große Ding auf sich warten lasse. Die Apple Watch war‘s nicht. Der HomePod ist auch nur eine Kopie des Amazon Echo. Und alle warten nicht auf das runderneuerte iPhone 7, sondern gleich auf das iPhone 8.

Doch gleichzeitig wabern die Gerüchte um das Projekt Titan, das Apple vor zwei Jahren großartig inszenierte und letztes Jahr ohne viel Aufhebens zusammendampfte. Ob Apple nun an einem vollständig in Eigenregie entwickelten Elektroauto mit Selbstfahrkapazitäten arbeitet oder doch nur an einer Software, mit der Apple anderen Automobilherstellern auf dem Weg in die Fahrautonomie weiterhelfen möchte, ist bis heute im Expertenstreit umstritten. Apple hält sich gewohnheitsmäßig zurück.

Doch vieles spricht dafür, dass am Ende nicht eine reine Software-Lösung herausspringt, sondern eine Komplettlösung aus Hardware, Software und Shared Economy. Apple hat noch immer einen Weg gesucht, ein eigenes, hermetisches Produkt zu entwickeln, das ein komplettes Ökosystem für Apple erzeugt. Für den Wettbewerber bleibt dann nur wieder die Nachahmer-Produktion. Und Apple ist fest davon überzeugt, dass das Auto der Zukunft zusammengebaut werden sollte wie ein Smartphone – von Zulieferbetrieben wie Foxcomm.

Das wäre dann die doppelte Mobilitäts-Revolution – das fahrende Smartphone und das smarte Fahrzeug in einem. Das Autonomobil. Titanisch.