Vor dem HAIpe

In regelmäßigen Abständen liefert uns die Gartner Group Megatrends und Zukunftstechnologien frei Haus, die uns ein anregendes Kribbeln im Rückgrat verursachen, weil sie so unfassbar sind, dass wir nicht glauben können, noch zu Lebzeiten mit ihnen konfrontiert zu werden. Und in der Tat bedeutet dieser Blick in die Kristallkugel der Informationstechnologie auch nach Gartners eigener Definition, dass wir uns nach kurzem Schaudern auch gut wieder den eigentlichen Herausforderungen des digitalen Wandels zuwenden können.

Denn der Hype Cycle, der den Technologieprognosen zugrunde liegt, ist von Gartner im Jahr 2000 in fünf Phasen unterteilt worden: Nach dem Auftauchen der Innovation (I) folgt der Gipfel der überzogenen Erwartungen (II), die schließlich ins Tal der Desillusion (III) führen, worauf sich der sanfte Anstieg der Erleuchtung und realistischen Einschätzung (IV) anschließt, der schließlich auf der Hochebene des produktiven Einsatzes (V) ankommt. Demnach sind die Megatrends und Zukunftstechnologien stets in der Phase der überzogenen Erwartungen.

Aber auch im Hype erkennt man die Richtung, in die sich die Informationstechnologie in einem Zeitraum von fünf bis zehn Jahren bewegen wird. Und der Hype der Stunde schreibt sich mit AI: „Artificial Intelligence Everywhere“ nennen die Gartner-Analysten das, was uns aus neuronalen Netzen und regelbasierten Systemen blüht. Denn während die künstliche Intelligenz auf Servern irgendwo in der Cloud residiert, nutzen alle möglichen mobilen und stationären Anwendungen die AI-Services über APIs – nahtlos und unmerklich.

Und gleich dürfen wir auch wieder neue Hype-Vokabeln lernen:

  • Artificial General Intelligence ist die Allgemeinverfügbarkeit dieser Dienste, die der menschlichen Intelligenz noch recht nahe kommen soll.
  • Deep Learning oder Machine Learning beschreibt die Fähigkeit, mit Hilfe neuronaler Netze aus den Aktivitäten für die Zukunft zu lernen. Einsatzgebiete sind Bild-, Sprach- und Gesichtserkennung.
  • Deep Reinforcement Learning wiederum erweitert die Lernmechanismen um Methoden zur Verstärkung (Belohnung) und Schwächung (Bestrafung) von Impulsen. So wird ein System animiert, sich so weiterzuentwickeln, dass der Anteil an Belohnung möglichst 100 Prozent ist.
  • Cognitive Computing schließlich beschreibt die Simulation menschlicher Denkprozesse, wie sie heute pionierhaft durch IBM Watson erreicht wird. Dabei wird eine Kombination bereits bewährter Technologien angewendet: Data Mining, Mustererkennung, die Verarbeitung natürlicher Sprache und die Nachahmung menschlicher Fähigkeiten wie Lernen, Erinnern, Argumentation und Problemlösung.

Da AI-basierte Systeme nicht nur menschliches Verhalten simulieren, sondern auch menschliches Verhalten zu deuten verstehen, wird die Schnittstelle zwischen Mensch und Maschine immer komfortabler – jedenfalls für den Menschen. Gartner hat auch dafür einen neuen Hype-Text erfunden: Transparently Immersive Experience. Gemeint ist, dass Maschinen immer mehr in die Ausdruckwelt des Menschen eindringen, ihn verstehen und sich verständlich machen. Dazu tragen nicht nur AI-Funktionen wie Sprach- und Gestensteuerung bei, sondern auch neue Darstellungsformen wie Virtual beziehungsweise Augmented Reality oder die Möglichkeit, von praktisch jedem physischen Gegenstand einen digitalen Zwilling zu erzeugen, der Simulationen, Modifikationen, Wartung, Erweiterungen und Weiterentwicklungen erlaubt, ohne dass das Original dafür auseinandergenommen oder auch nur vom Netz oder aus dem Arbeitsprozess genommen werden muss.

Und schließlich glaubt Gartner, dass sich digitale Plattformen für Alles und Jedes in der Cloud etablieren werden. So wird es beispielsweise unter der Wortschöpfung Edge Computing zu Vorschalt-Systemen kommen, die das massive Datenvolumen aus dem Internet der Dinge bündeln, ehe AI-Systeme mit den Daten konfrontiert werden. So ist bereits heute klar, dass ERP-Systeme ein Manufacturing Execution System benötigen, um mit dem gigantischen Datenvolumen aus dem Internet der Dinge fertig zu werden. Ähnliche Plattformen wird es auch in anderen Bereichen geben – beim autonomen Fahren, beim Smart Farming, bei der Telemedizin oder bei Sicherheitssystemen.

Ach ja: 5G, der um das Zehnfache gegenüber der heutigen LTE-Technologie schnellere Mobilfunkstandard, gehört laut Gartner ebenfalls zu den wichtigsten Zukunftstechnologien, auch wenn nach Einschätzung der Gartner-Analysten im Jahr 2020 erst drei Prozent der Anbieter diese zehn Gigabit pro Sekunde schnelle Bandbreite im Programm haben werden. Aber bei allem HAIpe um künstliche Intelligenz – da lassen wir natürlich die neue Bundesregierung nicht vom Haken.

Yes, we could

Auf dem Bahnhof Köln Messe/Deutz war diese Woche wieder Deutschlands Zukunft zu besichtigen: adipöse Typen mit Haarzopf, bleiche Schlackse mit leichten Verhaltensauffälligkeiten, hyperaktive Pubertiere mit Energy Drinks – sie kamen zurück von der Gamescom, der inzwischen größten Messe für Computerspiele gleich nebenan. Sie unterschieden sich nicht nur im Aussehen und im herdenhaften Verhalten von den anderen Reisenden an den Gleisen – sie waren auch die einzigen, die nicht lauthals über die 45-minütige Verspätung des ICE aus Richtung Düsseldorf schimpften.

Kein Wunder: Viele von ihnen waren zuvor schon bereit gewesen, rund drei Stunden Wartezeit in Kauf zu nehmen, um dann 20 kurze Minuten bislang nicht veröffentlichtes Spielematerial ausprobieren zu dürfen. Die Attraktivität von Computer- und Online-Spielen hat so stark zugenommen, dass sich die Branche inzwischen zum tragenden Element der Software-Szene hierzulande stilisiert. Mehr als eine Milliarde Euro Umsatz hat sie im ersten Halbjahr 2017 reingespielt, rund die Hälfte davon durch Software-Käufe, der Rest sind Abonnements, Gebühren und Mikroumsätze für virtuelle Güter. Und weil das Ökosystem dahinter so interessant ist, ruft der Bundesverband Interaktive Unterhaltungssoftware auch gleich nach Subventionen, um mit den internationalen Größen mithalten zu können – getreu dem Motto: wir könnten ja, wenn man uns ließe.

Offensichtlich ist auch die Gaming-Branche von jenem Staats-Virus infiziert, der in vielen Wachstumssegmenten zu einem „Yes, we could“ führt. Wir bleiben hinter unseren Möglichkeiten, weil der Staat entweder nicht richtig subventioniert, die Falschen subventioniert oder zu wenig interveniert und investiert.

Wie selbstverständlich gilt beispielsweise der Breitbandausbau als politische Verantwortung, obwohl es doch zunächst einmal um die Schaffung einer Infrastruktur geht, die die Geschäftsgrundlage der Telekommunikations-Betreiber darstellt. Aber gleichzeitig geht es um Wirtschaftsförderung für den Industriestandort Deutschland. Während die Bundesregierung kaum noch das Ziel erreichen wird, 50 Mbit-Leitungen flächendeckend bis 2018 bereitzustellen, wächst der Bedarf bereits nach 500 Mbit-Geschwindigkeiten, damit das Internet der Dinge, die Telemedizin, das autonom fahrende Auto Wirklichkeit werden können.

Aber auch Autobahnen stellen ja die Geschäftsgrundlage von Transportunternehmen dar, ohne dass sich die Logistiker anders als über die Lkw-Maut daran beteiligen. Public-Private-Partnership hat im Straßenbau noch immer Seltenheitswert. Aber dieses Modell wäre ganz grundsätzlich ein gangbarer Weg für den Ausbau der Infrastrukturen im Land – nicht nur auf dem Land, zu Wasser und in der Luft, sondern auch im Cyberraum.

Denn es hapert überall – nicht nur am Bahnhof Köln Messe/Deutz, wo die Reisenden die Fernwirkungen des Rastatter Lochs, der Baustellenpanne an einer der am meisten befahrenen Bahntrassen Europas, zu spüren bekommen. Wer nur ein wenig weiter nördlich und südlich schaut, findet zwei Rheinbrücken – in Leverkusen und Duisburg – in einem solch maroden Zustand, dass nur noch eingeschränkter Lastverkehr darüber geleitet werden darf. Die Schiersteiner Brücke zwischen den Landeshauptstädten Mainz und Wiesbaden war sogar total gesperrt.

Und auch hier hat der Staats-Virus längst zugeschlagen: Denn zwar sieht der aktuelle Verkehrswegeplan bis zum Jahr 2030 zusammengenommen 142 Milliarden Euro für den Erhalt bestehender Verkehrsinfrastrukturen vor, aber Experten sagen schon jetzt, dass damit nicht einmal der bestehende Sanierungsrückstau bewältigt werden kann. Und viele Bauprojekte benötigen von der Beschlussfassung bis zum ersten Spatenstich ein gutes Jahrzehnt, wenn sie wegen des selbst verursachten Personalmangels in den Behörden überhaupt in Angriff genommen werden. Von den drei Milliarden Euro beispielsweise, die für die Behebung von Hochwasserschäden bereitgestellt worden waren, ist nicht einmal ein Drittel tatsächlich abgerufen worden. Wir würden ja, wenn wir könnten, heißt es aus den Ämtern.

Man muss gar nicht an Bauprojekte wie den Berliner Flughafen und den Stuttgarter Hauptbahnhof erinnern, um Mahnmale für die deutsche Infrastrukturmisere zu finden. Jede Kommune kämpft mit ihren eigenen Projekten, für die entweder die Mittel fehlen oder bei denen die bereitgestellten Mittel wegen Planungsverzug nicht abgerufen werden können. Man hört Karl Valentin in seinem Grab meckern: „Mögen hätte ich schon wollen, aber dürfen habe ich mich nicht getraut.“

Tragisch wird das alles noch dadurch, dass sich mit dem Sanierungsrückstau auch ein Innovationsrückstau verbindet. Wir könnten das Bahnnetz weniger anfällig für Störungen machen, Verkehrsleitsysteme smarter, Breitbandverbindungen flächendeckend schnell, Planungsvorhaben beschleunigen, Bürokratie verschlanken… Der stärksten Wirtschaftsnation Europas fehlt es dazu nicht an Geld. Aber ihr schwinden die Kräfte – vor allem Fachkräfte.

Wenn der digitale Wandel gelingen soll, dann benötigen wir eine Infrastruktur, auf der die neuen Geschäftsmodelle aufsetzen können. Ihre Bereitstellung ist nicht allein Aufgabe des Staates. Jetzt haben auch die Game-Entwickler das bewährte Modell der Wirtschaftsverbände übernommen, nach dem Staat zu rufen, um die eigenen Versäumnisse auszubügeln. Das Gleiche haben die Banken in der Finanzkrise und die Automobilindustrie in der Dieselkrise getan. Doch dieses Modell führt nicht zu einem herzhaften „Yes, we can“, sondern bislang leider nur zu einem verzagten „Yes, we could“.

 

 

Digitalien – Geteiltes Land

Eine Studie der Management-Schule WHU hat jetzt gezeigt, dass selbst unter den Unternehmen in Deutschland, die unter starkem Modernisierungsdruck stehen, die Formulierung einer ganzheitlichen Digitalstrategie die Ausnahme ist. Lediglich 20 Prozent der Befragten sehen sich so weit. Die Hälfte der Unternehmen hat immerhin die Zuständigkeiten für eine Strategie der digitalen Innovationen und Geschäftsmodelle benannt. Ebenfalls die Hälfte sieht sich immer noch zu schlecht über die Themen und Technologien der digitalen Innovation informiert. Und ebenfalls 50 Prozent – vermutlich die gleiche Hälfte – versteht das Thema Digitalisierung vor allem als Angriffspunkt für weitere Rationalisierungsschritte und zur Kostenersparnis.

Deutschland, geteiltes Digitalland. Dieser Eindruck drängt sich nicht nur bei der Befragung von Unternehmen und Managern auf. Auch die Versorgung mit der geeigneten Infrastruktur sorgt hierzulande für ein geteiltes Bild. Die einen – stadtnahen Nutzer – verfügen über große Bandbreiten im Internetverkehr. Die anderen – ländlichen Bewohner – müssen noch immer ihr Handy aus dem Fenster halten, wenn sie einen vernünftigen Empfang haben wollen. Hier wiederholt sich die Erfahrung aus der Einführung der Elektrizität: Das Land teilt sich in diejenigen, die über das Licht der Informationstechnik verfügen, und diejenigen, für die das nicht gilt. Die im Dunkeln sieht man nicht, sang Bertolt Brecht (in einem etwas anderen Zusammenhang).

Dass die Beurteilung der digitalen Gaben auch in der Bevölkerung in zwei Lager – aus Befürwortern und Gegnern – teilt, muss da nicht überraschen. Die Beratungsfirma PricewaterhouseCoopers hat jetzt Bundesbürger in einer repräsentativen Befragung nach ihrer Einschätzung der künstlichen Intelligenz befragt und ebenfalls ein in der Hälfte gespaltenes Land vorgefunden. Dass künstliche Intelligenz bei der Bewältigung der drängendsten und komplexesten Fragen der Menschheit – wie dem Klimawandel, demographischen Wandel oder medizinischen Herausforderungen, aber auch Schutz vor Cybercrime – helfen könnte, glaubt jeweils ziemlich exakt die Hälfte der Befragten.

Im Prinzip nehmen sogar neun von zehn Befragten an, dass KI in irgendeiner Form dabei helfen kann, bestehende Probleme zu meistern. Aber das bedeutet noch lange nicht, dass KI-Forschung und KI-Systeme positiv konnotiert sind. 51 Prozent finden, dass KI negative Emotionen auslöse. Und dass künstlich intelligente Systeme künftig Arbeitsplätze vernichten werden, davon sind sogar zwei Drittel der Befragten überzeugt.

Die Umfragen zeigen eine klassische Umbruchsituation, wie sie nur mit der industriellen Revolution verglichen werden kann. Rund um die Dampfmaschine, die Eisenbahn und die Elektrifizierung haben sich seinerzeit viele absurde Mythen etabliert – wie die, dass der Mensch für die hohen Geschwindigkeiten nicht geschaffen sei. Tatsächlich zeigt sich auch heute, dass das Wissen über die Möglichkeiten und Limitierungen der künstlichen Intelligenz durchaus auch Anleihen aus dem Märchenland nimmt. Zwar haben nur sechs Prozent der Bevölkerung den Begriff „künstliche Intelligenz“ noch nie gehört. Doch drei von fünf Bundesbürgern können nicht erklären, worum es sich tatsächlich dabei handelt.

Wir brauchen eine neue Epoche der Aufklärung, in der wir den Menschen nicht nur auf die naturwissenschaftlichen Füße stellen, sondern auch seinen Kopf auf eine informationstechnisch-kognitive Zukunft ausrichten. So wie auch die nächste Bundesregierung den Breitbandausbau auf ihre Fahnen schreiben und die nächsten Fördermilliarden für digitale Projekte bereitstellen wird, muss sie auch beim Bildungsausbau in Deutschland kräftig nachlegen. Derzeit – auch das ist ein aktuelles Ergebnis – fehlen jährlich zwölf Milliarden Euro, wie das Institut der deutschen Wirtschaft in seinem Bildungsmonitor berechnet. Vom Kindergarten bis zur Hochschule besteht durchgehender Investitionsbedarf, um den Herausforderungen des demographischen wie des digitalen Wandels zu begegnen.

Denn das wissen die Bundesbürger über künstliche Intelligenz immerhin: Sie wird komplexere, kreativere, vernetztere, ganzheitlichere Arbeitsplätze schaffen und die Kärrnerarbeit den Maschinen überlassen. Nur zehn Prozent der Befragten glauben, dass künstliche Intelligenz Kreativität hervorbringt. Allerdings traut jeder Vierte der Technologie zu, im Jahr 2025 einen Nummer-Eins-Hit zu schreiben.

Oder sollte sich ereignen, was bereits mit dem Smartphone bei der Verbreitung des mobilen Internets zu beobachten war. Seit Jahren sind es nämlich die Internet-Giganten aus dem Silicon Valley, die dabei helfen, digitale Fertigkeiten einzustudieren. Ihr Erfolgsgeheimnis ist Convenience. Was leicht fällt, wird auch akzeptiert, wenn nicht gar geliebt. Es wäre nicht unwahrscheinlich, wenn dieser „Bildungsauftrag“ auch bei den aktuellen Digitaltechnologien durch Google, Amazon und Apple erfüllt wird. Denn schon ein Drittel der befragten Bundesbürger will zuhause einen digitalen Assistenten haben. Ebenso viele wollen sich durch künstliche Intelligenz bei der Steuererklärung helfen lassen. Und 28 Prozent wollen lieber mit einem KI-System als im Volkshochschulunterricht eine neue Sprache lernen.

Und nicht zuletzt: Den Papierkram im Job würden 22 Prozent doch ganz gerne einem digitalen Assistenten überlassen. Geteiltes Leid ist eben halbes Leid. Auch in Digitalien.

 

So what?

Expertise entsteht aus Experimenten! Der im Grunde richtige Lehrsatz scheint zugleich das Credo der Bildungsexperten zu sein, die ständig an neuen Modellen arbeiten. Kaum hat eine Schulreform erste Ergebnisse gezeigt, wird sie durch die nächste bereits abgelöst. Aber es braucht nun mal Zeit, aus Fakten Wissen und aus Wissen Bildung wachsen zu lassen. Da ist es denn auch nur folgerichtig, dass mehr und mehr Bundesländer wieder zum neunjährigen Gymnasium zurückkehren.

Dass Bildung Zeit braucht, müssen auch die Schulungsexperten der künstlichen Intelligenz und des maschinellen Lernens erkennen. Je komplexer die Aufgabenstellung ist, desto langwieriger ist der Aufbau einer Computing-Umgebung für deren Bewältigung. Inzwischen zeigt sich, dass beispielsweise der schlagzeilenträchtige Sieg von IBMs Watson bei der Quizshow Jeopardy! doch ein relativ leichtes Unterfangen war im Vergleich zu den immensen Aufgaben, mit denen IBMs Auftraggeber die Plattform für das Cognitive Computing betrauen wollen. Neben schönen Erfolgen mehren sich inzwischen Nachrichten über abgebrochene oder gar fehlgeschlagene Projekte.

Um Maschinenstürmern gleich den Wind aus den Segeln zu nehmen: Cognitive Computing und Deep Learning erzeugen keine Bildung – die bleibt uns Menschen vorbehalten. Aber diese und andere Formen der künstlichen Intelligenz revolutionieren die Verfügbarkeit von allokiertem Wissen und die Fähigkeit, aus Daten Informationen zu generieren und in großen Datenmengen Muster zu erkennen, aus denen wiederum Schlussfolgerungen gezogen werden können, die uns bei der Entscheidungsfindung unterstützen.

Das hat inzwischen einen unermesslichen Nutzwert. KI-gestützte Systeme erkennen in Netzwerken auffällige Verhaltensmuster, die auf einen Hackerangriff schließen lassen, und ergreifen Abwehrmaßnahmen. Das Potential allein ist immens: Wie der Hightech-Verband Bitkom jetzt mitteilt, ist allein in den vergangenen zwei Jahren rund die Hälfte der deutschen Unternehmen Ziel eines Angriffs geworden. Der dabei entstandene Schaden summiert sich in den zurückliegenden 24 Monaten auf 53 Milliarden Euro. Und dabei wird die Malware immer komplexer, so dass Virenscanner ohne Zuhilfenahme künstlicher Intelligenz versagen. IBM hat jetzt ihr Wissen um Systeme und Netze aus 30 Jahren Projektgeschichte in einen Datenpool geleitet, aus dem Watson schöpfen soll. Die Datenbank unter dem Namen IBM Data Lake soll bei der Automatisierung der Systemadministration helfen und Hackern das Leben schwer machen.

Ein weiteres Paradebeispiel ist das Scannen von Millionen Seiten an Fachliteratur, die mit Hilfe der Fähigkeiten von IBMs Watson, natürliche Sprache auf ihren Inhalt hin zu analysieren und sich bei der Entschlüsselung der Semantik auch nicht durch syntaktische Sprachfallen wie doppelte Verneinung beirren zu lassen, ausgewertet werden. Ebenso sind KI-Systeme hervorragend geeignet, in Bildern typische Muster zu erkennen und damit Abweichungen von der Norm zu identifizieren. Beide Methoden helfen heute Ärzten und Wissenschaftlern in nahezu allen Disziplinen bei der Forschungsarbeit und der Diagnose von Krankheiten. Wenn auf diese Weise auch nur ein Menschenleben gerettet werden konnte, haben sich die Investitionen bereits gelohnt.

Und die Investitionen sind in der Tat immens: IBM allein hat einen zweistelligen Milliardenbetrag in die Entwicklung der Technologie hinter Watson gesteckt und dabei auch zahlreiche Firmenübernahmen gewagt. Aber die Marktchancen sind keineswegs geringer: Im Jahr 2025 sollen Unternehmenslösungen im Wert von 31 Milliarden Dollar verkauft werden. Darin ist die damit verbundene Wertschöpfung noch gar nicht berücksichtigt. Sie dürfte ein Vielfaches betragen.

Kein Wunder also, dass sich die Konkurrenz um die vordersten Plätze rangelt. Nach Einschätzung von Gartner ist IBMs Watson-Plattform die am weitesten entwickelte, doch Anbieter wie GE Digital, Microsoft, PTC und Amazon Web Services folgen auf dem Fuß. Und Internetgiganten wie Google und Facebook entwickeln eigene KI-Plattformen für den Eigenbedarf. Wie IBM wollen sie vor allem die eigenen Datenmengen gewinnbringend auswerten.

Dabei steckt die KI-Forschung auch 50 Jahre nach ihrer Begründung durch Marvin Minsky eigentlich noch in der Trial-and-Error-Phase – also am Beginn der Bildungskarriere. So verfolgen Cognitive Computing oder Deep Learning unterschiedliche Konzepte des Wissensausbaus und der Analyse, was sie keineswegs zu universell einsetzbaren Hochbegabten macht. Sie verfügen eher über singuläre Fähigkeiten, die sie für bestimmte Aufgaben optimal erscheinen lässt, für andere wie3derum nicht. Das ist eine typische Erkenntnis bei komplexen Unternehmenslösungen: Auch ERP-Systeme lassen sich nicht ohne weiteres heute im Maschinenbau und morgen in der Medizin einsetzen. Sie folgen kontextspezifischen Best Practices und keinen universellen Begabungen.

Das muss nun auch das Bildungssystem rund um die künstliche Intelligenz erkennen. IBMs Watson ist ebenso wenig ein Universalgenie wie es die KI-Angebote der Konkurrenten sind. Dass Googles KI-Ansatz den Weltmeister im Go-Spiel besiegt, bedeutet nicht, dass es jedes Spiel beherrschen kann. Aber es kann fahren (im autonomen Google-Fahrzeug) und antworten (über Android-Smartphones).

IBM wiederum versucht nun, Watsons Fähigkeiten zur Mustererkennung für die Prozesssteuerung im Internet der Dinge zu nutzen. Das wäre ein weiterer Riesenmarkt. Und der wäre auch nötig, denn bislang dürfte Watson trotz lukrativster Verträge mit Fortune-500-Unternehmen kaum mehr eingespielt haben als die Kapitalkosten. Mit IoT könnte sich jedoch ein niedrigschwelliger Bildungssektor anbieten, für den man nicht gerade das KI-Abitur benötigt.

Denn für IBM verrinnt die Zeit. Nicht nur wächst die Konkurrenz. Nach 21. Quartalen mit Umsatzrückgang schmilzt auch die Marktbedeutung. Gut, dass die jüngsten Anstrengungen zur Verschlankung die Kosten so weit senken, dass unverändert Gewinn ausgewiesen werden kann. Sonst heißt es für IBMs Watson in wenigen Quartalen wirklich nur noch: „So what?“