Vor dem HAIpe

In regelmäßigen Abständen liefert uns die Gartner Group Megatrends und Zukunftstechnologien frei Haus, die uns ein anregendes Kribbeln im Rückgrat verursachen, weil sie so unfassbar sind, dass wir nicht glauben können, noch zu Lebzeiten mit ihnen konfrontiert zu werden. Und in der Tat bedeutet dieser Blick in die Kristallkugel der Informationstechnologie auch nach Gartners eigener Definition, dass wir uns nach kurzem Schaudern auch gut wieder den eigentlichen Herausforderungen des digitalen Wandels zuwenden können.

Denn der Hype Cycle, der den Technologieprognosen zugrunde liegt, ist von Gartner im Jahr 2000 in fünf Phasen unterteilt worden: Nach dem Auftauchen der Innovation (I) folgt der Gipfel der überzogenen Erwartungen (II), die schließlich ins Tal der Desillusion (III) führen, worauf sich der sanfte Anstieg der Erleuchtung und realistischen Einschätzung (IV) anschließt, der schließlich auf der Hochebene des produktiven Einsatzes (V) ankommt. Demnach sind die Megatrends und Zukunftstechnologien stets in der Phase der überzogenen Erwartungen.

Aber auch im Hype erkennt man die Richtung, in die sich die Informationstechnologie in einem Zeitraum von fünf bis zehn Jahren bewegen wird. Und der Hype der Stunde schreibt sich mit AI: „Artificial Intelligence Everywhere“ nennen die Gartner-Analysten das, was uns aus neuronalen Netzen und regelbasierten Systemen blüht. Denn während die künstliche Intelligenz auf Servern irgendwo in der Cloud residiert, nutzen alle möglichen mobilen und stationären Anwendungen die AI-Services über APIs – nahtlos und unmerklich.

Und gleich dürfen wir auch wieder neue Hype-Vokabeln lernen:

  • Artificial General Intelligence ist die Allgemeinverfügbarkeit dieser Dienste, die der menschlichen Intelligenz noch recht nahe kommen soll.
  • Deep Learning oder Machine Learning beschreibt die Fähigkeit, mit Hilfe neuronaler Netze aus den Aktivitäten für die Zukunft zu lernen. Einsatzgebiete sind Bild-, Sprach- und Gesichtserkennung.
  • Deep Reinforcement Learning wiederum erweitert die Lernmechanismen um Methoden zur Verstärkung (Belohnung) und Schwächung (Bestrafung) von Impulsen. So wird ein System animiert, sich so weiterzuentwickeln, dass der Anteil an Belohnung möglichst 100 Prozent ist.
  • Cognitive Computing schließlich beschreibt die Simulation menschlicher Denkprozesse, wie sie heute pionierhaft durch IBM Watson erreicht wird. Dabei wird eine Kombination bereits bewährter Technologien angewendet: Data Mining, Mustererkennung, die Verarbeitung natürlicher Sprache und die Nachahmung menschlicher Fähigkeiten wie Lernen, Erinnern, Argumentation und Problemlösung.

Da AI-basierte Systeme nicht nur menschliches Verhalten simulieren, sondern auch menschliches Verhalten zu deuten verstehen, wird die Schnittstelle zwischen Mensch und Maschine immer komfortabler – jedenfalls für den Menschen. Gartner hat auch dafür einen neuen Hype-Text erfunden: Transparently Immersive Experience. Gemeint ist, dass Maschinen immer mehr in die Ausdruckwelt des Menschen eindringen, ihn verstehen und sich verständlich machen. Dazu tragen nicht nur AI-Funktionen wie Sprach- und Gestensteuerung bei, sondern auch neue Darstellungsformen wie Virtual beziehungsweise Augmented Reality oder die Möglichkeit, von praktisch jedem physischen Gegenstand einen digitalen Zwilling zu erzeugen, der Simulationen, Modifikationen, Wartung, Erweiterungen und Weiterentwicklungen erlaubt, ohne dass das Original dafür auseinandergenommen oder auch nur vom Netz oder aus dem Arbeitsprozess genommen werden muss.

Und schließlich glaubt Gartner, dass sich digitale Plattformen für Alles und Jedes in der Cloud etablieren werden. So wird es beispielsweise unter der Wortschöpfung Edge Computing zu Vorschalt-Systemen kommen, die das massive Datenvolumen aus dem Internet der Dinge bündeln, ehe AI-Systeme mit den Daten konfrontiert werden. So ist bereits heute klar, dass ERP-Systeme ein Manufacturing Execution System benötigen, um mit dem gigantischen Datenvolumen aus dem Internet der Dinge fertig zu werden. Ähnliche Plattformen wird es auch in anderen Bereichen geben – beim autonomen Fahren, beim Smart Farming, bei der Telemedizin oder bei Sicherheitssystemen.

Ach ja: 5G, der um das Zehnfache gegenüber der heutigen LTE-Technologie schnellere Mobilfunkstandard, gehört laut Gartner ebenfalls zu den wichtigsten Zukunftstechnologien, auch wenn nach Einschätzung der Gartner-Analysten im Jahr 2020 erst drei Prozent der Anbieter diese zehn Gigabit pro Sekunde schnelle Bandbreite im Programm haben werden. Aber bei allem HAIpe um künstliche Intelligenz – da lassen wir natürlich die neue Bundesregierung nicht vom Haken.

Der Anlern-Kollege

Es ist doch immer wieder die gleiche Leier – diesmal hat sie das Beratungshaus capgemini angestimmt: Während die Unternehmen weltweit künstliche Intelligenz vor allem zur Verbesserung der Kundenbindung und damit der Umsatzsteigerung nutzen, liegt das Hauptmotiv bei den Deutschen in der Produktivitätssteigerung und damit in der Kostensenkung. Das ergab eine aktuelle Befragung von Entscheidern rund um den Globus.

Ähnliche Ergebnisse hörten wir schon zum Thema Digitalisierung im Allgemeinen, Industrie 4.0 im Besonderen, und auch bei Big Data Analytics werden die Erkenntnisse hierzulande bevorzugt zur Prozessoptimierung genutzt. Es ist der altbekannte Reflex, nach dem die Deutschen in bestehenden Märkten immer besser werden und dabei mitunter die neuen Märkte erst spät betreten. Es ist auch die Quelle, aus der die Kritiker der deutschen Wirtschaft ihr Menetekel von der mangelnden Investitionsbereitschaft schöpfen.

Aber im rechten Licht betrachtet, ist es gar nicht mal so verkehrt, mit Hilfe künstlich intelligenter Systeme zunächst einmal die produktiven Prozesse zu verbessern, ehe neue Dinge angegangen werden. Zwar ist der Begriff „künstliche Intelligenz“ älter als das Internet und erst recht älter als das Internet der Dinge. Aber trotzdem steckt die Disziplin auch 60 Jahre nach ihrer Schöpfung durch Marvin Minsky noch immer in den Kinderschuhen. Das gilt zwar für das Internet der Dinge auch – aber diese Disziplin hat ja gerade mal ein Jahrzehnt auf dem digitalen Rücken.

Während einerseits durch kognitive Systeme wie IBMs Watson oder KI-Services aus der Cloud, wie sie mit Microsofts Cortana angeboten werden, derzeit völlig neue Einsatzgebiete entstehen – und dabei einer weiteren Studie zufolge sogar mehr Arbeitsplätze geschaffen als obsolet werden – und andererseits die Verknüpfung von großen Datenmengen mit neuen Analyseverfahren auch einen erheblichen Erkenntnisgewinn bringt, sind es doch vor allem die guten, alten regelbasierten Systeme, die die Produktivitätssteigerungen im Unternehmen bringen. Erste Versuche mit den sogenannten Expertensystemen stammen schon aus den achtziger und neunziger Jahren des vergangenen Jahrhunderts. Aber inzwischen sind die Regel- und Lernkomponenten so ausgefeilt, dass man damit richtig arbeiten kann.

Schätzungen zufolge sind allein in der Buchhaltung – und damit also in jedem einzelnen der 3,3 Millionen Betriebe in Deutschland – 70 bis 90 Prozent der anfallenden Arbeiten Kandidaten für die Ablösung durch KI-Systeme. So können regelmäßig wiederkehrende Buchungsvorgänge leicht durch regelbasierte Systeme bewältigt werden, die auch nach klaren Regeln entscheiden, ob ein Betrag vom Normalen abweicht und deshalb den Eingriff des Buchhalters erfordern. Im Controlling können Auswertungen so regelbasiert gestaltet werden, dass Manager-Dashboards mit wenigen Key Performance Indikatoren einen Überblick über das Tagesgeschehen gewähren.

Und natürlich können KI-Systeme die Daten aus dem Internet der Dinge so auswerten, dass eine notwendige Wartung frühzeitig erkannt werden kann, weil die Präzision der Maschine eine bestimmte Toleranzgrenze überschritten hat. Das Kaufverhalten der Kunden gibt schließlich nach klaren Regeln wichtige Informationen über die zukünftigen Produktionsschwerpunkte und den damit verbundenen Einkauf von Vorprodukten. Dass auch den Kunden selbst genauere Empfehlung für ihr nächstes Kauferlebnis vermittelt werden, ist ebenfalls mit regelbasierten Systemen zu meistern.

Diese KI-Systeme sind nichts anderes als Anlern-Kollegen, die aus einem starren Regelwerk heraus ihre Entscheidungen treffen und zugleich dokumentieren, wie sie zu diesen Ergebnissen gelangt sind. So können die Regeln immer weiter verfeinert, die Entscheidungsmöglichkeiten immer weiter ausgebaut werden. Mit Hilfe von neuronalen Netzwerken ist es darüber hinaus möglich, diesen Anlern-Prozess weiter zu automatisieren, in dem die KI-Systeme in der Lage sind, direkt aus den Ereignissen Regeln abzuleiten, ohne auf die Formulierung durch den menschlichen Mentor zu warten.

Wann immer aber derzeit die Diskussion zur künstlichen Intelligenz aufkommt, wird schnell von ethischen Herausforderungen bei der Entscheidungsfindung gesprochen. Die Frage, ob KI-Systeme jemals ein Bewusstsein entwickeln können, lässt wahre Untergangsszenarien entstehen. Und die Vorstellung, Roboter mit künstlicher Intelligenz würden nicht nur die Arbeitsplätze, sondern gleich auch die Weltherrschaft an sich reißen, ist ebenfalls schnell zitiert.

Dabei sind die heutigen KI-Systeme noch immer vor allem eins: Anlern-Kollegen, die genau das tun, was ihnen eingegeben wurde – und nicht mehr. Es ist unser Bewusstsein und unser Reflex, der ihnen größere geistige Fähigkeiten unterstellt. Dabei sind sie gerade einmal gut genug, uns von langweiligen, langwierigen, immer gleichen und deshalb gesundheitsschädlichen Arbeiten zu befreien. Und das ist doch wohl die edelste Form der Prozessoptimierung.

Old School but Gold School

In Zeiten zunehmender Digitalisierung gelten ERP-Lösungen als Old School. Enterprise Resource Planning – das war einmal revolutionär, als es darum ging, den Abteilungen das Silodenken auszutreiben und den Fluss der Werte im Unternehmen mit dem Fluss der Waren entlang der Supply Chain zu verknüpfen. Seitdem aber haben sich ERP-Systeme zumindest evolutionär weiterentwickelt: sie binden das Kundebeziehungsmanagement (CRM) mit ein, haben Financials und Controlling integriert und sind inzwischen sogar in der Lage, Office-Funktionen einschließlich eMail und Telefonie in den Geschäftsprozess zu übernehmen. Selbst wer den Begriff „Unternehmensressourcen“ weiter fasst als den klassischen Dreiklang von Maschinen, Material und Menschen (pardon! Falsche Reihenfolge, aber irgendwie doch richtig), wird mit ERP-Systemen glücklich. Sie managen Dienstleistungen und Projekte ebenso wie Verträge und Produktlebenszyklen.
Und doch hängt dem ERP-System als Genre etwas Altertümliches an. Hipp sind Webshops oder Big Data Analytics, hopp sind das Internet der Dinge und Social Media. Doch wenn man genau hinschaut, ist auch das nichts anderes als das Management von Unternehmensressourcen – wenn man den Begriff „Ressource“ eben nur weit genug fasst.
Aber genau darum geht es bei der Digitalisierung. Alles ist Ressource und am besten ist es, wenn diese Ressourcen in digitalisierter Form vorliegen. Dann nämlich können sie jederzeit und ohne Medienbrüche weiterverwertet werden. Das nennt man Fungibilität: Daten sind austauschbar – zwischen Funktionen, Geschäftsprozessen, Kooperationen, Märkten. Und sie lassen sich aggregieren und zu neuem Wissen zusammenfassen. Und genau das war und ist die Kernkompetenz von ERP-Systemen, So gesehen waren ERP-Systeme noch nie so modern wie heute.
Wenn sie nicht so alt wären! Das Hauptproblem lange tradierter ERP-Systeme ist ja gerade, dass sie mehrere Technologieschübe hinter sich haben und nach und nach zusätzliche Aufgaben übertragen bekommen haben. Man kann es kaum glauben: aber Software kann altern und verwittern. Viele monolithische ERP-Systeme, die heute den digitalen Fortschritt eher behindern als fördern, beweisen dies.
Das kann sich ändern, wenn man die Funktionen von ERP-Systemen aufbricht und als Services aus der Cloud bezieht. Nach einer jüngsten Marktuntersuchung von Forrester Research findet genau das statt. Dabei sind nicht unbedingt Lösungen gemeint, wie SAP sie vor einem Jahrzehnt mit Business by Design in den Markt gebracht hat. Damals hat SAP einfach ein weiteres monolithisches Software-Gebilde entwickelt, das sich von seinen Altvorderen nur dadurch unterschied, dass es auf einem Server irgendwo auf dem Globus residierte und nicht im firmeneigenen Hochsicherheitskeller.
Gemeint sind vielmehr hybride Software-Architekturen, in denen On-Premises-Lösungen mit zusätzlichen Funktionen – eben den Services – aus der Cloud integriert und zu neuen Lösungseinheiten zusammengefasst werden. Und es gibt eine Reihe von Kandidaten für diese Services, die ERP-Systeme zum nächsten Level der unternehmensweiten Ressourcenverwaltung und -verplanung bringen:
Office-Integration mit ERP ist heute noch keinesfalls selbstverständlich – wie sie beispielsweise bei Microsoft Dynamics365 und Office365 nahtlos funktioniert. Wer aber sein gut funktionierendes ERP-System nicht für eine Büro-Integration opfern möchte, kann heute Cloud-basierte Lösungen komfortabel einbinden.
Eine solche Two-Tier-Architektur bietet sich auch bei der Einbindung von Predictive Analytics auf der Basis von Big-Data-Tools an. Ebenso stehen heute bereits APIs für die Integration von KI-Anwendungen aus der Cloud bereit.
Interessant ist auch, dass Cloud-Ökosysteme nicht nur um die großen ERP-Lösungen von SAP, Microsoft und Oracle entstehen, sondern auch für den CRM-Spezialisten Salesforce zusätzliche Anwendungen auf der Basis der bereitgestellten Toolbox entstehen. FinancialForce und Kenandy sind beispielsweise Anbieter, die nach und nach auch in Europa bekannt werden.
Vor allem aber ergeben sich wesentliche Erweiterungen rund um das Internet der Dinge, mit denen ERP-Systeme weiter ausgebaut werden. Gerade die Zusammenfassung von Daten aus dem Fertigungsgeschehen in einem Manufacturing Execution System kann nur sinnvoll über die Cloud erfolgen. Das MES agiert dann wie ein Vorschalt-System, das die Daten erst einmal bündelt, da die ERP-Systeme nicht unbedingt für die schnelle Verarbeitung von Massendaten bekannt sind.
Digitalisierung ist eben auch die Digitalisierung der Unternehmensressourcen – oder zumindest der Information über die Ressourcen. Das ist die wesentliche Leistung der ERP-Systeme, seit es Materialbedarfsplanungen gibt.
Das ist zwar Old School, ist aber in Zeiten der Digitalisierung durchaus auch Gold School.

So what?

Expertise entsteht aus Experimenten! Der im Grunde richtige Lehrsatz scheint zugleich das Credo der Bildungsexperten zu sein, die ständig an neuen Modellen arbeiten. Kaum hat eine Schulreform erste Ergebnisse gezeigt, wird sie durch die nächste bereits abgelöst. Aber es braucht nun mal Zeit, aus Fakten Wissen und aus Wissen Bildung wachsen zu lassen. Da ist es denn auch nur folgerichtig, dass mehr und mehr Bundesländer wieder zum neunjährigen Gymnasium zurückkehren.

Dass Bildung Zeit braucht, müssen auch die Schulungsexperten der künstlichen Intelligenz und des maschinellen Lernens erkennen. Je komplexer die Aufgabenstellung ist, desto langwieriger ist der Aufbau einer Computing-Umgebung für deren Bewältigung. Inzwischen zeigt sich, dass beispielsweise der schlagzeilenträchtige Sieg von IBMs Watson bei der Quizshow Jeopardy! doch ein relativ leichtes Unterfangen war im Vergleich zu den immensen Aufgaben, mit denen IBMs Auftraggeber die Plattform für das Cognitive Computing betrauen wollen. Neben schönen Erfolgen mehren sich inzwischen Nachrichten über abgebrochene oder gar fehlgeschlagene Projekte.

Um Maschinenstürmern gleich den Wind aus den Segeln zu nehmen: Cognitive Computing und Deep Learning erzeugen keine Bildung – die bleibt uns Menschen vorbehalten. Aber diese und andere Formen der künstlichen Intelligenz revolutionieren die Verfügbarkeit von allokiertem Wissen und die Fähigkeit, aus Daten Informationen zu generieren und in großen Datenmengen Muster zu erkennen, aus denen wiederum Schlussfolgerungen gezogen werden können, die uns bei der Entscheidungsfindung unterstützen.

Das hat inzwischen einen unermesslichen Nutzwert. KI-gestützte Systeme erkennen in Netzwerken auffällige Verhaltensmuster, die auf einen Hackerangriff schließen lassen, und ergreifen Abwehrmaßnahmen. Das Potential allein ist immens: Wie der Hightech-Verband Bitkom jetzt mitteilt, ist allein in den vergangenen zwei Jahren rund die Hälfte der deutschen Unternehmen Ziel eines Angriffs geworden. Der dabei entstandene Schaden summiert sich in den zurückliegenden 24 Monaten auf 53 Milliarden Euro. Und dabei wird die Malware immer komplexer, so dass Virenscanner ohne Zuhilfenahme künstlicher Intelligenz versagen. IBM hat jetzt ihr Wissen um Systeme und Netze aus 30 Jahren Projektgeschichte in einen Datenpool geleitet, aus dem Watson schöpfen soll. Die Datenbank unter dem Namen IBM Data Lake soll bei der Automatisierung der Systemadministration helfen und Hackern das Leben schwer machen.

Ein weiteres Paradebeispiel ist das Scannen von Millionen Seiten an Fachliteratur, die mit Hilfe der Fähigkeiten von IBMs Watson, natürliche Sprache auf ihren Inhalt hin zu analysieren und sich bei der Entschlüsselung der Semantik auch nicht durch syntaktische Sprachfallen wie doppelte Verneinung beirren zu lassen, ausgewertet werden. Ebenso sind KI-Systeme hervorragend geeignet, in Bildern typische Muster zu erkennen und damit Abweichungen von der Norm zu identifizieren. Beide Methoden helfen heute Ärzten und Wissenschaftlern in nahezu allen Disziplinen bei der Forschungsarbeit und der Diagnose von Krankheiten. Wenn auf diese Weise auch nur ein Menschenleben gerettet werden konnte, haben sich die Investitionen bereits gelohnt.

Und die Investitionen sind in der Tat immens: IBM allein hat einen zweistelligen Milliardenbetrag in die Entwicklung der Technologie hinter Watson gesteckt und dabei auch zahlreiche Firmenübernahmen gewagt. Aber die Marktchancen sind keineswegs geringer: Im Jahr 2025 sollen Unternehmenslösungen im Wert von 31 Milliarden Dollar verkauft werden. Darin ist die damit verbundene Wertschöpfung noch gar nicht berücksichtigt. Sie dürfte ein Vielfaches betragen.

Kein Wunder also, dass sich die Konkurrenz um die vordersten Plätze rangelt. Nach Einschätzung von Gartner ist IBMs Watson-Plattform die am weitesten entwickelte, doch Anbieter wie GE Digital, Microsoft, PTC und Amazon Web Services folgen auf dem Fuß. Und Internetgiganten wie Google und Facebook entwickeln eigene KI-Plattformen für den Eigenbedarf. Wie IBM wollen sie vor allem die eigenen Datenmengen gewinnbringend auswerten.

Dabei steckt die KI-Forschung auch 50 Jahre nach ihrer Begründung durch Marvin Minsky eigentlich noch in der Trial-and-Error-Phase – also am Beginn der Bildungskarriere. So verfolgen Cognitive Computing oder Deep Learning unterschiedliche Konzepte des Wissensausbaus und der Analyse, was sie keineswegs zu universell einsetzbaren Hochbegabten macht. Sie verfügen eher über singuläre Fähigkeiten, die sie für bestimmte Aufgaben optimal erscheinen lässt, für andere wie3derum nicht. Das ist eine typische Erkenntnis bei komplexen Unternehmenslösungen: Auch ERP-Systeme lassen sich nicht ohne weiteres heute im Maschinenbau und morgen in der Medizin einsetzen. Sie folgen kontextspezifischen Best Practices und keinen universellen Begabungen.

Das muss nun auch das Bildungssystem rund um die künstliche Intelligenz erkennen. IBMs Watson ist ebenso wenig ein Universalgenie wie es die KI-Angebote der Konkurrenten sind. Dass Googles KI-Ansatz den Weltmeister im Go-Spiel besiegt, bedeutet nicht, dass es jedes Spiel beherrschen kann. Aber es kann fahren (im autonomen Google-Fahrzeug) und antworten (über Android-Smartphones).

IBM wiederum versucht nun, Watsons Fähigkeiten zur Mustererkennung für die Prozesssteuerung im Internet der Dinge zu nutzen. Das wäre ein weiterer Riesenmarkt. Und der wäre auch nötig, denn bislang dürfte Watson trotz lukrativster Verträge mit Fortune-500-Unternehmen kaum mehr eingespielt haben als die Kapitalkosten. Mit IoT könnte sich jedoch ein niedrigschwelliger Bildungssektor anbieten, für den man nicht gerade das KI-Abitur benötigt.

Denn für IBM verrinnt die Zeit. Nicht nur wächst die Konkurrenz. Nach 21. Quartalen mit Umsatzrückgang schmilzt auch die Marktbedeutung. Gut, dass die jüngsten Anstrengungen zur Verschlankung die Kosten so weit senken, dass unverändert Gewinn ausgewiesen werden kann. Sonst heißt es für IBMs Watson in wenigen Quartalen wirklich nur noch: „So what?“