AI wartet auf die Killer-Anwendung

Die Diskussion um Artificial Intelligence nimmt mitunter Züge der großen Ausspähangst vor 30 Jahren an, als ein großer Teil der deutschen Bevölkerung die Teilnahme an einer Volkszählung rundweg ablehnte: „Lass dich nicht erfassen“, hieß der Slogan, unter dem die Gegner die Herausgabe ihrer persönlichen Daten verweigerten. Drei Jahrzehnte später geben ihre Kinder praktisch alles Persönliche preis, wenn es dafür Dienste aus der Cloud „für umme“ gibt. Doch umsonst ist nichts – es ist höchstens vergebens…

Jetzt zeigt sich die gleiche paranoide Haltung gegenüber Systemen der künstlichen Intelligenz – allerdings finden sich Widerstand und Unterstützung nun nicht mehr in zwei Generationen, sondern in ein und derselben Personengruppe. Nach einer weltweiten Befragung des Spezialisten für Kundenbindung, Pegasystems, unter 6000 Konsumenten fühlt sich je ein Drittel wohl beziehungsweise unwohl beim Gedanken an künstliche Intelligenz, das letzte Drittel ist unbestimmt. Dabei, das hat die Studie detailliert herausgearbeitet, glauben mehr als zwei Drittel der Befragten genau zu wissen, was es mit der künstlichen Intelligenz auf sich hat.

Das wäre ein erstaunlicher Bildungserfolg angesichts der Tatsache, dass es sich bei der künstlichen Intelligenz um eines der komplexesten Technologiethemen unserer Zeit handelt. Und tatsächlich mussten die Studienbetreiber feststellen, dass die Konsumenten auch einfachste KI-Anwendungen nicht als solche identifizierten: dazu gehören die Kauf- und Lesevorschläge von Amazon und Facebook, die Werbeeinblendungen bei Google oder die Sprachassistenten von Microsoft und Apple. KI ist in der breiten Bevölkerung offensichtlich immer noch mit Großcomputern und Robotern, mit Überwachung und Bevormundung verknüpft. Tatsächlich sind sich zwei Drittel der Konsumenten nicht bewusst, mit KI in Verbindung gekommen zu sein, obwohl vier von fünf Befragten Endgeräte im Einsatz haben, die ohne KI gar nicht auskommen. Ein Viertel fürchtet sogar ganz konkret die Versklavung der Menschheit durch intelligente Maschinen.

Doch umgekehrt können sich 34 Prozent der Konsumenten vorstellen, beim Einkaufen von KI-Systemen unterstützt zu werden – tatsächlich ist dies aber bei 80 Prozent der Fall. Immerhin 27 Prozent können sich KI im Gesundheitswesen vorstellen – hier sind es tatsächlich derzeit noch weniger als zehn Prozent der Anwendungsfälle. Und ein Viertel stellt sich den KI-Einsatz in der Telekommunikation vor – in Wirklichkeit sind es hier wohl eher schon 99 Prozent der Situationen. Finanzberatung würde jeder Fünfte durch KI dulden – das entspricht auch durchaus der heutigen Einsatzdichte.

Tatsächlich handelt es sich hierbei um genau die Handlungsfelder, in denen Unternehmen derzeit am intensivsten in KI-Systeme investieren. Nach einer Befragung des Marktforschungsinstituts Vanson Bourne engagieren sich bereits 80 Prozent der 200 befragten globalen Konzerne bei KI. Und jeder dritte Entscheider ist davon überzeugt, das Investment in den nächsten drei Jahren sogar noch erhöhen zu müssen. Dabei ist es bemerkenswert, dass europäische Unternehmen im Unterschied zum weltweiten Trend den Industriesektor hinter ITK und B2B-Services an dritter Stelle sehen, noch vor Konsumer-Services und Finanzdienstleistungen.

Dabei erwarten die künftigen KI-Anwender höhere Renditen durch Umsatzsteigerungen und Kostenersparnisse. Die Umsätze sollen durch schnellere Produktentwicklung, verbesserten Kundenservice und eine optimierte Lieferkette entstehen. Für jeden heute investierten Euro erwarten die Anwender einen Euro innerhalb der nächsten fünf Jahre zurück. Innerhalb der nächsten zehn Jahre sollen es sogar 1,87 Euro sein.

Interessant ist dabei, dass neben den klassischen Verdächtigen, also Hinderungsgründen wie mangelnder IT-Infrastruktur, zu wenig Personal und Know-how, zu knappen Budgets oder zu komplizierten Strategien oder Richtlinien bereits an fünfter Stelle ein Newcomer unter den Inhibitoren auftaucht: ein zu schwacher oder zu schwammiger Business Case für die Einführung von KI-Technologien.

Da schließt sich der Kreis. Unternehmen und Konsumenten fehlt es derzeit noch an konkreten Vorstellungen, was genau mit KI eigentlich geändert werden soll bzw. kann.

Dass sie nahezu jeden Lebensbereich verändern kann, darüber sind sich alle einig – nur an den konkreten Anwendungsfällen scheint es zu fehlen.

Das haben auch die KI-Anbieter inzwischen erkannt. Microsoft beispielsweise, das wie kaum ein anderer Anbieter seine Cloud-Services durch KI-Funktionen anreichert, steht vor der Riesenaufgabe, seinen 64.000 Cloud-Partnern – und den gut 100.000 weltweit, die es noch werden wollen – die Vision vom KI-Geschäft erst noch einzuimpfen. Denn allzu lange war künstliche Intelligenz etwas ausschließlich für Forschungslabore und Entwicklerbüros. Dass Artificial Intelligence nun für jedermann auf dem Smartphone, Tablet und aus der Cloud als Dienst zur Verfügung stehen kann – beflügelt leider noch nicht die Phantasie. AI – ein Alleskönner wartet auf seine Killer-Anwendung. Dabei ist AI doch schon selbst die Killeranwendung, die alles verändert?

Microsoft und seine Partner müssen diese Frage genauso lösen wie alle anderen großen Anbieter und deren Partner sowie die vielen Startups, die bereits heute rund um diese Technologie versuchen Lösungen aus dem Boden zu stampfen.

 

Vor dem HAIpe

In regelmäßigen Abständen liefert uns die Gartner Group Megatrends und Zukunftstechnologien frei Haus, die uns ein anregendes Kribbeln im Rückgrat verursachen, weil sie so unfassbar sind, dass wir nicht glauben können, noch zu Lebzeiten mit ihnen konfrontiert zu werden. Und in der Tat bedeutet dieser Blick in die Kristallkugel der Informationstechnologie auch nach Gartners eigener Definition, dass wir uns nach kurzem Schaudern auch gut wieder den eigentlichen Herausforderungen des digitalen Wandels zuwenden können.

Denn der Hype Cycle, der den Technologieprognosen zugrunde liegt, ist von Gartner im Jahr 2000 in fünf Phasen unterteilt worden: Nach dem Auftauchen der Innovation (I) folgt der Gipfel der überzogenen Erwartungen (II), die schließlich ins Tal der Desillusion (III) führen, worauf sich der sanfte Anstieg der Erleuchtung und realistischen Einschätzung (IV) anschließt, der schließlich auf der Hochebene des produktiven Einsatzes (V) ankommt. Demnach sind die Megatrends und Zukunftstechnologien stets in der Phase der überzogenen Erwartungen.

Aber auch im Hype erkennt man die Richtung, in die sich die Informationstechnologie in einem Zeitraum von fünf bis zehn Jahren bewegen wird. Und der Hype der Stunde schreibt sich mit AI: „Artificial Intelligence Everywhere“ nennen die Gartner-Analysten das, was uns aus neuronalen Netzen und regelbasierten Systemen blüht. Denn während die künstliche Intelligenz auf Servern irgendwo in der Cloud residiert, nutzen alle möglichen mobilen und stationären Anwendungen die AI-Services über APIs – nahtlos und unmerklich.

Und gleich dürfen wir auch wieder neue Hype-Vokabeln lernen:

  • Artificial General Intelligence ist die Allgemeinverfügbarkeit dieser Dienste, die der menschlichen Intelligenz noch recht nahe kommen soll.
  • Deep Learning oder Machine Learning beschreibt die Fähigkeit, mit Hilfe neuronaler Netze aus den Aktivitäten für die Zukunft zu lernen. Einsatzgebiete sind Bild-, Sprach- und Gesichtserkennung.
  • Deep Reinforcement Learning wiederum erweitert die Lernmechanismen um Methoden zur Verstärkung (Belohnung) und Schwächung (Bestrafung) von Impulsen. So wird ein System animiert, sich so weiterzuentwickeln, dass der Anteil an Belohnung möglichst 100 Prozent ist.
  • Cognitive Computing schließlich beschreibt die Simulation menschlicher Denkprozesse, wie sie heute pionierhaft durch IBM Watson erreicht wird. Dabei wird eine Kombination bereits bewährter Technologien angewendet: Data Mining, Mustererkennung, die Verarbeitung natürlicher Sprache und die Nachahmung menschlicher Fähigkeiten wie Lernen, Erinnern, Argumentation und Problemlösung.

Da AI-basierte Systeme nicht nur menschliches Verhalten simulieren, sondern auch menschliches Verhalten zu deuten verstehen, wird die Schnittstelle zwischen Mensch und Maschine immer komfortabler – jedenfalls für den Menschen. Gartner hat auch dafür einen neuen Hype-Text erfunden: Transparently Immersive Experience. Gemeint ist, dass Maschinen immer mehr in die Ausdruckwelt des Menschen eindringen, ihn verstehen und sich verständlich machen. Dazu tragen nicht nur AI-Funktionen wie Sprach- und Gestensteuerung bei, sondern auch neue Darstellungsformen wie Virtual beziehungsweise Augmented Reality oder die Möglichkeit, von praktisch jedem physischen Gegenstand einen digitalen Zwilling zu erzeugen, der Simulationen, Modifikationen, Wartung, Erweiterungen und Weiterentwicklungen erlaubt, ohne dass das Original dafür auseinandergenommen oder auch nur vom Netz oder aus dem Arbeitsprozess genommen werden muss.

Und schließlich glaubt Gartner, dass sich digitale Plattformen für Alles und Jedes in der Cloud etablieren werden. So wird es beispielsweise unter der Wortschöpfung Edge Computing zu Vorschalt-Systemen kommen, die das massive Datenvolumen aus dem Internet der Dinge bündeln, ehe AI-Systeme mit den Daten konfrontiert werden. So ist bereits heute klar, dass ERP-Systeme ein Manufacturing Execution System benötigen, um mit dem gigantischen Datenvolumen aus dem Internet der Dinge fertig zu werden. Ähnliche Plattformen wird es auch in anderen Bereichen geben – beim autonomen Fahren, beim Smart Farming, bei der Telemedizin oder bei Sicherheitssystemen.

Ach ja: 5G, der um das Zehnfache gegenüber der heutigen LTE-Technologie schnellere Mobilfunkstandard, gehört laut Gartner ebenfalls zu den wichtigsten Zukunftstechnologien, auch wenn nach Einschätzung der Gartner-Analysten im Jahr 2020 erst drei Prozent der Anbieter diese zehn Gigabit pro Sekunde schnelle Bandbreite im Programm haben werden. Aber bei allem HAIpe um künstliche Intelligenz – da lassen wir natürlich die neue Bundesregierung nicht vom Haken.

Neues Jobprofil: Der IT-Erklärbär

Die Aussichten könnten besser kaum sein: mehr als die Hälfte der deutschen Anwenderunternehmen plant, das Budget im kommenden Jahr mit Blick auf den digitalen Wandel aufzustocken. Und immerhin jeder dritte will die Ausgaben wenigstens auf der bisherigen Höhe belassen. Das klingt schon deshalb ermutigend, weil die meisten Unternehmen in Investitionen in das Cloud Computing immer noch und vor allem Kostensenkungsmaßnahmen erkennen. Dass Cloud Computing sich aber inzwischen vom reinen Outsourcing-Modell zur hybriden Architektur für Mehrwert-Dienste wie Big Data, Künstliche Intelligenz oder mobile Computing entwickelt, bricht sich erst allmählich in den Köpfen der Anwender Bahn.

Dort herrschen vielmehr „beängstigende Verständnislücken“, wie sie jetzt der internationale Lösungsanbieter Epicor in einer groß angelegten Studie beobachtet hat. Immerhin eine von drei Führungskräften in Deutschland hat nach eigenem Bekunden zwar schon etwas von „Big Data“ oder „Cloud“ beziehungsweise „Software as a Service“ gehört, verbindet mit den Begriffen aber keine konkrete Vorstellung. Darüber hinaus gaben 36 Prozent zu, dass sie nicht mit dem „Internet of Things“ vertraut sind, für „3D-Druck“ liegt dieser Wert bei 44 Prozent, bei „Machine Learning“ bei 40 Prozent.

Der Wettlauf in die Digitalisierung scheint tatsächlich viele Anwender zu überfordern. Es geht nicht allein darum, auf der Höhe der technischen Entwicklung zu bleiben. Ebenso wichtig – wenn nicht wichtiger – ist es, die Möglichkeiten, die diese Technologien bieten, auch intern zu kommunizieren. Denn schließlich geht es darum, mit Hilfe von Big Data, KI, IoT, 3D-Druck oder Machine Learning die eigene Strategie so auszugestalten, dass man als Anwender einen größtmöglichen Nutzen daraus ziehen kann. Tatsächlich aber, so hat die Unternehmensberatung Kienbaum jetzt in einer groß angelegten Studie erfahren, hat eine von vier Führungskräften in Deutschland keine Klarheit über die aktuellen und zukünftigen Unternehmensziele. Ja, sogar jeder fünfte Manager mit Personalverantwortung tappt diesbezüglich im Dunkeln.

Die Geschwindigkeit, mit der sich die Dinge ändern, war vielleicht noch nie so hoch wie heute. Und die Veränderungen sind wohl auch noch nie so weitreichend gewesen – sieht man vielleicht von der Beherrschbarkeit des Feuers ab.

Und während viele Anwender diese Entwicklung damit abzutun scheinen, dass es sich bei der digitalen Transformation um eine Nebenwirkung der digitalen Giganten wie Google, Apple und Amazon handelt, die mit der eigenen Zukunft nur wenig zu tun hat, sind es in Wahrheit doch die Betreiber der Unternehmens-Architekturen – also Microsoft, IBM, Oracle oder SAP – die auf dem Weg ins Cloud Computing mit Hochgeschwindigkeit voranschreiten und gestern Big Data, heute IoT und morgen künstliche Intelligenz promoten. Da kann es nicht verwundern, dass manch mittelständischer Anwender angesichts technologischer Höchstgeschwindigkeit, mangelnder interner Kommunikation und dem Fehlen einer verlässlichen Vision auf der Strecke bleibt.

Da kann nur ein professioneller Erklärbär des Vertrauens helfen – und der ist im Grunde auch schnell bei der Hand. Die wenigsten mittelständischen Anwender kaufen direkt bei einem der großen Architektur-Anbieter. Sie arbeiten eher mit dem Systemhaus um die Ecke zusammen, das in etwa die gleichen Strukturen aufweist, den gleichen Menschenschlag herangebildet hat und offen zugibt, ebenfalls nur mit hängender Zunge mit der technischen Entwicklung Schritt zu halten. 82 Prozent der ITK-Anbieter blicken hoffnungsvoll in die Zukunft. Sie erkennen allmählich, dass Cloud Computing und die damit verbundenen Technologien einen Riesenmarkt für sie darstellen.

Microsoft zum Beispiel rechnet vor, dass 90 Prozent des eigenen Umsatzes durch Partner stimuliert ist. Und umgekehrt bedeutet jeder Euro Umsatz bei Microsoft ein Vielfaches an Einnahmen bei den Partnern. Das gilt ganz analog bei IBM, Oracle und SAP, die diese Zahlen nicht so dezidiert offenlegen, aber im Prinzip die gleiche Channel-Strategie fahren.

Und dieser Vertriebskanal befindet sich selbst im Umbruch. Es geht nicht mehr darum, goldene DVDs in den Firmenrechner zu stecken, um das nächste Update zu „deployen“. Es geht darum, aus den vielen Technologie-Optionen die richtigen für das Anwenderunternehmen auszuwählen, bei der Formulierung einer langfristigen Digitalstrategie zu helfen und diese Maßnahmen dann Schritt für Schritt umzusetzen. Dazu muss man die Zukunft erklären können. Und Voraussetzung dafür wiederum ist es, die technologische Zukunft auch zu verstehen.

Hier steckt wiederum die große Herausforderung für die Architektur-Anbieter. Sie müssen ihre Partner „enablen“, diese neue Rolle des Erklärbärs auch richtig auszuspielen. Ihre Aufgabe muss es sein, die „beängstigenden Verständnislücken“ zu schließen – ehe morgen neue aufbrechen.

Der Anlern-Kollege

Es ist doch immer wieder die gleiche Leier – diesmal hat sie das Beratungshaus capgemini angestimmt: Während die Unternehmen weltweit künstliche Intelligenz vor allem zur Verbesserung der Kundenbindung und damit der Umsatzsteigerung nutzen, liegt das Hauptmotiv bei den Deutschen in der Produktivitätssteigerung und damit in der Kostensenkung. Das ergab eine aktuelle Befragung von Entscheidern rund um den Globus.

Ähnliche Ergebnisse hörten wir schon zum Thema Digitalisierung im Allgemeinen, Industrie 4.0 im Besonderen, und auch bei Big Data Analytics werden die Erkenntnisse hierzulande bevorzugt zur Prozessoptimierung genutzt. Es ist der altbekannte Reflex, nach dem die Deutschen in bestehenden Märkten immer besser werden und dabei mitunter die neuen Märkte erst spät betreten. Es ist auch die Quelle, aus der die Kritiker der deutschen Wirtschaft ihr Menetekel von der mangelnden Investitionsbereitschaft schöpfen.

Aber im rechten Licht betrachtet, ist es gar nicht mal so verkehrt, mit Hilfe künstlich intelligenter Systeme zunächst einmal die produktiven Prozesse zu verbessern, ehe neue Dinge angegangen werden. Zwar ist der Begriff „künstliche Intelligenz“ älter als das Internet und erst recht älter als das Internet der Dinge. Aber trotzdem steckt die Disziplin auch 60 Jahre nach ihrer Schöpfung durch Marvin Minsky noch immer in den Kinderschuhen. Das gilt zwar für das Internet der Dinge auch – aber diese Disziplin hat ja gerade mal ein Jahrzehnt auf dem digitalen Rücken.

Während einerseits durch kognitive Systeme wie IBMs Watson oder KI-Services aus der Cloud, wie sie mit Microsofts Cortana angeboten werden, derzeit völlig neue Einsatzgebiete entstehen – und dabei einer weiteren Studie zufolge sogar mehr Arbeitsplätze geschaffen als obsolet werden – und andererseits die Verknüpfung von großen Datenmengen mit neuen Analyseverfahren auch einen erheblichen Erkenntnisgewinn bringt, sind es doch vor allem die guten, alten regelbasierten Systeme, die die Produktivitätssteigerungen im Unternehmen bringen. Erste Versuche mit den sogenannten Expertensystemen stammen schon aus den achtziger und neunziger Jahren des vergangenen Jahrhunderts. Aber inzwischen sind die Regel- und Lernkomponenten so ausgefeilt, dass man damit richtig arbeiten kann.

Schätzungen zufolge sind allein in der Buchhaltung – und damit also in jedem einzelnen der 3,3 Millionen Betriebe in Deutschland – 70 bis 90 Prozent der anfallenden Arbeiten Kandidaten für die Ablösung durch KI-Systeme. So können regelmäßig wiederkehrende Buchungsvorgänge leicht durch regelbasierte Systeme bewältigt werden, die auch nach klaren Regeln entscheiden, ob ein Betrag vom Normalen abweicht und deshalb den Eingriff des Buchhalters erfordern. Im Controlling können Auswertungen so regelbasiert gestaltet werden, dass Manager-Dashboards mit wenigen Key Performance Indikatoren einen Überblick über das Tagesgeschehen gewähren.

Und natürlich können KI-Systeme die Daten aus dem Internet der Dinge so auswerten, dass eine notwendige Wartung frühzeitig erkannt werden kann, weil die Präzision der Maschine eine bestimmte Toleranzgrenze überschritten hat. Das Kaufverhalten der Kunden gibt schließlich nach klaren Regeln wichtige Informationen über die zukünftigen Produktionsschwerpunkte und den damit verbundenen Einkauf von Vorprodukten. Dass auch den Kunden selbst genauere Empfehlung für ihr nächstes Kauferlebnis vermittelt werden, ist ebenfalls mit regelbasierten Systemen zu meistern.

Diese KI-Systeme sind nichts anderes als Anlern-Kollegen, die aus einem starren Regelwerk heraus ihre Entscheidungen treffen und zugleich dokumentieren, wie sie zu diesen Ergebnissen gelangt sind. So können die Regeln immer weiter verfeinert, die Entscheidungsmöglichkeiten immer weiter ausgebaut werden. Mit Hilfe von neuronalen Netzwerken ist es darüber hinaus möglich, diesen Anlern-Prozess weiter zu automatisieren, in dem die KI-Systeme in der Lage sind, direkt aus den Ereignissen Regeln abzuleiten, ohne auf die Formulierung durch den menschlichen Mentor zu warten.

Wann immer aber derzeit die Diskussion zur künstlichen Intelligenz aufkommt, wird schnell von ethischen Herausforderungen bei der Entscheidungsfindung gesprochen. Die Frage, ob KI-Systeme jemals ein Bewusstsein entwickeln können, lässt wahre Untergangsszenarien entstehen. Und die Vorstellung, Roboter mit künstlicher Intelligenz würden nicht nur die Arbeitsplätze, sondern gleich auch die Weltherrschaft an sich reißen, ist ebenfalls schnell zitiert.

Dabei sind die heutigen KI-Systeme noch immer vor allem eins: Anlern-Kollegen, die genau das tun, was ihnen eingegeben wurde – und nicht mehr. Es ist unser Bewusstsein und unser Reflex, der ihnen größere geistige Fähigkeiten unterstellt. Dabei sind sie gerade einmal gut genug, uns von langweiligen, langwierigen, immer gleichen und deshalb gesundheitsschädlichen Arbeiten zu befreien. Und das ist doch wohl die edelste Form der Prozessoptimierung.