Sind wir paranoid genug?

Lange Zeit liefen die Studien über die Deutschen in Wirtschaft, Wissenschaft und Politik nach dem gleichen Schema: Sie verschlafen den digitalen Wandel und gefährden den Wirtschaftsstandort Deutschland. Seit einigen Wochen aber dreht sich der Wind: Von Accenture bis Ziff Davis loben Berater und Publizisten das Streben nach dem Digitalen hierzulande.

Erste Hypothese: Es ist die Sommerpause, die sogenannte Saure-Gurken-Zeit, die uns diesen Sonnenstrahl an Motivation beschert. Nur wer mit abweichenden Ansichten auf dem Meinungsmarkt aufschlägt, hat Aussicht auf Aufmerksamkeit. Das funktioniert natürlich nur so lange, wie es nicht alle tun.

Zweite Hypothese: Wir hören das Pfeifen im Walde, wonach die Gefahren der disruptiven Wirkung digitaler Umwälzungen nicht erkannt werden. Ein „Weiter so!“ ist demnach das Generalthema des deutschen Mittelstands, der nicht erkennt, dass er am Abgrund der digitalen Transformation tanzt. So jedenfalls könnte man eine KPMG-Studie deuten, wonach drei Viertel der deutschen Unternehmer (CEOs) keine Gefahr durch disruptive Veränderungen sehen. Nur 23 Prozent der Befragten sehen ihre Geschäftsmodelle gefährdet. KPMG kommentiert die eigenen Ergebnisse mit einem lapidaren: „Ob das eine zu optimistische Einschätzung ist, werden die nächsten Jahre zeigen.“ Zumindest sind die Deutschen deutlich optimistischer als der weltweite Durchschnitt. Danach befürchten mehr als ein Drittel der Befragten, dass ihnen das Tempo der Innovationen zu schaffen machen könnte.

Dritte Hypothese: Die Deutschen sind wirklich besser als ihr Ruf. 83 Prozent der deutschen Firmenchefs sehen die Entwicklung auf dem Heimatmarkt äußerst positiv und rechnen damit, dass sie ihre eigenen Wachstumsziele vor allem in Deutschland erreichen werden, während andere Wachstumsregionen in den Augen der hiesigen Firmenlenker an Bedeutung verlieren – allen voran China und Indien, aber auch die USA und das durch den Brexit abgeschüttelte Großbritannien. Deshalb rechnen auch 95 Prozent der deutschen CEOs damit, dass sich ihr Geschäftsmodell in nächster Zukunft nicht ändern wird. Weltweit sind davon nur drei von vier Unternehmern überzeugt.

Vierte Hypothese: Die Deutschen starten auf deutlich höherem Niveau in die Digitalisierung als der weltweite Durchschnitt. Zwar sind die Investitionen in Richtung digitalem Wandel hierzulande durchschnittlich geringer als der Weltstandard. Aber die deutsche Industrie verfügt bereits über einen äußerst modernen Maschinenpark und hat zudem eine jahrzehntelange Tradition bei Prozessinnovationen, die möglicherweise noch nicht einmal mehr als Investition in die Digitalisierung wahrgenommen werden. Während in Deutschland zwei Drittel der Unternehmen von „stark erhöhten“ Ausgaben für den digitalen Wandel berichten, sind es weltweit 72 Prozent. Das ist nicht unbedingt ein Erdrutsch-Unterschied.

Der Wettlauf um die Pole Position in der digitalen Welt ist geprägt von paranoidem Verhalten. Es ist wie ein Wettlauf im Dunkeln: Man weiß einfach nicht, auf welcher Position im Rennen man ist und wie sich der Wettbewerb in der nächsten Zeit verhält. Die wichtigste Frage scheint derzeit zu sein: Bin ich paranoid genug? Oder ist die Frage an sich schon paranoid genug?

Möglicherweise lautet die Frage aber auch richtig: Ist die Politik der industrialisierten Länder, mit denen wir Geschäfte machen wollen, inzwischen so paranoid, dass sich Investitionen dort nicht mehr lohnen? Tatsächlich scheint sich der Zuwachs in der weltweiten Öffnung von Wirtschaftsbeziehungen eher zu verringern, wenn sich die Globalisierung nicht sogar zurückentwickelt. 43 Prozent der weltweiten Unternehmer will die Globalisierungsstrategie des eigenen Unternehmens überdenken. Der Grund: Jeder dritte glaubt, dass der weltweite Protektionismus zunimmt und immer mehr Märkte gegenüber dem Einfluss von außen verschlossen werden. Und schlimmer noch: zwei von drei Firmenchefs rechnen mit höheren Steuern – vermutlich auch, weil sich Steuerlöcher durch Aktivitäten in Drittstaaten immer schlechter verbergen lassen.

Und wenn das Image einer Marke das möglicherweise wichtigste Asset im weltweiten Wettbewerb sein sollte – wichtiger noch als Produktionslogistik, Innovationsfähigkeit und Nutzenargumentation (was an sich schon in Frage gestellt werden müsste) –, dann geht es ohnehin nur noch oder zumindest vor allem um die Sorge um den Imageverlust. Die Autoren der KPMG-Studie zeigen sich überrascht, dass Reputationsrisiken bislang nicht in den Studien der Beratungsgesellschaft auftauchten. Jetzt aber gehört der Imageschaden zu den drei großen Sorgen der Unternehmer – mit sogar steigender Tendenz.

Man muss nicht erst auf die Automobilindustrie deuten, um diese Sorgen zu verstehen. Die Wahrscheinlichkeit, im digitalen Wandel auf falschem Pfad zu wandeln, ist in der Tat groß.

Man kann gar nicht paranoid genug sein – heutzutage.

Old School but Gold School

In Zeiten zunehmender Digitalisierung gelten ERP-Lösungen als Old School. Enterprise Resource Planning – das war einmal revolutionär, als es darum ging, den Abteilungen das Silodenken auszutreiben und den Fluss der Werte im Unternehmen mit dem Fluss der Waren entlang der Supply Chain zu verknüpfen. Seitdem aber haben sich ERP-Systeme zumindest evolutionär weiterentwickelt: sie binden das Kundebeziehungsmanagement (CRM) mit ein, haben Financials und Controlling integriert und sind inzwischen sogar in der Lage, Office-Funktionen einschließlich eMail und Telefonie in den Geschäftsprozess zu übernehmen. Selbst wer den Begriff „Unternehmensressourcen“ weiter fasst als den klassischen Dreiklang von Maschinen, Material und Menschen (pardon! Falsche Reihenfolge, aber irgendwie doch richtig), wird mit ERP-Systemen glücklich. Sie managen Dienstleistungen und Projekte ebenso wie Verträge und Produktlebenszyklen.
Und doch hängt dem ERP-System als Genre etwas Altertümliches an. Hipp sind Webshops oder Big Data Analytics, hopp sind das Internet der Dinge und Social Media. Doch wenn man genau hinschaut, ist auch das nichts anderes als das Management von Unternehmensressourcen – wenn man den Begriff „Ressource“ eben nur weit genug fasst.
Aber genau darum geht es bei der Digitalisierung. Alles ist Ressource und am besten ist es, wenn diese Ressourcen in digitalisierter Form vorliegen. Dann nämlich können sie jederzeit und ohne Medienbrüche weiterverwertet werden. Das nennt man Fungibilität: Daten sind austauschbar – zwischen Funktionen, Geschäftsprozessen, Kooperationen, Märkten. Und sie lassen sich aggregieren und zu neuem Wissen zusammenfassen. Und genau das war und ist die Kernkompetenz von ERP-Systemen, So gesehen waren ERP-Systeme noch nie so modern wie heute.
Wenn sie nicht so alt wären! Das Hauptproblem lange tradierter ERP-Systeme ist ja gerade, dass sie mehrere Technologieschübe hinter sich haben und nach und nach zusätzliche Aufgaben übertragen bekommen haben. Man kann es kaum glauben: aber Software kann altern und verwittern. Viele monolithische ERP-Systeme, die heute den digitalen Fortschritt eher behindern als fördern, beweisen dies.
Das kann sich ändern, wenn man die Funktionen von ERP-Systemen aufbricht und als Services aus der Cloud bezieht. Nach einer jüngsten Marktuntersuchung von Forrester Research findet genau das statt. Dabei sind nicht unbedingt Lösungen gemeint, wie SAP sie vor einem Jahrzehnt mit Business by Design in den Markt gebracht hat. Damals hat SAP einfach ein weiteres monolithisches Software-Gebilde entwickelt, das sich von seinen Altvorderen nur dadurch unterschied, dass es auf einem Server irgendwo auf dem Globus residierte und nicht im firmeneigenen Hochsicherheitskeller.
Gemeint sind vielmehr hybride Software-Architekturen, in denen On-Premises-Lösungen mit zusätzlichen Funktionen – eben den Services – aus der Cloud integriert und zu neuen Lösungseinheiten zusammengefasst werden. Und es gibt eine Reihe von Kandidaten für diese Services, die ERP-Systeme zum nächsten Level der unternehmensweiten Ressourcenverwaltung und -verplanung bringen:
Office-Integration mit ERP ist heute noch keinesfalls selbstverständlich – wie sie beispielsweise bei Microsoft Dynamics365 und Office365 nahtlos funktioniert. Wer aber sein gut funktionierendes ERP-System nicht für eine Büro-Integration opfern möchte, kann heute Cloud-basierte Lösungen komfortabel einbinden.
Eine solche Two-Tier-Architektur bietet sich auch bei der Einbindung von Predictive Analytics auf der Basis von Big-Data-Tools an. Ebenso stehen heute bereits APIs für die Integration von KI-Anwendungen aus der Cloud bereit.
Interessant ist auch, dass Cloud-Ökosysteme nicht nur um die großen ERP-Lösungen von SAP, Microsoft und Oracle entstehen, sondern auch für den CRM-Spezialisten Salesforce zusätzliche Anwendungen auf der Basis der bereitgestellten Toolbox entstehen. FinancialForce und Kenandy sind beispielsweise Anbieter, die nach und nach auch in Europa bekannt werden.
Vor allem aber ergeben sich wesentliche Erweiterungen rund um das Internet der Dinge, mit denen ERP-Systeme weiter ausgebaut werden. Gerade die Zusammenfassung von Daten aus dem Fertigungsgeschehen in einem Manufacturing Execution System kann nur sinnvoll über die Cloud erfolgen. Das MES agiert dann wie ein Vorschalt-System, das die Daten erst einmal bündelt, da die ERP-Systeme nicht unbedingt für die schnelle Verarbeitung von Massendaten bekannt sind.
Digitalisierung ist eben auch die Digitalisierung der Unternehmensressourcen – oder zumindest der Information über die Ressourcen. Das ist die wesentliche Leistung der ERP-Systeme, seit es Materialbedarfsplanungen gibt.
Das ist zwar Old School, ist aber in Zeiten der Digitalisierung durchaus auch Gold School.

Begrenzte Intelligenz

Bei der Lektüre der Nachrichten aus der Informationswirtschaft habe ich unweigerlich Bilder im Kopf. Das eine Bild ist eine Karikatur zweier Eltern, die sich über die Fähigkeiten ihres hochbegabten Kindes in die Wolle kriegen, während das KI-nd zwischen beiden zu vermitteln versucht. Das andere Bild zeigt Elon Musk und Mark Zuckerberg, die sich mit Hilfe eines KI-Computers gegenseitig Sprachnachrichten an den Kopf werfen. Beide merken nicht, dass der Computer ganz nebenbei auch noch eine SpaceX-Rakete steuert und Posts von Hasstiraden bereinigt.

Dabei hatte das Kind, also die Kunst der künstlichen Intelligenz, gerade gar nichts angestellt. Als vor gut einem Jahr ein autonom gesteuerter Tesla aus Musks Produktion versehentlich einen kreuzenden Sattelschlepper nicht als Hindernis erkannte, war Elon Musk aus naheliegenden Gründen darum bemüht, der Technik keine Mitschuld an dem tödlichen Unfall zu geben. Tatsächlich wird die Teslaautonomie auch richtigerweise als Autopilot vermarktet, die den Fahrer nicht von der Pflicht enthebt, jederzeit einsatzbereit zu sein. Nach dem Untersuchungsbericht der US-Verkehrsbehörde hatte der Fahrer sieben Sekunden Zeit gehabt, um einzugreifen.

Dennoch wird Musk nimmermüde, vor den Gefahren künstlicher Intelligenz zu warnen, die er als „größte Bedrohung, der wir als Zivilisation gegenüberstehen“ bezeichnete. Zuletzt tat er dies – und das war Auslöser des Streits zwischen ihm und Mark Zuckerberg – vor US-Gouverneuren, die er ermahnte, „proaktive“ Reglementierungen gegen Ausschreitungen künstlich intelligenter Systeme einzuleiten. Man dürfte nicht erst handeln, wenn ein Mensch auf der Straße von einem „KI-ller“ getötet werde, warnte er.

Musk unterließ es allerdings, genauer zu erklären, welche Auswüchse künstlich intelligenter Systeme er tatsächlich proaktiv begrenzen möchte. Seine Pauschalkritik brachte denn auch sofort Widerspruch hervor, etwa von Facebook-Gründer Mark Zuckerberg, der nicht ganz ohne Pathos darauf hinwies, dass KI-Systeme dabei helfen werden Autos unfallfrei durch den Verkehr zu schleusen und komplexe Diagnosen zu stellen, die wiederum zu lebensrettenden Therapien führen. Und durchaus publikumswirksam verwies er darauf während einer Facebook-Konferenz, dass die Menschheit Hunderttausende Verkehrstote akzeptiere, die sozusagen auf dem Altar des menschlichen Versagens geopfert werden.

Natürlich gibt es genügend Anlass, sich über die weitere Entwicklung von KI-Systemen kritische Gedanken zu machen. Eben erst befreien sie den Menschen von Routinetätigkeiten und beginnen damit, ihn bei der Entscheidungsfindung zu unterstützen. Morgen steuern sie Systeme, die über unser Leben wachen, und treffen Entscheidungen, die unser Leben beeinflussen, wenn nicht gar retten können. Damit verbinden sich durchaus ähnliche ethische Fragestellungen, wie sie mit der Gentechnologie verbunden werden. Und es ist durchaus angemessen, darüber kontrovers zu diskutieren.

Allerdings beließ es Musk den Berichten über das Gouverneur-Treffen zufolge bei der pauschalen Dystopie – also der Beschwörung eines „AI-mageddons“, in dem es zur Entscheidungsschlacht zwischen Menschen und Maschinen kommt. Das eignet sich für Katastrophenfilme. Für die Diskussion unserer Arbeitswelt von Morgen eignet sich eine Pauschalverurteilung der künstlichen Intelligenz aber nicht.

Denn wir werden uns natürlich mit der Frage auseinandersetzen müssen, wie und welche Arbeitsplätze durch den Job-Killer KI verändert oder gar vernichtet werden. Und wir werden auch die Frage zu beantworten haben, wie die Aufgabenstellungen „für den hart arbeitenden Menschen“ (Martin Schulz) immer komplexer, immer kreativer, immer intuitiver und immer flexibler gestaltet werden. Für die einen ist sie die Verheißung, für die anderen die Abkehr von Sicherheit, Prosperität und Geborgenheit. Und schließlich werden wir auch die Frage zu beantworten haben, wie wir den wertschöpfenden Teil der künstlichen Intelligenz bewerten wollen im Vergleich zur Wertschöpfung durch den Menschen. Werden wir also für Maschinen Steuern zahlen oder für Menschen voraussetzungslose Grundeinkommen bereitstellen? Sicher ist, dass KI-Systeme Arbeitsplätze vernichten, ehe sie dabei helfen, neue entstehen zu lassen. Sicher ist aber auch, dass wir mit Hilfe von KI-Systemen Menschenleben retten können. Und das Leben lebenswerter gestalten werden.

Elon Musk hat die Gegenrede von Mark Zuckerberg mit der vernichtenden Kritik beantwortet, jener verfüge nur über „limitierte Kenntnisse“. Tatsächlich hat er damit die Diskussion um künstliche Intelligenz, ohne es zu wollen, auf ein Kernthema zurückgeführt. „Artificial Intelligence“ unterstellt mitnichten künftigen Computern eine „Intelligenz“ im menschlichen Sinne. Im anglo-amerikanischen Sprachgebrauch ist „Intelligence“ noch immer eher „Kenntnis“, „Erkenntnis“, „Einsicht“ oder „Aufklärung“. CIA war noch nie ein Bund von Intelligenzlern, sondern bündelte Geheimdienstinformationen.

Wir werden auch weiterhin mit limitierter Intelligenz leben müssen oder können – sowohl bei Computern wie auch bei uns Menschen. Das hat durchaus etwas Versöhnliches.

So what?

Expertise entsteht aus Experimenten! Der im Grunde richtige Lehrsatz scheint zugleich das Credo der Bildungsexperten zu sein, die ständig an neuen Modellen arbeiten. Kaum hat eine Schulreform erste Ergebnisse gezeigt, wird sie durch die nächste bereits abgelöst. Aber es braucht nun mal Zeit, aus Fakten Wissen und aus Wissen Bildung wachsen zu lassen. Da ist es denn auch nur folgerichtig, dass mehr und mehr Bundesländer wieder zum neunjährigen Gymnasium zurückkehren.

Dass Bildung Zeit braucht, müssen auch die Schulungsexperten der künstlichen Intelligenz und des maschinellen Lernens erkennen. Je komplexer die Aufgabenstellung ist, desto langwieriger ist der Aufbau einer Computing-Umgebung für deren Bewältigung. Inzwischen zeigt sich, dass beispielsweise der schlagzeilenträchtige Sieg von IBMs Watson bei der Quizshow Jeopardy! doch ein relativ leichtes Unterfangen war im Vergleich zu den immensen Aufgaben, mit denen IBMs Auftraggeber die Plattform für das Cognitive Computing betrauen wollen. Neben schönen Erfolgen mehren sich inzwischen Nachrichten über abgebrochene oder gar fehlgeschlagene Projekte.

Um Maschinenstürmern gleich den Wind aus den Segeln zu nehmen: Cognitive Computing und Deep Learning erzeugen keine Bildung – die bleibt uns Menschen vorbehalten. Aber diese und andere Formen der künstlichen Intelligenz revolutionieren die Verfügbarkeit von allokiertem Wissen und die Fähigkeit, aus Daten Informationen zu generieren und in großen Datenmengen Muster zu erkennen, aus denen wiederum Schlussfolgerungen gezogen werden können, die uns bei der Entscheidungsfindung unterstützen.

Das hat inzwischen einen unermesslichen Nutzwert. KI-gestützte Systeme erkennen in Netzwerken auffällige Verhaltensmuster, die auf einen Hackerangriff schließen lassen, und ergreifen Abwehrmaßnahmen. Das Potential allein ist immens: Wie der Hightech-Verband Bitkom jetzt mitteilt, ist allein in den vergangenen zwei Jahren rund die Hälfte der deutschen Unternehmen Ziel eines Angriffs geworden. Der dabei entstandene Schaden summiert sich in den zurückliegenden 24 Monaten auf 53 Milliarden Euro. Und dabei wird die Malware immer komplexer, so dass Virenscanner ohne Zuhilfenahme künstlicher Intelligenz versagen. IBM hat jetzt ihr Wissen um Systeme und Netze aus 30 Jahren Projektgeschichte in einen Datenpool geleitet, aus dem Watson schöpfen soll. Die Datenbank unter dem Namen IBM Data Lake soll bei der Automatisierung der Systemadministration helfen und Hackern das Leben schwer machen.

Ein weiteres Paradebeispiel ist das Scannen von Millionen Seiten an Fachliteratur, die mit Hilfe der Fähigkeiten von IBMs Watson, natürliche Sprache auf ihren Inhalt hin zu analysieren und sich bei der Entschlüsselung der Semantik auch nicht durch syntaktische Sprachfallen wie doppelte Verneinung beirren zu lassen, ausgewertet werden. Ebenso sind KI-Systeme hervorragend geeignet, in Bildern typische Muster zu erkennen und damit Abweichungen von der Norm zu identifizieren. Beide Methoden helfen heute Ärzten und Wissenschaftlern in nahezu allen Disziplinen bei der Forschungsarbeit und der Diagnose von Krankheiten. Wenn auf diese Weise auch nur ein Menschenleben gerettet werden konnte, haben sich die Investitionen bereits gelohnt.

Und die Investitionen sind in der Tat immens: IBM allein hat einen zweistelligen Milliardenbetrag in die Entwicklung der Technologie hinter Watson gesteckt und dabei auch zahlreiche Firmenübernahmen gewagt. Aber die Marktchancen sind keineswegs geringer: Im Jahr 2025 sollen Unternehmenslösungen im Wert von 31 Milliarden Dollar verkauft werden. Darin ist die damit verbundene Wertschöpfung noch gar nicht berücksichtigt. Sie dürfte ein Vielfaches betragen.

Kein Wunder also, dass sich die Konkurrenz um die vordersten Plätze rangelt. Nach Einschätzung von Gartner ist IBMs Watson-Plattform die am weitesten entwickelte, doch Anbieter wie GE Digital, Microsoft, PTC und Amazon Web Services folgen auf dem Fuß. Und Internetgiganten wie Google und Facebook entwickeln eigene KI-Plattformen für den Eigenbedarf. Wie IBM wollen sie vor allem die eigenen Datenmengen gewinnbringend auswerten.

Dabei steckt die KI-Forschung auch 50 Jahre nach ihrer Begründung durch Marvin Minsky eigentlich noch in der Trial-and-Error-Phase – also am Beginn der Bildungskarriere. So verfolgen Cognitive Computing oder Deep Learning unterschiedliche Konzepte des Wissensausbaus und der Analyse, was sie keineswegs zu universell einsetzbaren Hochbegabten macht. Sie verfügen eher über singuläre Fähigkeiten, die sie für bestimmte Aufgaben optimal erscheinen lässt, für andere wie3derum nicht. Das ist eine typische Erkenntnis bei komplexen Unternehmenslösungen: Auch ERP-Systeme lassen sich nicht ohne weiteres heute im Maschinenbau und morgen in der Medizin einsetzen. Sie folgen kontextspezifischen Best Practices und keinen universellen Begabungen.

Das muss nun auch das Bildungssystem rund um die künstliche Intelligenz erkennen. IBMs Watson ist ebenso wenig ein Universalgenie wie es die KI-Angebote der Konkurrenten sind. Dass Googles KI-Ansatz den Weltmeister im Go-Spiel besiegt, bedeutet nicht, dass es jedes Spiel beherrschen kann. Aber es kann fahren (im autonomen Google-Fahrzeug) und antworten (über Android-Smartphones).

IBM wiederum versucht nun, Watsons Fähigkeiten zur Mustererkennung für die Prozesssteuerung im Internet der Dinge zu nutzen. Das wäre ein weiterer Riesenmarkt. Und der wäre auch nötig, denn bislang dürfte Watson trotz lukrativster Verträge mit Fortune-500-Unternehmen kaum mehr eingespielt haben als die Kapitalkosten. Mit IoT könnte sich jedoch ein niedrigschwelliger Bildungssektor anbieten, für den man nicht gerade das KI-Abitur benötigt.

Denn für IBM verrinnt die Zeit. Nicht nur wächst die Konkurrenz. Nach 21. Quartalen mit Umsatzrückgang schmilzt auch die Marktbedeutung. Gut, dass die jüngsten Anstrengungen zur Verschlankung die Kosten so weit senken, dass unverändert Gewinn ausgewiesen werden kann. Sonst heißt es für IBMs Watson in wenigen Quartalen wirklich nur noch: „So what?“