Deutscher Gen-Defekt

„KI made in Germany“ soll zu einem „internationalen Markenzeichen für moderne, sichere und gemeinwohlorientierte KI-Anwendungen auf Basis des europäischen Wertekanons“ werden. So formuliert die Bundesregierung die Motivation für ihre KI-Initiative, die sie im vergangenen Sommer beschlossen hat. Seitdem feiert sie diesen Beschluss wie zuletzt auf dem Digitalgipfel Woche für Woche neu, ohne dass sich aber substanziell etwas getan hat. Schon wieder sind drei, vier Monate ins Land gegangen – und die geplanten drei Milliarden Investitionen wurden so oft erwähnt, dass sie publizistisch wie 300 Milliarden wirken. Aber gibt es auch Konkretes zu vermelden? Ich wüsste nicht!

Dafür wird wieder einmal viel geredet. Denn die Worthülse „moderne, sichere und gemeinwohlorientierte KI-Anwendungen auf Basis des europäischen Wertekanons“ klingt wieder ein bisschen danach, als sollte „am deutschen Wesen einmal noch die Welt genesen“, wie Emmanuel Geibel 1861 schrieb. Tatsächlich – die drei Ziele, mit denen die Bundesregierung ihre Initiative versehen hat, sind so altruistisch und sogleich so wunderbar langfristig angelegt, dass wir nicht unbedingt mit einer Revolution oder gar Disruption durch Gründer und Innovatoren zu rechnen brauchen. Sie lauten:

  • Deutschland und Europa sollen sich zu einem führenden Standort für die Entwicklung und Anwendung von KI-Technologien entwickeln. Die Wettbewerbsfähigkeit Deutschlands soll gesichert werden.
  • Mit der Strategie soll eine verantwortungsvolle und gemeinwohlorientierte Entwicklung und Nutzung von KI sichergestellt werden.
  • KI soll im Rahmen eines breiten gesellschaftlichen Dialoges und einer aktiven politischen Gestaltung ethisch, rechtlich, kulturell und institutionell in die Gesellschaft eingebettet werden.

Es ist abzusehen, dass die Deutschen immer noch über den Sinn und Zweck von künstlicher Intelligenz nachdenken werden, wenn die großen Anbieter aus den USA und China das Land längst mit KI-Anwendungen überschwemmt haben werden, die so sympathisch und hilfreich daherkommen, wie Alexa, Siri und Cortana. Services für Smart Homes und Smart Cities werden sich schneller „in die Gesellschaft einbetten“ als sich die jetzt von der Bundesregierung geplanten Diskussionsgremien bilden werden.

Selbst Microsoft, das inzwischen wieder für die zielstrebige Umsetzung der „Intelligent Cloud, Intelligent Edge“-Strategie von den Aktionären geliebt wird, hat sich jetzt in Deutschland erst einmal einen KI-Expertenrat zusammengestellt. In den USA ist sowas offensichtlich nicht nötig. Vor seiner konstituierenden Sitzung, zu der Vertreter von wichtigen Microsoft-Kunden sowie aus Politik und Wissenschaft eingeladen waren, erklärte der ehemalige Richter am Bundesverfassungsgericht, Udo di Fabio, das Gremium sei dazu da,Chancen zu identifizieren und den Rahmen für eine humane Gesellschaft mit KI zu entwickeln.“ Also doch wieder erstmal reden…

Es ist ja nicht so, dass wir dem populistischen Spruch von Christina Lindner folgen sollten: „Digital First, Bedenken Second“. Unsere „Bedenken-First, Bedenken Second“-Haltung zieht sich wie ein nationaler genetischer Defekt durch nahezu alle Technologiesprünge der vergangenen fünfzig Jahre: Mainframes, Personal Computer, Video- und Audio-Medien, Internet, mobile Computing, Cloud Computing, Digitalisierung – und jetzt auch künstliche Intelligenz. Können wir denn nicht einfach mal loslegen?

Nicht ganz dicht?

Was könnte man mit 34 Milliarden Dollar alles anfangen? Zum Beispiel ein gutes Schock Startups finanzieren, von denen dann die Hälfte zu Unicorns heranwachsen würde. Zum Beispiel ein eigenes autonom operierendes elektrisches Fliege-Fahrzeug bauen, mit dem man den gesamten Globus ausstatten könnte. Zum Beispiel eine Mars-Mission finanzieren, die allerdings außer Ruhm nicht viel einbrächte. Zum Beispiel den Welthunger lindern, die Bildungsmisere meistern, das Weltklima retten…
Ach, was soll´s. Man kann auch nur einfach zu einem völlig überzogenen Preis einen Open-Source-Anbieter wie Red Hat übernehmen. Das ist so phantasielos, dass eigentlich nur IBM auf eine solche Idee kommen konnte. Seit Jahren übernimmt Big Blue getreu einer selbstverordneten Strategie Unternehmen mit Investitionen im drei- bis vierstelligen Millionenbereich, um sie weitestgehend reibungslos, aber zumeist auch folgenlos in die eigene Organisation einzubauen. Buy a little, try a little. Irgendwie war immer genug Gewinnüberschuss da, um sich diese kleinen Eskapaden zu leisten.
Und jetzt Red Hat – für 34 Milliarden Dollar! Das sind 60 Prozent Aufschlag auf den Börsenwert zum Zeitpunkt der Bekanntgabe! Mehr als das Hundertfache des Nettogewinns. Mehr als das Zehnfache des Jahresumsatzes. Sicher „Die Übernahme von Red Hat verändert alles in dem Spiel“, wie IBMs Chefin Ginni Rometty frohlockte. Aber das ist auch kein Kunststück bei einem Investment, das den drittgrößten Deal in der gesamten IT-Geschichte darstellt.
Freilich ist Red Hat längst nicht nur ein Open-Source-Anbieter, sondern durchaus eine dominierende Kraft im Markt für Hybrid-Clouds. IBM katapultiert sich damit wieder an die Spitze in einem rasch wachsenden Markt. Denn ohne Open Source ist die Cloud nicht denkbar. Beide leben von der Community, die Ressourcen gemeinsam nutzt und durch Teilen mehr erhält. So wie Cloud-Infrastrukturen mehr Sicherheit und mehr Flexibilität für alle bedeuten, so bedeuten Open-Source-Umgebungen kürzere Entwicklungszeiten. Die Dynamik, die sich aus der gemeinschaftlichen Pflege einer Infrastruktur ergibt, hat bislang noch jede proprietäre Umgebung hinter sich gelassen. Das musste IBM in vielen negativ verlaufenen Quartalen erst mühsam lernen.
Insofern ist der Kauf von Red Hat auch eine Reaktion auf die jüngste Übernahme von GitHub durch Microsoft. GitHub bedient ebenfalls eine Open-Source-Community, indem hier eine Entwicklungsumgebung für offene Anwendungen bereitgestellt wird. Microsoft will damit die Dynamik für neue Cloud-Services auf seiner Azure-Plattform beflügeln. Vor allem im Bereich künstlicher Intelligenz sucht Redmond die Flucht nach vorn.
Hier kann es sich IBM in der Tat nicht leisten, zurückzubleiben. Die Übernahme von Red Hat hat aber durchaus etwas von einer Verzweiflungstat. Es wird sich jetzt zeigen müssen, was IBM daraus macht. Kaputtintegrieren wäre das schlechteste, was passieren könnte. Für eine lose Anbindung hätte allerdings auch eine exklusive Kooperation gereicht. Der Versuch, nun den Markt auszuhebeln und Red Hat jetzt die Zusammenarbeit mit Konkurrenten wie Microsoft, Oracle oder SAP zu verbieten, wäre ein Rückschritt in die Marktmechanismen des Mainframe-Mittelalters.
Und wie werden diese Anbieter reagieren, wenn sie künftig befürchten müssen, dass geteilte Knowhow nach IBM abfließt. Die Open-Source-Bewegung ist eine Macht, aber sie ist so verletzlich wie die Demokratie. Immerhin waren es IBM und auch Microsoft, die lange Zeit nach dem Motto vorgingen: Wer nach allen Seiten offen ist, kann nicht ganz dicht sein. Jetzt wandeln sich beide zum Open-Source-Paulus. Ob das geht?

Zurück in die Zukunft

Befinden wir uns noch in Gegenwart der Zukunft oder schon in der Zukunft, die wir gegenwärtig vorhersagen? Zu ähnlichen chrono-philosophischen Fragestellungen mag kommen, wer sich die zehn IT-Trends zu Gemüte führt, von denen die Auguren der Gartner Group glauben, dass sie vor allen anderen Trends das Jahr 2019 beeinflussen werden. Dabei haben die zehn Megatrends, die für das Jahr 2018 nach Ansicht von Gartner entscheidend gewesen sein sollten, noch kaum ihre Wirkung entfaltet. Aber bis zum Jahreswechsel sind es ja auch noch gut 60 Tage…

Denn kaum ein Unternehmen hat tatsächlich angefangen, seine Produktionsmaschinen und Produkte so mit Sensoren auszustatten, dass bei vollem Ernst von einem „digitalen Zwilling“ die Rede sein könnte, also einem genauen virtuellen Abbild der Realität, das durch die Daten entsteht, die von der Realität erzeugt werden. Jetzt aber spricht Gartner davon, dass es Unternehmen 2019 „leicht fallen „ werde, eine solche „Digital Twin“-Strategie umzusetzen. Bis zum Jahr 2020 sollen 20 Milliarden IP-Adressen im Internet der Dinge aktiv sein, die die Voraussetzung für den digitalen Zwilling von Milliarden Dingen sein werden. Sie werden durch die Daten, die sie sammeln, immer smarter und helfen dabei, das zukünftige Verhalten der Dinge zu simulieren.

Das greift bereits tief in die Trickkiste der künstlichen Intelligenz hinein, die dafür sorgen wird, dass die Dinge im Internet immer stärker autonom agieren und damit die Automatisierung auf einen neuen Level der Selbständigkeit bringen werden. Dabei werden auch die Methoden des Machine Learnings immer weiter genutzt, um tiefergehende Analysen zu ermöglichen, auf deren Basis dann Maschinen ihre Entscheidungen treffen. Dabei wird der Prozess der Datenaufbereitung, der Datenauswertung und der Datenvisualisierung auch selbst immer weiter automatisiert – augmented Analytics nennt Gartner das von nun an.

Dabei wird auch die Entwicklung von neuen KI-Algorithmen immer weiter automatisiert und mit Hilfe von KI-Systemen beschleunigt. Bis 2022 sollen diese Methoden bereits in 40 Prozent der Entwicklungsprojekte Realität sein. Damit verbunden ist freilich ein ungeheurer Bedarf an KI-Entwicklern, die zusammen mit Datenanalysten die Entwicklerteams begleiten. Man darf sich fragen, wie in der Zukunft dieser spezielle Fachkräftebedarf gedeckt wird.

Künstliche Intelligenz wird auch ins Edge Computing eingreifen. Mit der Edge rückt die Cloud wieder stärker an den eigentlichen Ort der Prozesse und Datenentstehung. Man könnte fast sagen, dass hier nach der Zentralisierung Richtung Cloud wieder ein Stück Dezentralisierung kommt, über die die Latenzzeiten – also die Wartezeit, bis die Cloud-Services über die 5G-Bandbreiten reagiert haben – verkürzt werden soll. Allerdings sollen spezielle KI-Chips auch dafür sorgen, dass diese peripheren Endgeräte smart genug sind, um auf Cloud-Services zu verzichten.

Dass mehr Rechenpower und KI-Cleverness auch wieder näher an den eigentlichen Ort des Geschehens rücken soll, findet laut Gartner auch seinen Grund in dem weiter zunehmenden Einsatz von Augmented Reality. Die virtuellen und begleitenden Realitätswelten benötigen nämlich enorme Rechnerleistung, um überhaupt zeit- und realitätsnah entstehen zu können. Das ganze wird dann mehr und mehr unsere Smart Spaces, wie Gartner den Sammelbegriff für Smart Homes, Smart Cities und Smart Factories nennt, beeinflussen.

Demzufolge wird sich ab 2019 eine Diskussion über digitale Ethik und die Bedeutung (wenn nicht den Verbleib) der Privatsphäre eröffnen, die die Rolle des Menschen in dieser KI-fizierten Zukunft untersucht. Vielleicht aber überlassen wir die Entscheidung über richtig und falsch dann schon den Quantum Computern, die auch komplexeste Wechselwirkungen zwischen Maschinen, Materialien, Methoden und Menschen simulieren können. Vielleicht empfiehlt uns Gartner dann, in die Gegenwart zurückzukehren – als Re-Dezentralisierung, Re-Despezialisierung, Re-Delinearisierung und zuletzt Regression.

 * Das Foto wurde der Steven-Spielberg-Produktion „Zurück in die Zukunft“ entnommen.

 

Teilen ist das neue Haben

Unsere gesamte Mobilitätsgesellschaft beruht auf dem uralten Wunsch, Menschen und Waren von A nach B zu transportieren. Komplizierter wird die Sache, wenn gleichzeitig auch der Wunsch besteht, Menschen und Waren von B nach A zu bewegen. Und richtig komplex wird die Sache, wenn auch noch ein Punkt C hinzukommt. Dann braucht man schon eine gescheite Infrastruktur, um die Komplexität zu bewältigen. Insofern ist es kein Wunder, dass ausgerechnet in Europa und Nordafrika die Wiege der Kultur liegt. Denn das Mittelmeer bot seit Jahrtausenden eine Transportinfrastruktur, die es erlaubte, ganze Weltreiche mit Waren und Menschen zu versorgen – von A bis O.

Logistik ist also ein Stück Menschheitsgeschichte, seit der erste Mensch auf die Idee kam, das erlegte Tier nicht vor Ort zu verschlingen, sondern in die heimische Höhle zu schleppen. Als dann auch noch die Faustkeil-Produzenten, die Feuer-Bewahrer und Kräuter-Sammlerinnen in den Prozess einbezogen wurden, war die erste Supply Chain geknüpft. Von da ab wurde praktisch nichts Neues mehr erfunden, solange in B gebraucht wurde, was in A vorhanden war.

Aber es wurde massiv optimiert bis zur heutigen multi-modalen Welt aus Transportwegen zu Wasser, zu Land und in der Luft mit Auto-Identifikation, Sendungsverfolgung, Hubs und Letzter Meile. Heute wird gepickt, gepackt und gepusht, getaktet, getracet, getrackt und getunet im Internet der Dinge und dank Cloud-Services, mit deren Hilfe immer mehr Eigenschaften in Richtung Software, Big Data und künstlicher Intelligenz abwandern.

Doch am Ende bleibt immer noch der Transportweg von A nach B. Deshalb steht neben dem digitalen Fußabdruck der Logistik immer und überall der CO2-Footprint im Raum, wie sich letzte Woche erneut auf dem 35. Kongress der Bundesvereinigung Logistik in Berlin zeigte. Die digitale Transformation verbindet die beiden Schwestern im Wirtschaftsstandort Deutschland – Industrie und Logistik – auf praktisch allen Ebenen. Je smarter Maschinen und Waren werden, je stärker Prozesse erst automatisiert und dann autonom werden, desto mehr verändern sich nicht nur die Produktions- sondern auch die Transportprozesse. Immer mehr Kunden-Zentrierung sorgt nicht nur dafür, dass Produkte, die keiner haben will, gar nicht erst produziert werden, sondern auch nicht an Orte geschafft werden, wo sie keiner will. Das Gegenstück zur Industrie 4.0 ist die Logistik der vierten Generation, betonte BDI-Chef Prof. Dieter Kempf in seinem Grußwort auf dem BVL-Kongress.

Dabei seien die Klimaziele der Bundesregierung zwar einerseits anspruchsvoll, andererseits aber zu schaffen, wenn Bund und Land, Wirtschaft und Wissenschaft bereit seien, rund 500 Milliarden Euro in die Hand zu nehmen. Dann sei im nationalen Alleingang auch ein Rückgang der CO2-Emissionen um 80 Prozent bis zum Jahr 2050 möglich. Dabei ist, so betonte BVL-Vorstandsvorsitzender Robert Blackburn, die Elektromobilität nicht allein der Weisheit letzter Schluss, um den CO2-Ausstoss beim Transport von A nach B zu reduzieren. Aber jede Fahrt, die eingespart wird, ist ein Dienst am Klima. Darum sind KI-getriebene Entscheidungsmechanismen zur Lenkung von Verkehrs- und Warenströmen eines der spektakulärsten Entwicklungen in der Logistik 4.0.

Deshalb stand der 35. Logistikkongress auch unter dem Motto „Digitales trifft Reales“. Denn zwar wandert immer mehr Wertschöpfung in die Digitalwirtschaft ab, deren CO2-Footprint deutlich kleiner ausfällt. Aber auch angesichts von dezentralisierten Produktionsmethoden wie 3D-Druck oder „Losgröße 1“ muss am Ende ein Motor gestartet werden, um den Transport zu übernehmen. Während autonome Lkw-Konvois auf der Langstrecke wie eine clevere Alternative zum Individualverkehr erscheinen, liegen die überzeugenden Konzepte im urbanen Straßengüterverkehr auf der letzten Meile noch nicht vor.

Vielleicht kommt der entscheidende disruptive Impuls auch gar nicht aus der Logistik 4.0 oder der Industrie 4.0, sondern aus der Gesellschaft 4.0. Denn die Digital Natives – also die Generation bis 30 – leben immer mehr nach dem Motto: „Teilen ist das neue Haben“. Die Sharing Economy verlangt weniger Transport, weil sie mit weniger Besitz auskommt, dafür aber mehr Kommunikation benötigt. Vielleicht steht nach einigen Hunderttausend Jahren in der Logistik doch eine echte Revolution bevor.