Kaufhaus des Wissens

Im KaDeWe bekommt man bekanntlich alles – der Konsumtempel gehört zu meinen regelmäßigen Anlaufstellen, wenn ich in Berlin bin. Ich kaufe zwar nichts – aber es gibt mir ein gutes Gefühl, dass ich dort alles bekäme, was ich bräuchte – ein in Stein gehauenes Internet also.

Ganz ähnlich müssen sich Microsoft, IBM und jetzt auch SAP fühlen, wenn sie auf Jungunternehmen und Startups schauen. Man muss ja nicht kaufen, aber es ist ein beruhigendes Gefühl, dass es in diesen Zeiten alles gibt, was das Herz begehrt – von Fintechs und Blockchain über Open Source bis zur künstlichen Intelligenz. Nach Microsoft (mit der Übernahme von GitHub für 7,5 Milliarden Dollar) und IBM (Red Hat für unfassbare 34 Milliarden Dollar) hat jetzt auch SAP wieder mit einer Multi-Milliarden-Investition zugeschlagen und sich den Spezialisten für Online-Marktforschung, Qualtrics, für acht Milliarden Dollar gesichert.

Damit will SAP eine völlig neue Kategorie der betriebswirtschaftlichen Lösungen eröffnen – „Experience Computing“ erweitert das bisherige Geschäft mit dem Kundenbeziehungsmanagement um die neue Komponente Customer Experience. Es geht also darum, nicht mehr nur den Kunden zu kennen, sondern auch den Kunden des Kunden und was er über die Produkte denkt, wann er kauft und warum. Der Markt für Customer Relationship Management ist inzwischen größer als der für die betriebswirtschaftliche Königsdisziplin, das Enterprise Resource Planning: 46 Milliarden Dollar pro Jahr.

Alle drei Akquisitionen stehen im Licht umwälzender Revolution im Markt für Anwendungssoftware: Da ist erstens das Thema Cloud Computing, das eine neue Dynamik in die Bereitstellung von IT-Ressourcen bringt. Da ist zweitens das Thema Open Source, mit dem die Geschwindigkeit, in der neue Anwendungen entstehen, rapide zunimmt. Da sind drittens Abertausende von Startups, die mit disruptiven Idee alles und jeden in Frage stellen. Und da ist schließlich künstliche Intelligenz als Vollendung der Digitalisierung, durch die aus Daten Entscheidungen werden.

Jeder muss sich hier positionieren und gegebenenfalls verlorenes Terrain durch Giga-Investitionen zurückgewinnen. Die Markttreiber tun das derzeit – und da sind zusammengenommen 50 Milliarden Dollar nicht zu viel. Vergleichsweise gering machen sich da die drei Milliarden Euro aus, die die Bundesregierung in den kommenden Jahren für die Weiterentwicklung von KI-Systemen in Deutschland ausgeben will. Auch wenn sie – wahrscheinlich nicht vergebens – darauf hofft, dass dieser Betrag noch durch die Wirtschaft gehebelt wird und sich mindestens verdoppelt: es ist doch kaum mehr als ein Signal an alle, sich hier stärker zu engagieren.

Aber dieses Signal ist auch längst verstanden und wird aufgegriffen. 60 Prozent der Startups, die im aktuellen Startup-Monitor untersucht wurden, haben KI auf ihrer Entwicklungs-Roadmap. Microsoft fordert und fördert auf seiner Cloud-Plattform Azure mit massiven Partner-Programmen die Entwicklung KI-orientierter Cloud-Services und hat darüber hinaus auch in einem tiefgreifenden Revirement die eigene Organisation rund um KI neu aufgebaut. IBM war mit Watson früh – vielleicht zu früh – am Markt. Und auch SAP, das größte deutsche Softwarehaus und das einzige mit globalem Impact, erkennt mehr und mehr, das KI-Funktionen an allen Ecken der betriebswirtschaftlichen Welt neue Nutzungsformen eröffnen – von der Fertigung bis zum Controlling.

Und immer mehr Forschungseinrichtungen in Deutschland springen auf den KI-Zug – und nicht nur solche Lehrstühle, die sich als Software-Avantgarde begreifen. Vom Maschinenbau über die Logistik bis zur Wirtschaftsinformatik wird in Richtung KI-geforscht. Die Fraunhofer Institute ergänzen ihre Spitzenforschung durch praxisnahe Mittelstandsprojekte in der Breite. In all diesen Projekten geht es jetzt darum, wie wir künftig mit Maschinen zusammenarbeiten wollen. Digitalisierung war erst der Anfang. Nach dem Land der Ideen muss jetzt ein Kaufhaus des Wissens entstehen.

Raus aus dem Digi-Tal


Plötzlich übertreffen sich alle mit Ideen zur Digitalisierung unserer Gesellschaft. Der CDU-Bundesvorstand plant eine Weiterbildungsplattform, die mit Hilfe künstlicher Intelligenz Deutschlands Arbeitnehmer fit machen soll für die digitale Zukunft, wenn nicht gar für die digitale Gegenwart. Denn es gibt genug aufzuholen.

Zwar stehen die Deutschen inzwischen nach einer Umfrage dem Thema Digitalisierung weitgehend positiv gegenüber. Aber Ressentiments gibt es immer noch – beispielsweise gegenüber künstlicher Intelligenz. Da hätte es durchaus eine ironische Note, wenn ausgerechnet KI-Systeme dabei helfen sollen, die Widerstände gegenüber künstlicher Intelligenz abzubauen. Nun, bei Siri, Alexa und Cortana klappt das ja schließlich auch. Die Sprachassistenten sind aus dem smarten Leben fast nicht mehr wegzudenken.

Jetzt also soll Milla – Modulares Interaktives lebensbegleitendes Lernen für Alle – nach dem Willen des CDU-Bundesvorstands möglichst viele Qualifizierungsangebote zertifizieren und Bürger für die erfolgreiche Teilnahme an Kursen Prämien zusprechen. Anbieter können je nach Relevanz und Nutzungsgrad entlohnt werden. Wer eine Einführung in die Programmiersprache Python anbietet, wird dabei per se besser entlohnt als ein Anbieter des fiktiven Kurses „Fit bleiben mit dem Thermomix“. Das Ganze soll funktionieren wie Netflix, also Lerninhalte über Videoeinspieler präsentieren. Ähnliche Angebote gibt es bereits für Schüler und Studierende – etwa vom Startup Softutor.com. Vorbild für Milla ist aber wohl eher der vom ehemaligen US-Präsidenten Barack Obama initiierte US Digital Service, der ebenfalls mit dem Belohnungsprinzip arbeitet.

Das Projekt soll drei Milliarden Euro kosten – pro Jahr! Das gilt natürlich nur, wenn diese Initiative es bis auf den Kabinettstisch der großen Koalition schafft. „Milla nimmt die Menschen beim digitalen Wandel mit und stärkt die Wirtschaft“, erklärte Generalsekretärin Anneliese Kramp-Karrenbauer, „die Union ist die Partei, die die digitale Transformation erfolgreich gestalten will“. Man mag seinen Ohren nicht trauen. Im Vorfeld des Wahlparteitags, auf dem die Nachfolge von Angela Merkel als Bundesvorsitzende bestimmt werden soll, überschlagen sich die Kandidaten mit Initiativen rund um die Digitalisierung. Warum nicht gleich so?

Das mag man sich auch bei der CSU fragen, die erst eine Koalition mit den Freien Wählern eingehen musste, um sich zu einem eigenen Digitalministerium im Bayerischen Kabinett durchzuringen. Zwar erklärte die für Digitalisierung zuständige Staatssekretärin im Bundeskanzleramt, Dorothee Bär schon bei ihrem Amtsantritt im Frühjahr 2018, dass jedes Ministerium zugleich auch ein Digitalministerium sein müsse – in Bayern will man das Thema jetzt aber neben Heimat, Sicherheit und Teilhabe zum Kern der politischen Verantwortung in den kommenden fünf Jahren machen.

Nun – aus den Kreisen der Wirtschaft lautet die Botschaft schon seit Jahren: Digitalisierung ist teuer, keine Digitalisierung ist noch teurer. Allein der Einsatz von künstlicher Intelligenz im produzierenden Gewerbe könne innerhalb von fünf Jahren eine zusätzliche Rendite von 36 Milliarden in deutschen Betrieben auslösen, hat eine Studie im Auftrag des Bundeswirtschaftsministeriums ermittelt. Und bei der Aus- und Weiterbildung sind die Hebelwirkungen sogar noch größer. Den jährlichen drei Milliarden Euro für Milla steht eine mögliche Kostenzunahme im Sozialsektor von 265 Milliarden Euro pro Jahr gegenüber, wenn die Arbeitslosigkeit in Deutschland um zehn Prozentpunkte steigen sollte. Der gesamte volkswirtschaftliche Schaden wäre noch höher, wenn man entgangene Steuereinahmen und nicht realisierte Unternehmensrenditen mit einbezöge.

Einen solchen Anstieg halten Arbeitsmarktexperten durchaus für möglich. Die Bedrohung entstammt nicht etwa dem digitalen Wandel, dem unverändert auch das Stigma des Job-Vernichters angehängt wird. Vielmehr ist es der Verlust der Wettbewerbsfähigkeit mangels digitaler Strategien, der den Arbeitsmarkt bedroht. Dabei wird allerdings keineswegs der Fachkräftemangel behoben. Denn die hochqualifizierten Arbeitnehmer wandern dorthin ab, wo Arbeit ist – nach Europa, Nordamerika, Asien.

Hier soll Milla helfen, den Ausweg aus dem Digi-Tal für alle zu weisen. Dabei ist ein Belohnungsprinzip für fleißige Weiterbildner durchaus sinnvoll. Denn nur drei Prozent der Arbeitnehmer zwischen 30 und 60 Jahren bilden sich parallel zu ihrer Arbeit fort. Immerhin 39 Prozent geben an, „nicht-formal“, also eine eher sporadische Fortbildung ohne Zertifizierung, Abschluss oder Zeugnis zu betreiben. Das dürfte angesichts der Anforderungen kaum reichen.

 

Zurück in die Zukunft

Befinden wir uns noch in Gegenwart der Zukunft oder schon in der Zukunft, die wir gegenwärtig vorhersagen? Zu ähnlichen chrono-philosophischen Fragestellungen mag kommen, wer sich die zehn IT-Trends zu Gemüte führt, von denen die Auguren der Gartner Group glauben, dass sie vor allen anderen Trends das Jahr 2019 beeinflussen werden. Dabei haben die zehn Megatrends, die für das Jahr 2018 nach Ansicht von Gartner entscheidend gewesen sein sollten, noch kaum ihre Wirkung entfaltet. Aber bis zum Jahreswechsel sind es ja auch noch gut 60 Tage…

Denn kaum ein Unternehmen hat tatsächlich angefangen, seine Produktionsmaschinen und Produkte so mit Sensoren auszustatten, dass bei vollem Ernst von einem „digitalen Zwilling“ die Rede sein könnte, also einem genauen virtuellen Abbild der Realität, das durch die Daten entsteht, die von der Realität erzeugt werden. Jetzt aber spricht Gartner davon, dass es Unternehmen 2019 „leicht fallen „ werde, eine solche „Digital Twin“-Strategie umzusetzen. Bis zum Jahr 2020 sollen 20 Milliarden IP-Adressen im Internet der Dinge aktiv sein, die die Voraussetzung für den digitalen Zwilling von Milliarden Dingen sein werden. Sie werden durch die Daten, die sie sammeln, immer smarter und helfen dabei, das zukünftige Verhalten der Dinge zu simulieren.

Das greift bereits tief in die Trickkiste der künstlichen Intelligenz hinein, die dafür sorgen wird, dass die Dinge im Internet immer stärker autonom agieren und damit die Automatisierung auf einen neuen Level der Selbständigkeit bringen werden. Dabei werden auch die Methoden des Machine Learnings immer weiter genutzt, um tiefergehende Analysen zu ermöglichen, auf deren Basis dann Maschinen ihre Entscheidungen treffen. Dabei wird der Prozess der Datenaufbereitung, der Datenauswertung und der Datenvisualisierung auch selbst immer weiter automatisiert – augmented Analytics nennt Gartner das von nun an.

Dabei wird auch die Entwicklung von neuen KI-Algorithmen immer weiter automatisiert und mit Hilfe von KI-Systemen beschleunigt. Bis 2022 sollen diese Methoden bereits in 40 Prozent der Entwicklungsprojekte Realität sein. Damit verbunden ist freilich ein ungeheurer Bedarf an KI-Entwicklern, die zusammen mit Datenanalysten die Entwicklerteams begleiten. Man darf sich fragen, wie in der Zukunft dieser spezielle Fachkräftebedarf gedeckt wird.

Künstliche Intelligenz wird auch ins Edge Computing eingreifen. Mit der Edge rückt die Cloud wieder stärker an den eigentlichen Ort der Prozesse und Datenentstehung. Man könnte fast sagen, dass hier nach der Zentralisierung Richtung Cloud wieder ein Stück Dezentralisierung kommt, über die die Latenzzeiten – also die Wartezeit, bis die Cloud-Services über die 5G-Bandbreiten reagiert haben – verkürzt werden soll. Allerdings sollen spezielle KI-Chips auch dafür sorgen, dass diese peripheren Endgeräte smart genug sind, um auf Cloud-Services zu verzichten.

Dass mehr Rechenpower und KI-Cleverness auch wieder näher an den eigentlichen Ort des Geschehens rücken soll, findet laut Gartner auch seinen Grund in dem weiter zunehmenden Einsatz von Augmented Reality. Die virtuellen und begleitenden Realitätswelten benötigen nämlich enorme Rechnerleistung, um überhaupt zeit- und realitätsnah entstehen zu können. Das ganze wird dann mehr und mehr unsere Smart Spaces, wie Gartner den Sammelbegriff für Smart Homes, Smart Cities und Smart Factories nennt, beeinflussen.

Demzufolge wird sich ab 2019 eine Diskussion über digitale Ethik und die Bedeutung (wenn nicht den Verbleib) der Privatsphäre eröffnen, die die Rolle des Menschen in dieser KI-fizierten Zukunft untersucht. Vielleicht aber überlassen wir die Entscheidung über richtig und falsch dann schon den Quantum Computern, die auch komplexeste Wechselwirkungen zwischen Maschinen, Materialien, Methoden und Menschen simulieren können. Vielleicht empfiehlt uns Gartner dann, in die Gegenwart zurückzukehren – als Re-Dezentralisierung, Re-Despezialisierung, Re-Delinearisierung und zuletzt Regression.

 * Das Foto wurde der Steven-Spielberg-Produktion „Zurück in die Zukunft“ entnommen.

 

Irgendwas mit Cloud

 

Kann man sich noch vorstellen, dass die Studienberatungsstellen Ende des vergangenen Jahrtausends einmal davon abgeraten haben, Informatik zu studieren, weil das Angebot an Studienabgängern in absehbarer Zeit die Nachfrage übersteigen werde. Gut, dass viele Studierende damals auf die anderen MINT-Fächer – also Mathematik, Naturwissenschaften und Technik – ausgewichen sind oder wenigstens Wirtschaftsinformatik belegt haben. Wer das nicht tat, machte „Irgendwas mit Marketing“ oder „Irgendwas mit Medien“.

Anfang des neuen Jahrtausends sah die Welt dann ganz anders aus als in den Prognosen vorhergesagt. Das Y2K-Problem fegte den IT-Arbeitsmarkt leer. Der Hightech-Verband Bitkom identifizierte 30.000 offene Stellen im IT-Sektor, plädierte für die Green Card für gut ausgebildete Ausländer – und SAP sowie andere IT-Konzerne rekrutierten massenhaft Physiker, Chemiker und andere Absolventen analytisch geprägter Studiengänge, um sie als Programmierer, Systemanalytiker oder Berater umzuschulen. Andere – wie etwa Microsoft – setzten globale Schulungsmaßnahmen auf, um ihr Ökosystem fit für die Dezentralisierung der IT zu machen: Netzwerk-Administratoren, Helpdesk-Mitarbeiter und System-Engineers halten seitdem die IT am Laufen.

Inzwischen identifiziert der Bitkom allein in Deutschland ein Defizit von 55.000 IT-Fachkräften. Es würde freilich ohne die Schulungsmaßnahmen der IT-Anbieter noch schlimmer aussehen. Und immer noch bosseln wir an einem Einwanderungsgesetz herum, das uns den nötigen Skill ins Land bringt. Immer noch hängt unser Bildungssystem technologisch hinterher. Und bei einem Rekordtief der Arbeitslosenzahl mit 2,25 Millionen haben wir branchenübergreifend aktuell 834.000 offene Stellen.

Da ist es kein Wunder, dass IBM, SAP oder Microsoft das Bildungsdefizit selbst in die Hand nehmen. Der jüngste Vorstoß kommt mit der Microsoft Learn Platform jetzt aus Redmond. Der Clou dabei ist, dass damit nicht einfach nur eine weitere Zertifizierungsoffensive gestartet wird, sondern neue Cloud-orientierte Wissensgebiete mit bislang noch wenig verbreiteten Lernmethoden eröffnet werden. Microlearning und Gamification heißen dabei die Zauberworte, mit denen lebenslanges Lernen attraktiver und vor allem effektiver gestaltet werden soll.

Microsoft kommt damit auch einer veränderten Technologiewelt nach. Während früher mitunter Jahre zwischen der Ankündigung eines Produkts wie beispielsweise Windows Server und seiner tatsächlichen Markteinführung vergingen, liefern Cloud-Infrastrukturen heute Neuerungen im Wochentakt. Damit muss auch der Skill-Aufbau schneller erfolgen als in den guten alten PC-Zeiten. Doch wie damals, als der Personal Computer zugleich Gegenstand und Werkzeug des Lernens war, ist es heute die Cloud, die sich selbst ihre Kompetenzen schafft.

Die Microsoft Learn Platform wurde jetzt auf der Ignite in Orlando vorgestellt und dürfte erst der Anfang sein im Wettbewerb der Ökosysteme. Denn nach internen Analysen beklagen vor allem die großen IT-Anbieter, dass die technische Entwicklung inzwischen schneller voranschreitet als der Skill-Aufbau. Doch ohne ausgebildetes Personal können die Marktchancen, die sich gegenwärtig im Cloud Computing, im Internet of Things oder rund um die künstliche Intelligenz bieten, gar nicht genutzt werden. Microsoft Learn soll dieses Tempodefizit ausgleichen und neue Jobprofile ausprägen, die „irgendwas mit Cloud“ zu tun haben. Cloud Administrator, Cloud Developer, Cloud Solutions Architect heißen die neuen Fertigkeiten, mit denen die Herausforderungen des Cloud Computings gemeistert werden sollen wie Virtualisierung, Sicherheit, Datenmanagement oder Ressourcenmanagement. Hinzu kommen all die bislang unbekannten Jobs, derer es für die Gestaltung von KI-Systemen bedarf, um Machine Learning und Big Data Analytics voranzutreiben.

Es ist der alte, sich immer wieder bestätigende Wettlauf zwischen Mensch und Maschine. Je mehr die Maschinen können, umso mehr müssen auch die Menschen können. Technologie ist kein Jobvernichter, sondern ein Jobcreator. – Nur, dass die neuen Jobs kaum noch Ähnlichkeit mit den alten haben. Es wird lange dauern, ehe die Studienberater davon abraten werden, „Irgendwas mit Cloud“ zu studieren.