Verkehrte Welt

Nächsten Montag, am 23. April, öffnet die Industriemesse in Hannover ihre Pforten. Dann drehen sich wieder Kräne, rattern Bohrmaschinen, klappern Förderbänder, pochen Hammerwerke und surren die Fertigungsautomaten. Auf den ersten Blick wird sich gar nicht so viel geändert haben auf dem Messegelände in Hannover. Das Hochfest des deutschen Maschinen- und Anlagenbaus wird wieder einmal zeigen, dass der deutsche Exportüberschuss das Ergebnis harter Ingenieurskunst ist.

Doch es sind schon lange nicht mehr die Maschinen allein. Es sind die deutschen Tugenden wie Prozessoptimierung, Fertigungsautomation, integrierte Logistik und Materialkunde, die Produkte „Made in Germany“ international so beliebt machen. Daran werden wohl auch die Folterwerkzeuge eines amerikanischen Handelskrieges nicht viel ändern. Denn über den Preis hat der deutsche Maschinenbau noch nie verkauft – das wäre ein Wettlauf, den man hierzulande nur verlieren kann.

Wenn aber Functions und Features der deutschen Exportschlager immer mehr aus der Digitalisierung geschürft werden, dann wird die Innovationskraft immer stärker von der Frage abhängen, inwieweit deutsche Unternehmen in der Lage sind, den digitalen Wandel agil und zielorientiert zu betreiben. Das gilt für Anbieter und Anwender in gleichem Maße. Denn einerseits ist für die Fabrikautomation der Grundsatz “driven by Software” entscheidend. Andererseits sind die neuen GeschäftsModelle „driven by Data“. Beides sind hingegen US-amerikanische Tugenden.

Die wahre Industriemesse findet insofern eher in den Hallen statt. Und es ist nicht die klassische Hardware, die die Leistungsschau der HMI bestimmen wird, sondern die lautlose Software, die sich allenfalls in smarten Robotern, durch Gesten gesteuerte Handhabungsautomaten, durch Data Analytics optimiere Prozessketten vom Zulieferer des Zulieferers bis zum Kunden des Kunden manifestiert. So wie die Industrie, so wandelt sich auch die Industriemesse zu einer Digitalschau.

Wenn aber die Hannover Messe Industrie immer mehr den Charakter eines „CeFIT“ – eines Centrums für Fertigungsautomation, Informationstechnik und Telekommunikation – annimmt, wofür braucht’s dann noch des CeBITs? Das oder die Cebit war gut 30 Jahre lang der bürotechnische Aufgalopp zur Industriemesse. Hier wurden erst Computertrends und dann Softwaretrends gesetzt. Die Cebit zeigte Informationstechnik, die Industriemesse, was man daraus macht.

Heute hat die Industriemesse wieder zu sich selbst gefunden und damit zu einer Zeit zurück, in der Maschinen und Methoden eins waren. Nach dieser Wiedervereinigung muss die Cebit zu einer neuen Identität, zu einer neuen Mitte finden. Insofern ist die vielbelächelte Neuausrichtung als eventorientiertes Großereignis nur folgerichtig. Denn wo die Industriemesse das Zusammenspiel der digitalen Wirtschaft zeigt, wird die Cebit das Zusammenspiel unserer Gesellschaft in einer digitalisierten Welt beschreiben und vorleben. Und dieses Gesellschaftsspiel ist eventorientiert. Es setzt die Regeln einer teilenden, interaktiven, agilen und im Dauerdialog mit sich selbst befindlichen Gesellschaft um.
Erst Industriemesse, dann Cebit – der neue Messekalender erscheint nach drei Jahrzehnten wie einer verkehrte Welt. In Wahrheit stellt er aber die Dinge wieder vom Kopf auf die Füße.

Mythos Jobmotor

Der technologische Wandel ist der entscheidende Einflussfaktor im Arbeitsmarkt. Dieses Mantra geht seit Jahrzehnten um in den Studien zu Themen der Automatisierung und Digitalisierung. Je nach Ausrichtung der Studie geht die Tendenz dabei entweder in Richtung potenziellen Arbeitsplatzabbaus oder in die Erwartung auf eine zunehmende Zahl von Arbeitsplätzen.

Nichts scheint ferner von der Wirklichkeit zu sein, folgt man der aufwändigen Studie des Zentrums für Europäische Wirtschaftsforschung (ZEW), der eine intensive Betriebsbefragung zugrunde liegt. Danach hat die Phase der Computerisierung in deutschen Betrieben zwischen 1995 und 2011 zu einem Gesamtbeschäftigtenzuwachs von gerade einmal 0,18 Prozent pro Jahr geführt. Gemessen am tatsächlichen Zuwachs der Beschäftigtenzahl in diesem Zeitraum von 8,5 Prozent sind die Auswirkungen also gesamtwirtschaftlich betrachtet geradezu bedeutungslos.

Auch der aktuelle technologiebedingte Zuwachs an Beschäftigten, der durch Investitionen in Digitalisierung und Industrie 4.0-Technologien beeinflusst wird, ist mit etwa einem Prozent Zunahme pro Jahr eher gering. Dabei geht die Studie davon aus, dass sich die Unternehmen und Organisationen derzeit gerade in einer Investitionsphase befinden, in der zusätzliche Fachkräfte zur Einführung neuer Technologien benötigt werden, ehe sich Rationalisierungseffekte bemerkbar machen können.

Die Studie steht also in einem krassen Gegensatz zu den Marktanalysen, die die Digitalisierung als Ursache für einen massiven Arbeitsplatzverlust ansehen. Tatsächlich halten sich der Abbau von und die Schaffung neuer Stellen ungefähr die Waage. Einen der Gründe sehen die Studien-Autoren in den Analysen der vorangegangenen Technologiesprünge, bei denen sich zwar die Tätigkeitsbereiche der Mitarbeiter gewandelt haben, die Arbeitsplätze an sich aber erhalten blieben. So hat die erste Technologiewelle aus nicht IT-gestützten Maschinen, die den Menschen lediglich bei der Arbeit unterstützen, zwar viele manuelle Routinearbeiten verändert, nicht aber den Arbeitsplatz selbst. Eine weitere Veränderung entstand durch IT-gestützte, indirekt gesteuerte Maschinen, die einen Großteil der Arbeit übernehmen, während der Mensch nur noch indirekt tätig ist. Erst die sogenannten 4.0-Technologien führen zu selbststeuernden Maschinen und Analyseverfahren, bei denen die Arbeitsprozesse weitgehend selbständig und automatisch erfolgen.

Während aber nach ZEW-Einschätzung die Auswirkungen auf die Gesamtbeschäftigung nahezu folgenlos bleiben, ist die individuelle Strukturveränderung im einzelnen Betrieb substanziell. Wer sich also einem Technologiewandel verweigert, verliert an Marktbedeutung. Gleichzeitig entwickeln sich die Tätigkeiten im Unternehmen zu qualitativ immer höherwertigen Aufgaben. Das führt laut ZEW auch dazu, dass die Besoldungs-Schere in den Unternehmen immer weiter aufgeht: von manuellen Routinearbeiten über analytische Routinearbeiten in den untersten Besoldungsstufen bis hin zu analytischen adhoc-Aufgaben mit hohem Individualisierungsgrad. Schöner kann man den Fachkräftemangel in Deutschland nicht beschreiben.

Bei diesem Strukturwandel geht auch die Schere zwischen Nachzüglern und Vorreitern der Digitalisierung immer weiter auseinander. Das ZEW beobachtet hier eine Zwei-Klassen-Wirtschaft, in der die digitalen Vorreiter in der Summe fast doppelt so viele Beschäftigte haben und ein Vielfaches an Umsatz generieren. Sie sehen und nutzen die Chancen der Digitalisierung, während die Nachzügler vor allem Herausforderungen sehen. Vor ihnen zurückzuschrecken, wäre jedoch die falsche Entscheidung.

Leider bietet die Studie bei ihren Politikempfehlungen wenig Neues: Technologieeinsatz vorantreiben, Fachkräftemangel ausgleichen und Mobilität fördern sind die drei Schutzheiligen eines digitalen Wirtschaftsstandorts Deutschland. Diese Aufgaben liegen seit Jahr und Tag auf den Schreibtischen der Bundesregierung. Sie sollten jetzt mit der im Kanzleramt geschaffenen zentralen Verantwortung fürs Digitale auch konsequent umgesetzt werden.

Die Studien-Autoren sind selbst verhalten optimistisch, was die Perspektiven für Deutschland angeht. Ihr Fazit lautet (Zitat): „Wenn es gelingt, neue Technologien in der Breite der deutschen Betriebslandschaft zu fördern, auch indem gefragte Fachkräfte verstärkt ausgebildet und Arbeitskräfte gezielt weitergebildet werden, sprechen die Ergebnisse dieser Studie dafür, dass die neuen technologischen Entwicklungen zu einem Zuwachs an Beschäftigung und Wohlstand für einen großen Teil der Gesellschaft führen können.“

Der Mythos Jobmotor hat aber auch seine dunkle Seite, wie die Autoren ein wenig achselzuckend hinzufügen (Zitat): „Für diejenigen, die auch trotz entsprechender Angebote nicht in die Lage versetzt werden können, in einem sich wandelnden Arbeitsmarkt eine Beschäftigung zu finden, sind darüber hinaus sozialpolitische Maßnahmen notwendig und sinnvoll.“

 

Kein Aprilscherz, oder?

Jahrelang hat sich Microsoft erfolgreich gegen eine Zerschlagung des Konzerns gewehrt. Immer wieder haben Wettbewerbshüter den Versuch unternommen, den Quasi-Monopolisten bei Desktop-Betriebssystemen und Office-Lösungen zu schwächen. Am Ende blieben schwere Auflagen für einen ansonsten unangetasteten Marktherrscher. Jetzt, wo Microsofts Position längst nicht mehr unangreifbar ist, scheint CEO Satya Nadella die Aufteilung des Unternehmens selbst voranzutreiben – diesmal zur Stärkung.

Danach könnte sich Microsoft nach dem Vorbild anderer Technologiekonzerne in zwei getrennte Segmente aufteilen, die mit sauber abgegrenzten Geschäftsmodellen und Technologiebereichen ihren Markt finden – und in einem durchaus heftigen Wettbewerbsumfeld zu neuer Dominanz heranzureifen. Das gilt insbesondere für die wachstumsstarken Sparten Cloud und Artificial Intelligence, deren Entwicklungsarbeiten in einer neu sortierten Unit zusammengefasst werden sollen. Dazu wird die bisherige Windows and Devices Group (WDG) geteilt. Der Bereich Experiences and Devices wird künftig von Vice President Rajesh Jha geführt, die Cloud und AI-Gruppe von Scott Guthrie. Windows- und Devices-Chefentwickler Terry Myerson verlässt das Unternehmen.

Was derzeit noch als interne Aufspaltung dargestellt wird, könnte durchaus der Beginn einer Neuausrichtung des Konzerns in mehrere, schlankere und getrennt von einander operierende Unternehmen sein. Denn die Märkte entwickeln sich in unterschiedlichen Geschwindigkeiten: Während das Cloud-Geschäft boomt und der Bereich Artificial Intelligence zum nächsten ganz großen Ding für Microsoft zu werden verspricht, wächst das PC-Geschäft kaum noch – wenn überhaupt. Gleichzeitig mehren sich Spekulationen, dass Satya Nadella plant, wieder stärker ins Hardware-Geschäft einzusteigen. Eine Device-Company aber würde nach anderen Regeln operieren als ein Cloud-Anbieter.

Denn Hardware – das sind nicht nur Surface-Tablets. Der Erfolg von Amazons Echo, der wachsende Markt für Virtual Reality und Daten-Brillen, die Kombination von künstlicher Intelligenz und Autos, Robotern und Drohnen könnte zu ganz neuen Marktsegmenten führen. Wenn sie schon nicht mit eigener Hardware bestückt werden können, sollte wenigstens das Betriebssystem für diese Systeme Windows heißen.

Deshalb arbeitet Microsoft hart daran, mit Windows jenen Wandlungsprozess zu wiederholen, der schon mit der Office-Suite gelungen ist. Denn schneller als selbst vom Management in Redmond erwartet, wenden sich die Office-Kunden der Cloud-Variante Office 365 zu. Das ist mit Microsoft 365 noch einmal das Ziel: dabei werden Windows-Funktionen mit Zusatzdiensten aus der Cloud für Sicherheit und Interoperabilität angereichert, mit denen nutzungsorientierte, wiederholbare Umsätze erzielt werden können.

Wie sehr jedoch alles bei Microsoft in Zukunft auf der Cloud und darin wiederum auf Artificial Intelligence aufbaut, zeigen einige andere Reorganisationsmaßnahmen, die am 29. März in einem internen Memo von Satya Nadella angekündigt wurden. So werden AI-Services wie Azure Machine Learning, Cognitive Computing und das Bot-Framework in einer neuen Organisation unter dem Titel „AI Platform, Tools and Cognitive Services“ zusammengefasst. Parallel dazu entsteht mit dem Team unter dem Titel „AI Perception and Mixed Reality Services“ eine zweite Entwicklertruppe, in der die HoloLens, Sprach- und Bilderkennung und sogenannte Mixed Reality-Lösungen zusammengefasst werden.

Noch, so heißt es aus Redmond, wird das Berichtswesen unverändert bleiben. Aber die Basis ist gelegt für eine langfristige Trennung der Einheiten in eine stärker auf „Devices“ und eine auf „Advices“ ausgerichtete Company – beide beflügelt durch Cloud und Artificial Intelligence. Ob es wirklich auch zu einer fiskalischen und rechtlichen Trennung kommen wird, wie es Google mit der Alphabet-Holding unternommen hat, steht in den April-Sternen. Aber ein Scherz ist es wohl nicht. Oder doch?

 

Cloud ist nicht Cloud

In der galaktischen Enzyklopädie „The Hitchhiker´s Guide to the Galaxy“ steht der lebenskluge Rat: „Traue keinem Wesen, von dem du nicht weißt, womit es denkt…“

Gut, also gilt es auf der Erde – immerhin ein Teil dieser Galaxie – zu fragen: Womit denken Alexa, Cortana oder Siri? Wo denkt sich Amazon unsere Kaufempfehlungen aus? Was denkt das Google-Auto, wenn es abbiegt? Wer trifft wo die Entscheidungen im Internet der Dinge?

Zugegeben, Dinge sind keine Wesen. Sie werden durch künstliche Intelligenz zwar vielleicht wesenhaft – aber das ist auch alles. Wo und womit sie kalkulieren und wer die Algorithmen dafür bereitstellt – diese Fragen gewinnen von Tag zu Tag an Bedeutung. Um das zu verstehen, bedarf es offensichtlich erst eines Großskandals wie den um die massenhafte Ausspähung von Facebook-Accounts durch Cambridge Analytica und der mutmaßlichen Weiterverwertung der Beute für die Präsidentenwahl in den USA und das Brexit-Referendum in Großbritannien.

Denn künstliche Intelligenz ist als „Gott der kleinen Dinge“ offensichtlich so unterschwellig, dass sie von ihren Nutzern gar nicht als solche wahrgenommen wird. Nicht einmal jeder sechste Deutsche will laut einer jetzt veröffentlichten Studie bemerkt haben, im letzten Jahr mit künstlicher Intelligenz in Berührung gekommen zu sein. Allein die Verkaufszahlen der Smartphones mit ihren KI-Funktionen in der Spracherkennung und den Einkaufs-Apps bei Amazon bis Zalando weisen darauf hin, dass mehr als die Hälfte der Bevölkerung mehrfach wöchentlich KI-Erfahrungen gemacht haben müsste.

Das ist das Phänomen der zweiten Welle des Cloud Computings: Wir greifen über benutzerfreundliche Schnittstellen auf Funktionen zurück, deren Funktionsweise, ja sogar deren Existenz uns nicht bewusst ist. Denn die Cloud ist schon lange nicht mehr nur das externe Rechenzentrum, in das Unternehmen ihre IT auslagern, um mehr Flexibilität und weniger Kosten zu erzielen. Die zweite Welle der Cloud liefert eine Plattform für Funktionen, die wir mobil und „on the fly“ nutzen, ohne dafür die Rechenleistung mit uns herumschleppen zu müssen. Online-Shopping, Spracherkennung, (teil-)autonomes oder vernetztes Fahren, Security Features, smart Data, predictive Analytics – all das nutzen wir, ohne es uns recht bewusst zu machen. Das freundliche Application Programming Interface liefert uns den Service frei Haus.

Das ist so gut und so schlecht wie die Absichten, die damit verfolgt werden. Deshalb baut die zweite Welle des Cloud Computings immer stärker auf die wichtigste Währung im Internet, mit der sich nicht über Blockchain spekulieren lässt: Vertrauen. Es geht nicht mehr um die Frage, wem man Anwendungen und Daten anvertraut. Es geht inzwischen um die Frage, wem man (Vor-) Entscheidungen anvertrauen möchte.

Für Unternehmen und Organisationen wird es somit immer wichtiger, diese zweite Welle des Cloud Computings für sich zu nutzen. Denn Cloud-Services mit künstlicher Intelligenz bieten nicht nur mehr Kundenkomfort, sie binden durch eine positive Customer Experience ihre Kunden immer stärker an die Plattform, der sie sich anvertraut haben. Für Markenanbieter wird das zu einem wettbewerbsentscheidenden Imagefaktor. Die „Freude am Fahren“ oder der „Vorsprung durch Technik“ wird nicht mehr durch die Motorleistung des Fahrzeugs erfahrbar, sondern durch die Serviceleistungen des vernetzten Automobils. Die Eigenschaften eines Haushaltsgeräts definieren sich nicht mehr aus seiner Hardware, sondern aus der Plattform heraus, vom dem es seine Software-Updates bezieht. Und der Online-Einkauf bei der Modemarke des Vertrauens definiert sich nicht mehr ausschließlich über Produkt und Preis, sondern über die Customer Experience.

Doch schon erscheint die dritte Cloud-Welle am KI-Horizont. Durch sie werden die Services nicht mehr nur den Kunden zur Verfügung gestellt, sondern den Dingen selbst, die untereinander vernetzt sind, Daten austauschen und koordiniert agieren. Fahrzeuge teilen sich Störungen im Verkehrsablauf mit, Lieferdienste optimieren die letzte Meile, Maschinen verzahnen die Wertschöpfungskette.

Unternehmen und Organisationen sollten ihre Digitalstrategie möglichst schnell auf diese zweite und dritte Welle des Cloud Computings ausrichten und dabei sich selbst und den Kunden in den Mittelpunkt stellen. Sonst weiß man bald wirklich nicht mehr, womit das Ding da draußen denkt…