Verkehrte Welt

Nächsten Montag, am 23. April, öffnet die Industriemesse in Hannover ihre Pforten. Dann drehen sich wieder Kräne, rattern Bohrmaschinen, klappern Förderbänder, pochen Hammerwerke und surren die Fertigungsautomaten. Auf den ersten Blick wird sich gar nicht so viel geändert haben auf dem Messegelände in Hannover. Das Hochfest des deutschen Maschinen- und Anlagenbaus wird wieder einmal zeigen, dass der deutsche Exportüberschuss das Ergebnis harter Ingenieurskunst ist.

Doch es sind schon lange nicht mehr die Maschinen allein. Es sind die deutschen Tugenden wie Prozessoptimierung, Fertigungsautomation, integrierte Logistik und Materialkunde, die Produkte „Made in Germany“ international so beliebt machen. Daran werden wohl auch die Folterwerkzeuge eines amerikanischen Handelskrieges nicht viel ändern. Denn über den Preis hat der deutsche Maschinenbau noch nie verkauft – das wäre ein Wettlauf, den man hierzulande nur verlieren kann.

Wenn aber Functions und Features der deutschen Exportschlager immer mehr aus der Digitalisierung geschürft werden, dann wird die Innovationskraft immer stärker von der Frage abhängen, inwieweit deutsche Unternehmen in der Lage sind, den digitalen Wandel agil und zielorientiert zu betreiben. Das gilt für Anbieter und Anwender in gleichem Maße. Denn einerseits ist für die Fabrikautomation der Grundsatz “driven by Software” entscheidend. Andererseits sind die neuen GeschäftsModelle „driven by Data“. Beides sind hingegen US-amerikanische Tugenden.

Die wahre Industriemesse findet insofern eher in den Hallen statt. Und es ist nicht die klassische Hardware, die die Leistungsschau der HMI bestimmen wird, sondern die lautlose Software, die sich allenfalls in smarten Robotern, durch Gesten gesteuerte Handhabungsautomaten, durch Data Analytics optimiere Prozessketten vom Zulieferer des Zulieferers bis zum Kunden des Kunden manifestiert. So wie die Industrie, so wandelt sich auch die Industriemesse zu einer Digitalschau.

Wenn aber die Hannover Messe Industrie immer mehr den Charakter eines „CeFIT“ – eines Centrums für Fertigungsautomation, Informationstechnik und Telekommunikation – annimmt, wofür braucht’s dann noch des CeBITs? Das oder die Cebit war gut 30 Jahre lang der bürotechnische Aufgalopp zur Industriemesse. Hier wurden erst Computertrends und dann Softwaretrends gesetzt. Die Cebit zeigte Informationstechnik, die Industriemesse, was man daraus macht.

Heute hat die Industriemesse wieder zu sich selbst gefunden und damit zu einer Zeit zurück, in der Maschinen und Methoden eins waren. Nach dieser Wiedervereinigung muss die Cebit zu einer neuen Identität, zu einer neuen Mitte finden. Insofern ist die vielbelächelte Neuausrichtung als eventorientiertes Großereignis nur folgerichtig. Denn wo die Industriemesse das Zusammenspiel der digitalen Wirtschaft zeigt, wird die Cebit das Zusammenspiel unserer Gesellschaft in einer digitalisierten Welt beschreiben und vorleben. Und dieses Gesellschaftsspiel ist eventorientiert. Es setzt die Regeln einer teilenden, interaktiven, agilen und im Dauerdialog mit sich selbst befindlichen Gesellschaft um.
Erst Industriemesse, dann Cebit – der neue Messekalender erscheint nach drei Jahrzehnten wie einer verkehrte Welt. In Wahrheit stellt er aber die Dinge wieder vom Kopf auf die Füße.

Mythos Jobmotor

Der technologische Wandel ist der entscheidende Einflussfaktor im Arbeitsmarkt. Dieses Mantra geht seit Jahrzehnten um in den Studien zu Themen der Automatisierung und Digitalisierung. Je nach Ausrichtung der Studie geht die Tendenz dabei entweder in Richtung potenziellen Arbeitsplatzabbaus oder in die Erwartung auf eine zunehmende Zahl von Arbeitsplätzen.

Nichts scheint ferner von der Wirklichkeit zu sein, folgt man der aufwändigen Studie des Zentrums für Europäische Wirtschaftsforschung (ZEW), der eine intensive Betriebsbefragung zugrunde liegt. Danach hat die Phase der Computerisierung in deutschen Betrieben zwischen 1995 und 2011 zu einem Gesamtbeschäftigtenzuwachs von gerade einmal 0,18 Prozent pro Jahr geführt. Gemessen am tatsächlichen Zuwachs der Beschäftigtenzahl in diesem Zeitraum von 8,5 Prozent sind die Auswirkungen also gesamtwirtschaftlich betrachtet geradezu bedeutungslos.

Auch der aktuelle technologiebedingte Zuwachs an Beschäftigten, der durch Investitionen in Digitalisierung und Industrie 4.0-Technologien beeinflusst wird, ist mit etwa einem Prozent Zunahme pro Jahr eher gering. Dabei geht die Studie davon aus, dass sich die Unternehmen und Organisationen derzeit gerade in einer Investitionsphase befinden, in der zusätzliche Fachkräfte zur Einführung neuer Technologien benötigt werden, ehe sich Rationalisierungseffekte bemerkbar machen können.

Die Studie steht also in einem krassen Gegensatz zu den Marktanalysen, die die Digitalisierung als Ursache für einen massiven Arbeitsplatzverlust ansehen. Tatsächlich halten sich der Abbau von und die Schaffung neuer Stellen ungefähr die Waage. Einen der Gründe sehen die Studien-Autoren in den Analysen der vorangegangenen Technologiesprünge, bei denen sich zwar die Tätigkeitsbereiche der Mitarbeiter gewandelt haben, die Arbeitsplätze an sich aber erhalten blieben. So hat die erste Technologiewelle aus nicht IT-gestützten Maschinen, die den Menschen lediglich bei der Arbeit unterstützen, zwar viele manuelle Routinearbeiten verändert, nicht aber den Arbeitsplatz selbst. Eine weitere Veränderung entstand durch IT-gestützte, indirekt gesteuerte Maschinen, die einen Großteil der Arbeit übernehmen, während der Mensch nur noch indirekt tätig ist. Erst die sogenannten 4.0-Technologien führen zu selbststeuernden Maschinen und Analyseverfahren, bei denen die Arbeitsprozesse weitgehend selbständig und automatisch erfolgen.

Während aber nach ZEW-Einschätzung die Auswirkungen auf die Gesamtbeschäftigung nahezu folgenlos bleiben, ist die individuelle Strukturveränderung im einzelnen Betrieb substanziell. Wer sich also einem Technologiewandel verweigert, verliert an Marktbedeutung. Gleichzeitig entwickeln sich die Tätigkeiten im Unternehmen zu qualitativ immer höherwertigen Aufgaben. Das führt laut ZEW auch dazu, dass die Besoldungs-Schere in den Unternehmen immer weiter aufgeht: von manuellen Routinearbeiten über analytische Routinearbeiten in den untersten Besoldungsstufen bis hin zu analytischen adhoc-Aufgaben mit hohem Individualisierungsgrad. Schöner kann man den Fachkräftemangel in Deutschland nicht beschreiben.

Bei diesem Strukturwandel geht auch die Schere zwischen Nachzüglern und Vorreitern der Digitalisierung immer weiter auseinander. Das ZEW beobachtet hier eine Zwei-Klassen-Wirtschaft, in der die digitalen Vorreiter in der Summe fast doppelt so viele Beschäftigte haben und ein Vielfaches an Umsatz generieren. Sie sehen und nutzen die Chancen der Digitalisierung, während die Nachzügler vor allem Herausforderungen sehen. Vor ihnen zurückzuschrecken, wäre jedoch die falsche Entscheidung.

Leider bietet die Studie bei ihren Politikempfehlungen wenig Neues: Technologieeinsatz vorantreiben, Fachkräftemangel ausgleichen und Mobilität fördern sind die drei Schutzheiligen eines digitalen Wirtschaftsstandorts Deutschland. Diese Aufgaben liegen seit Jahr und Tag auf den Schreibtischen der Bundesregierung. Sie sollten jetzt mit der im Kanzleramt geschaffenen zentralen Verantwortung fürs Digitale auch konsequent umgesetzt werden.

Die Studien-Autoren sind selbst verhalten optimistisch, was die Perspektiven für Deutschland angeht. Ihr Fazit lautet (Zitat): „Wenn es gelingt, neue Technologien in der Breite der deutschen Betriebslandschaft zu fördern, auch indem gefragte Fachkräfte verstärkt ausgebildet und Arbeitskräfte gezielt weitergebildet werden, sprechen die Ergebnisse dieser Studie dafür, dass die neuen technologischen Entwicklungen zu einem Zuwachs an Beschäftigung und Wohlstand für einen großen Teil der Gesellschaft führen können.“

Der Mythos Jobmotor hat aber auch seine dunkle Seite, wie die Autoren ein wenig achselzuckend hinzufügen (Zitat): „Für diejenigen, die auch trotz entsprechender Angebote nicht in die Lage versetzt werden können, in einem sich wandelnden Arbeitsmarkt eine Beschäftigung zu finden, sind darüber hinaus sozialpolitische Maßnahmen notwendig und sinnvoll.“

 

Sparen wäre falsch

Er wisse genau, welche Rede er halten müsste, um den Saal zum Toben zu bringen. Leider werden wir nie erfahren, was Jens Spahn seinen neuen Kollegen im Bundesgesundheitsministerium gesagt hätte. Aber wir können es ja mal probieren:

Jens Spahn hätte zum Beispiel sagen können, dass die 8000 Pflegekräfte, die die große Koalition fest eingeplant hat, nur ein erster Anfang sind. Dass also die Zahl der Arbeitsplätze im Pflegebereich stärker dem tatsächlichen Bedarf angepasst werden soll. Angesichts der heute gängigen Praxis, dass Pflegedienste bereits Kündigungen aussprechen, weil sie den zusätzlichen Anforderungen nicht mehr genüge tun können, wäre das ein Satz, der nicht nur den Saal zum Toben gebracht hätte. Vielleicht hätte der Bundesgesundheitsminister auch gesagt, dass die Digitalisierung im Pflegebereich stärker Einzug nehmen soll – zum Beispiel durch Pflegeroboter, die die Mitarbeiter vor körperlicher Überforderung bewahren.

Vielleicht hätte Jens Spahn auch gesagt, dass es nun mit der Entwicklung einer patientenzentrierten, standardisierten, elektronischen Gesundheitsakte ernst werden soll. Ihr Ziel, nämlich die Schaffung eines einfachen, barrierefreien Zugangs für jeden Patienten zu seinen eigenen Gesundheitsdaten, würde die therapeutische Partnerschaft mit dem ärztlichem Fachpersonal stärken. Bisher blieb dieser Plan immer nur in den Anfängen stecken.

Dabei könnte sie wie schon die ebenfalls steckengebliebene Gesundheitskarte unmittelbar Leben retten. Denn je schneller im Notfall die ärztlichen Helfer Klarheit über Vorerkrankungen und Medikamentenversorgung erhalten, desto konkreter können sie eingreifen.

Dazu ist es allerdings auch Voraussetzung, dass die Deutschen sich aus sicheren Quellen über medizinische Themen, Gesundheitsfragen und Vorsorge informieren können. Immer häufiger vertrauen sich Patienten lieber „Doktor Google“ an und versorgen sich bei Doc Morris oder anderen Online-Apotheken mit dem schnell wirkenden Schmerzmittel, das es rezeptfrei over the counter gibt. Die seriöse Beratung wird dagegen einer Diskussion um die Zwei-Klassen-Gesellschaft geopfert.

Der Bundesgesundheitsminister hätte also in seiner ungehaltenen Rede eine Online-Plattform ankündigen können, die ein umfassendes und gut vernetztes Informationsangebot bereit hält. So würde nicht nur die Gesundheitskompetenz in der Gesellschaft verbessert. Die Informationsplattform könnte auch zu mehr Transparenz bei den wahren Kostentreibern im Gesundheitswesen beitragen. Der Nutzen von Therapiepfaden und die dabei verursachten -kosten sind heute doch nur Experten verständlich.

Dabei muss nicht nur ein rechtssicherer Rahmen für Patienteninformationen geschaffen werden, sondern auch für die Apparate und Anwendungen, in denen diese Patientendaten entstehen. Damit ist zugleich die Basis für eine Digitalstrategie im Gesundheitswesen geschaffen, die es Kliniken und Ärztegemeinschaften erlaubt, fach- und therapieübergreifend neue Technologien zu nutzen. Vor allem der Einsatz der künstlichen Intelligenz zur Analyse und Diagnose, sowie zur Wahl der richtigen Therapie und schließlich zu ihrer Überwachung könnte ein Schwerpunkt der Rede von Jens Spahn gewesen sein.

Dazu braucht es neue Formen der Kooperation zwischen den etablierten Trägern der Gesundheitsversorgung und Newcomern wie den Internet-Giganten und Startups der digitalen Wirtschaft. Der Bundesgesundheitsminister hätte darüber reden können, wie traditionelle Medizin und Digitales zu einem neuen Gesundheitswesen 4.0 zusammen geschmiedet werden. Fitness-Tracker, Smart Watches, Gesundheits-Apps und Online-Plattformen gibt es bereits zu Hauf. Aber die Hürden, die überwunden werden müssen, damit alle diese Systeme auch zum Wohle des Patienten zusammenarbeiten können, sind hoch. Aber sie wären die richtige Herausforderung für einen zupackenden Politiker vom Schlage eines Jens Spahn.

Zugegeben – das alles kostet Geld. Und weil das so ist, hat der Bundesgesundheitsminister diese Rede auch nicht gehalten. Aber sparen wäre jetzt das falsche.

Das Microsoft-Dilemma

Wer Vertrauen gewinnt, gewinnt auch Marktanteile. Und mit jedem neuen Kunden wächst die Verantwortung für das Produkt, seinen Nutzen, seine Sicherheit und Zukunftsfähigkeit. Sonst verliert man erst das Vertrauen und dann Marktanteile… – Das ist der Teufelskreis des Marketings.

Aber es gibt Ausnahmen. Bild beispielsweise ist die meist-verleugnete Zeitung in Deutschlands Blätterwald: kein Vertrauen, kein Ansehen, kein Abonnement. Und doch entschieden sich zu Spitzenzeiten fünf Millionen Käufer täglich dafür, sich durch Bild eine Meinung zu bilden.

Bild ist heute ein Opfer der Digitalwirtschaft – bei einer täglichen Leserschaft von „nur noch“ einer Million plus. Das Blatt verliert seine Käufer an die elektronischen und sozialen Medien, obwohl auch diese nicht gerade einen offiziellen Vertrauensvorschuss genießen. Jeder distanziert sich von Fake-News, Shit-Storms und Hass-Predigten – und doch decken Millionen Online-Leser ihren täglichen Kommunikationsbedarf über Facebook, Twitter und Co.

Ganz allgemein gilt für die Internet-Giganten wie Facebook, Amazon, Google, Microsoft, Apple oder Alibaba, dass sie schon ihrer schieren Größe wegen kaum Vertrauen genießen. Jeder mögliche Missbrauch ihrer Marktmacht wird bereitwillig unterstellt. Aber ihre Größe verdanken die Anbieter ausschließlich ihrer enormen Kundenzahl, was bisweilen monopolhafte Züge annimmt. Milliarden User vertrauen diesen Plattformen ihre persönlichen Daten, ihre Verhaltensmerkmale, ihre Beziehungen und ihre Geschäftsprozesse an. Vertrauen ohne Zutrauen – das funktioniert, scheint´s, vor allem in der Digitalwirtschaft.

Für Microsoft ist diese Paradoxie des Marketings schon seit seligen DOS-Zeiten der Normalzustand. MS-DOS und Windows sind wohlmöglich die am schlechtesten beleumundeten Produkte unter den Quasi-Monopolen. Negativ-Berichterstattung über „Windoof“ gehört einfach zum guten Ton. Und doch ist es weiterhin das am meisten verbreitete PC-Betriebssystem. An Installationszahlen wird es nur übertroffen von Googles Android, obwohl der Suchmaschinen-Gigant nun wirklich nicht den Ruf hat, ein Vertrauensmonopol zu besitzen.

Das „Microsoft-Dilemma“ hat es jetzt auch ins Abendprogramm des Fernsehens gebracht, als in einer breit angelegten Berichterstattung die mutmaßliche Abhängigkeit deutscher Behörden angeprangert wurde. Dabei – und ganz im Gegensatz zum Tenor der Beiträge – entscheidet sich die öffentliche Hand immer wieder für Microsoft als Anbieter der Wahl und gibt dabei sogar Versuche mit Open Source-Angeboten auf. Genau genommen gibt es eine langjährige und intensive, wenn nicht sogar vertrauensvolle Lösungspartnerschaft zwischen beiden.

Tageszeitungen wie die FAZ haben das „Microsoft-Dilemma“ aufgegriffen und warnen vor der Gefahr, durch Internet-Giganten ausgespäht zu werden, wenn diese in der Cloud Zugriff auf Personen- oder Firmendaten erhalten. Tatsächlich aber hat Microsoft schon vor drei Jahren zwei Rechenzentren in die Treuhänderschaft der Deutschen Telekom gegeben, um sich erstens das Vertrauen ihrer Cloud-Kunden zu verdienen. Es geschah aber auch, um zweitens möglichen Gewissenskonflikten, wie sie derzeit im Prozess gegen die US-Regierung drohen, zu entgehen. Die US-Behörden stehen auf dem Standpunkt, dass Daten auch dann im Fahndungsfall ausgeliefert werden müssen, wenn sich weder Daten, noch Betreiber in den USA befinden – solange nur der Firmensitz der Muttergesellschaft dort gemeldet ist.

Mehr vertrauensbildende Maßnahme als die treuhänderische Verwaltung gibt es nicht. Aber diese deutsche Cloud wird von Deutschen nur zögernd angenommen. Umgekehrt wächst Microsofts standardisiertes Cloud-Angebot hierzulande schneller als in jedem anderen Land. Die Azure Plattform ist im Begriff, Amazons Web Services weltweit den Rang abzulaufen. Dabei folgen beide den üblichen Sicherheitsstandards der Digitalwirtschaft – aber viel mehr auch nicht. Offensichtlich schafft weniger Sicherheit mehr Vertrauen.

Es ist das Absurdistan der Cloud-Welt. Jeder führt das Thema Sicherheit auf der Zunge, aber wenns ans Schlucken geht, sind es vor allem die Kosten, die es zu verdauen gilt. Was sollte man Microsoft hierzulande raten? Mehr Vertrauen durch weniger Sicherheit? In jedem Fall kann Microsoft mit dem Sicherheits-Doppelbeschluss nur gewinnen. Einerseits schützt der Hochsicherheitstrakt hinter den Mauern der Deutschen Telekom nicht nur in dem Fall vor dem Zugriff der US-Behörden, dass Microsoft den Prozess verlieren sollte. Er schützt im Falle eines gewonnenen Prozesses andererseits auch vor der Unterstellung, Microsoft würde mit den Daten seiner Kunden eigene Interessen verfolgen. Und drittens kann Microsoft unabhängig vom Ausgang der gerichtlichen Auseinandersetzung sein Azure-Angebot mit üblichen Sicherheitsstandards zu wettbewerbsstarken Preisen ausbauen. So gewinnt man vielleicht nicht mehr Vertrauen, aber wenigstens mehr Marktanteile.