Hannover Messe CeBIT Industrie 4.0

Wir schalten zurück ins Frühjahr 1985. In den Marketingabteilungen von rund 7000 Unternehmen laufen die Vorbereitungen für den Auftritt zur Hannover Messe Industrie auf Hochtouren. Im April werden dort wieder die Tore geöffnet, um Bagger, Kräne, Fließbänder und Fertigungsmaschinen zu zeigen. Auch Roboter – oder richtiger: Handhabungsautomaten – werden präsentiert. Und natürlich das „Centrum für Büro- und Informationstechnik“ mit 1300 Ausstellern, das wegen der nur schwer ab- und aufzubauenden Mainframes Ganzjahres-Dauergast in der Halle 1 am Nordeingang war.

Kurzer Exkurs: Auch wenn keine Messe war – nirgendwo auf der Welt gab es so viele „Mipse“ wie im Keller der Halle 1. „Mips“ (oder Milion Instructions per Second) war damals die Maßeinheit für Großrechnerleistungen, die heute längst durch  „Gips“ und „Tips“ abgelöst sind. Aber wer zählt heute noch so? Exkurs Ende.

Doch bei 870 EDV-Unternehmen gab es keinerlei Vorbereitungen. Sie hatten von der Deutschen Messe AG eine Absage erhalten. Denn obwohl das CeBIT bereits auf zwei weitere Hallen ausgewichen war, fehlte der Platz für die Repräsentanten der digitalen Revolution. Die logische Konsequenz führte zur ersten alleinigen CeBIT – einen Monat vor der Industriemesse – im Jahr 1986.

Doch 1985 wurde noch heftig Ungemach über die Deutsche Messe AG ausgekübelt. Eine „Fehleinschätzung, die von der Geschichte bestätigt werden wird“, war die Loslösung des CeBIT für Roland Mecklinger, damals Vorstandsmitglied der SEL (Standard Elektrik Lorenz, wer erinnert sich?, heute Alcatel-Lucent). Auch der legendäre Heinz Nixdorf, der freilich die Erfolgsstory der unabhängigen CeBIT nie erleben sollte, weil er auf der ersten unabhängigen CeBIT einem Herzinfarkt erlag, grummelte vor 30 Jahren: „Wir wurden nicht gefragt!“

Inzwischen wurden Hunderttausende gefragt und haben „Ja“ gesagt zur unabhängigen CeBIT – in der nächsten Woche also zum 29sten Mal.

„Die CeBIT“ ist heute längst keine Messe der Informationswirtschaft und Telekommunikation. Sie ist ein gesellschaftspolitisches Ereignis. Sowas wie das Weltinformationswirtschaftsforum – nur nicht in Davos, sondern in Hannover. Mit Themen wie der „Shared Economy“, der „Datability“ oder der „Digitalen Fabrik“ und der „Digitalen Ökonomie“ hat die CeBIT einen gesellschafts-relevanten Charakter. Sie wird inzwischen ebenso im Feuilleton zitiert wie im Wirtschaftsteil einer Zeitung. Ihre Präsenz als politische Weltbühne wird bestätigt durch die Teilnahme von Angela Merkel, David Cameron oder, ach ja: Arnold Schwarzenegger.

So wie soziale Medien, autonomes Autofahren, RFID, Big Data die Wirtschaft beeinflussen, so verändern diese Themen auch unser gesellschaftliches Selbstverständnis. Und die CeBIT ist das Messe-Spiegelbild dieser Diskussion. Sie ist ein Vielfaches größer als die Consumer Electronics Show in Las Vegas und der Mobile World Congress in Barcelona.

Aber kann sie angesichts des Megatrends rund um Industrie 4.0 noch ohne die Industriemesse? Frisst die Revolution ihre Kinder? Oder ist es gar eine Konterrevolution, die das Thema Informationswirtschaft mit der industriellen Fertigungswelt (wieder)vereint? 1985 kündigte IBM an, der Industriemesse treu zu bleiben, weil die CeBIT ohne das industrielle Umfeld der Hannover Messe ihre Kundschaft verlieren könne. Später gehörte IBM zu den größten Ausstellern auf der CeBIT. Und heute hat das Unternehmen praktisch keinen Bezug mehr zur Industrie.

Das aber haben zahllose Startups, die sich mit ihren Produktideen sowohl auf der CeBIT als auch auf der Industriemesse wohl fühlen würden. Nächste Woche sind sie in einer proppenvollen Halle 11 zu besichtigen und werden im April ebenfalls in den Nischenpräsentationen der Industriemesse zu sehen sein. Viele globale Player der Fertigungsautomation, der Logistik oder der Datenanalyse sehen sich längst wieder hin und hergerissen zwischen den beiden weltweiten Leitmessen.

Die Deutsche Messe AG wird handeln müssen. Mit Industrie 4.0 hat sie ein Luxusproblem. Für eine Zusammenlegung gibt es aus Gründen des Zeitmanagements und der Platzverfügbarkeit keinen vernünftigen Grund. Aber – Überraschung, Überraschung – beide Messen rücken durch die Digitalisierung der Geschäftsprozesse wieder näher aneinander. Und gleichzeitig exportiert die Deutsche Messe äußerst erfolgreich ihr Messekonzept ins Ausland – zuletzt nach Indien. Global Conferences around the world and around industry 4.0 – die Deutsche Messe Hannover CeBIT Industrie 4.0 wäre ein deutscher Exportschlager.

 

 

Industrie? Wir! Punkt!

Wenn die Politik der Energiewirtschaft vorschreiben kann, mit welchem Brennstoff sie Strom erzeugen darf beziehungsweise nicht erzeugen darf, kann man dann auch der Wirtschaft vorschreiben, wie ihre digitale Kommunikationsinfrastruktur auszusehen hat? Oder anders gefragt: Können die politischen Parteien den wirtschaftenden Unternehmen das Konzept „Industrie 4.0“ verordnen (in den siebziger Jahren hätten wir den Pleonasmus „aufoktroyieren“ benutzt…)?

Die Diskussion um die vierte Generation der Industrialisierung – kurz: „Industrie 4.0“ – nimmt in Deutschland immer skurrilere Formen an. Während Angela Merkel (zuletzt auf dem Weltwirtschaftsforum in Davos) „auch als deutsche Bundeskanzlerin“ sagt, wie wichtig eine technologische Weiterentwicklung der digitalisierten Fertigung für den Wertschöpfungsstandort Deutschland ist und zugleich vor einem zweiten Platz im Wettlauf mit den digitalen Propagandisten in Fernost und Farwest warnt, wird hierzulande mal wieder nichts so heiß gegessen, wie es in den Siliziumbrennöfen gekocht wird.

Dabei gibt es wohl überall einen weitgehenden Konsens darüber, wie sehr die Digitalisierung die Produktionsmethoden und damit die Produktionsstandorte verändern wird. Fünf Punkte sind es, die in der Regel genannt werden, wenn es um die Vorteile einer komplett durch die Informationstechnik revolutionierten Wertschöpfung geht:

  1. Mit ihren Aufgaben besser im Wertschöpfungsprozess eingebundene lokale Standorte können schlanker, dedizierter, flexibler, individueller und schneller agieren und zugleich auf lokale Ressourcen zurückgreifen. Sie bilden ein wohl-orchestriertes Konzert mit großen, global ausgerichteten Standorten, wo assembliert und finalisiert wird.
  2. Die zunehmende Digitalisierung (Cloud Computing, Internet der Dinge, Big Data-Analysen) versorgt die Produktion mit immer intelligenteren Objekten, die nicht nur wissen, was sie sind, wohin sie gehören und was mit ihnen geschehen soll. Sie tragen auch die Blaupause zu ihrer Vervollständigung als digitale Rezeptur oder Stückliste mit sich rum.
  3. Kollaboration und Kooperation werden weiter voranschreiten, je spezialisierter einzelne Fertigungsstätten und Forschungszentren operieren. Wenn der Aufbau einer Kommunikationskette immer leichter wird, lassen sich zunehmend situative Partnerschaften zwischen Unternehmen und Universitäten knüpfen – und wieder lösen.
  4. Während die Spezialisierung der Produktionsstätten voranschreitet, wird sich zugleich auch eine Hybridisierung der Fertigungsstätten entwickeln, in denen heute dieser, morgen jener Arbeitsschwerpunkt umgesetzt wird. 3D-Drucker und hochflexible Roboter etwa sind Beispiele für diese Entwicklung. Statt der heutigen – zumeist – starr auf eine Produktlinie ausgelegten Werkshallen sehen wir künftig Maschinenparks, deren Wettbewerbsvorteil in der Flexibilität liegt.
  5. Damit einher geht ein kultureller Wandel in der Wahrnehmung des industriellen Handelns. Industrieparks werden zu lebenden Organismen, in denen nach ingenieurmäßigen Maßstäben arbeitsteilig Wertschöpfung betrieben wird – ähnlich wie in der Softwarebranche seit den späten neunziger Jahren.

Diese Vision verlangt deutlich mehr Zeit und Intelligenz als die bloße Digitalisierung eines bestimmten Fertigungsprozesses, in dem grundsätzlich oder strukturell eigentlich nichts gewonnen wäre. Unternehmen sind gut beraten, wenn sie nicht vordergründig und plakativ in „Industrie 4.0“ investieren, sondern weiterhin in Märkte, ihre Produkte und ihre Produktion. Genau das passiert derzeit. Die alle überraschenden guten Konjunkturzahlen der letzten Monate zeigen, dass das kein Irrweg ist.

Deutsche Ingenieure haben eine lange Tradition, den Technologiewettlauf zu verlieren, um den Nutzungswettlauf zu gewinnen. Der vielgeschmähte Audiostandard MP3 gilt vielen als Menetekel für die Unfähigkeit, eine vielversprechende Technologie gewinnbringend umzusetzen. Nur: Wo war eigentlich der Business Case hinter MP3? Der Niedergang der Musikindustrie ist genau der Beweis, dass sich hinter der Digitalisierung von Audiodaten kein gewinnbringendes Geschäftsmodell verbarg.

Und auch in der Digitalisierung eines Fertigungsprozesses liegt per se kein Business Case, wenn es nicht gleichzeitig einen Kulturwandel im Sinne der fünf genannten Prinzipien von „Industrie 4.0“ gibt.

Es mag sein, dass in Europa zum wiederholten Male der Wettlauf um die Entwicklung einer Technologie verloren geht. Aber die Zuversicht ist gerechtfertigt, dass die Nutzung dieser Technologie auch den alten Kontinent mit seinen Ingenieurstugenden beflügeln wird.

Industrie? Das sind wir Unternehmer. Punkt.

 

 

Internet der Dollars

Das Weltwirtschaftsforum in Davos ist vor allem ein Weltwirtschaftsforum. Das klingt banal bis trivial, muss aber mal geschrieben werden nach einer Woche, in der zwar viel über die Auswirkungen der Draghi´schen Maßnahmen gesprochen wurde, Staatsanleihen im ganz großen Stil aufzukaufen. Das ist immerhin ein Wirtschaftsthema oder zumindest Wirtschaftspolitik. Ansonsten aber dominierten Krisenherde (zum Beispiel Ukraine) und Krisenherren (zum Beispiel Islamisten) und ihre Auswirkungen auf die wirtschaftliche Entwicklung die Agenda in Davos. Zum ersten Mal aber war das Internet als weltweite Plattform des wirtschaftlichen Geschehens dominant vertreten. Davos hat gezeigt: das World Wide Web ist sowohl die Voraussetzung für World Wide Wealth wie für World Wide Weakness.

Zwar meinte Anshu Jain, Co-Vorstandsvorsitzender der Deutschen Bank, das Geschäft zwischen Banken und ihren Großkunden werde durch die digitale Revolution kaum beeinflusst. Zwar meinte Googles Chairman Eric Schmidt, das Internet werde in absehbarer Zeit verschwinden. Aber beide meinten damit keineswegs, dass das Web für die Wirtschaft an Bedeutung verliert. Im Gegenteil: Sie identifizierten darin jenes disruptive Element, das das wirtschaftliche Gefüge auseinandernehmen und völlig neu zusammensetzen kann.

Jains Vision vom allgegenwärtigen Internet zielt auf das Massenpublikum, das Massengeschäft, das völlig neue Formen der Kommunikation zwischen Anbieter und Millionen interaktiven Individuen verlange. Und Schmidts Internet ist nämlich nicht verschwunden, sondern so allgegenwärtig, dass es als externe Infrastruktur kaum noch wahrgenommen wird, also so transparent wird, dass es unsichtbar ist. Das Web wird durch seine zahllosen am Körper getragenen und in den Gegenständen unserer Umgebung eingebauten Endgeräte so sehr ein Teil von uns selbst, meint Schmidt, dass wir es nicht mehr bemerken.

Wenn – wie in der Vorstellungswelt von Paul Jacobs, dem Verwaltungsratsvorsitzenden des Mobilfunkanbieters Qualcomm – in der Zukunft Technologien wirksam werden, mit denen unser Blut auf Schritt und Tritt auf das Auftauchen von ersten Krankheitserscheinungen hin untersucht wird, dann werde das mobile Internet zum „digitalen siebten Sinn“. Jacobs hofft auf das „hyper-personalisierte Internet“, in dem Nutzer global-galaktische Persönlichkeitsprofile mit Einstellungen zu Sicherheitsstufen, Privatsphäre, Vorlieben etc. an eine zentrale Instanz übermitteln, die dann von allen Webservices und Endgeräten akzeptiert werden. Ein Global-Cookie für den internationalen Datenverkehr.

Dabei ist es faszinierend, dass nicht alle Anbieter und Anwender am gleichen Internet-Kabel ziehen. Die Auswirkungen der Webwirtschaft seien nicht in allen Bereichen der Weltwirtschaft gleich groß, hieß es in der Diskussion. Als aber Kanzlerin Angela Merkel („und ich sage das als deutsche Bundeskanzlerin mit einer starken deutschen Wirtschaft“) das Podium betrat, war „die Verschmelzung der Welt des Internets mit der Welt der industriellen Produktion“ absolute Chefsache. Man müsse, mahnte Merkel, den Weg zu Industrie 4.0 „schnell bewältigen, weil sonst diejenigen, die führend im digitalen Bereich sind, uns die industrielle Produktion wegnehmen werden.“

Drastischer kann man bei aller politischen Korrektheit die Konkurrenz, die aus dem Kabel kommt, kaum anprangern. Oder weniger politisch korrekt: Das Internet der Dinge, ist in Wahrheit das Internet der Dollars. Es erobert und erodiert alle bestehenden Strukturen überall, wo es hinkommt.

Und wenn es dazu noch eines Beweises bedürfte, dann hat ihn IBM soeben geliefert. Big Blue wird sich dem Vernehmen nach von bis zu 110.000 Mitarbeitern trennen, für die in einer Welt des Internet-basierten Cloud Computings aus Sicht des Managements in Armonk keine Beschäftigungsmöglichkeit mehr existiert. Die alte „Boxenschieber-Mentalität“, die IBM einst zur Weltmacht aufsteigen ließ, ist jetzt das Opfer des disruptiv wirkenden Internets der Dollars. Denn umgekehrt – so hat jetzt die Boston Consulting Group im Auftrag von Qualcomm ausgerechnet – hat allein die Mobilfunkbranche elf Millionen Arbeitsplätze geschaffen – das Hundertfache der jetzt vom Aderlass bei IBM Betroffenen.

201x – das Jahr des Cloud Computings

Wo waren Sie, als die IBM /360-Architektur angekündigt wurde? Oder: Was machten Sie mit Ihrem ersten PC? Oder mit Ihrem ersten Smartphone? Tablet? Welches Wort googelten Sie als erstes?

Die im Allgemeinen geschichtsvergessene Welt der Informationstechnologie kann nur wenige lokalisierbare Wendepunkte identifizieren. Am Tag zum Beispiel, nachdem Steve Jobs das iPad präsentierte, war nicht alles anders. Die Financial Times witzelte noch, das Ding sei zu groß zum Telefonieren und zu klein zum Computern. Und doch hätte dieser Moment vor fünf Jahren – der 27. Januar 2010 – das Zeug zu einem „Watershed-Moment“, von dem an die Wasser in eine andere Richtung fließen – und die Geldströme auch.

Denn vielleicht werden wir einmal diesen 27. Januar vor fünf Jahren auch als Geburtsstunde des Cloud Computings ansehen, weil damals das erste mobile Endgerät präsentiert wurde, das vollends abhängig von den Angeboten aus der Cloud ist – mehr noch als das iPhone als Urtyp der Smartphone-Familie. Und auf jeden Fall wäre dieses Datum griffiger als die Veröffentlichung jenes Diagramms, in der erstmals eine Wolke als Symbol für ein nicht näher definiertes Netzwerk verwendet wurde.

Es ist also ganz typisch für die Cloud, dass auch ihre Anfänge eher im Diffusen liegen, im Nebel der Vergangenheit abgetaucht, sozusagen. Und ebenso lässt sich an der Schwelle vom alten zum neuen Jahr kein Ereignis rückblickend oder vorausschauend ausmachen, das nun den endgültigen und von vielen kontinuierlich als unmittelbar bevorstehend geweissagten Durchbruch des Cloud Computings markieren könnte.  2014 war keineswegs das Jahr, in dem alle in die Wolke gingen. Und 2015 wird es ebenso wenig sein. Aber in den kommenden zwölf Monaten wird sich ein Prozess fortsetzen, der schon die vergangenen zwölf Monate gekennzeichnet hatte: die schleichende Veränderung der privatwirtschaftlichen und öffentlichen Infrastrukturen vom On-Premise zum On-Demand. Wir befinden uns inmitten eines informationstechnischen Klimawandels.

Deutlich macht dies die aktuelle KPMG-Umfrage zur Umsetzung des Cloud Computings in 800 globalen Unternehmen – und vor allem der Vergleich mit den Ergebnissen aus dem Jahr 2012. Damals wie heute erkannte knapp die Hälfte der Befragten in Kosteneinsparungen den wichtigsten Effekt unter der Wolke. Doch während vor zwei Jahren kaum ein anderes Argument vorgebracht wurde, werden heute qualitative Zielsetzungen wie „Einbindung von mobilen Endgeräten“, „Bessere Einbeziehung von Kunden und Lieferanten“, „Generierung von Einsichten aus Daten“ oder „Schnellere Entwicklung neuer Produkte und Geschäftsmodelle“ angeführt.

Da ist es faszinierend, dass die Ergebnisse, die das Jahr 2014 in der Rückschau brachte, nicht deckungsgleich sind, mit den gesetzten Erwartungen. 70 Prozent der Befragten erfuhren tatsächlich, dass sich durch Cloud Computing die Kosten senken lassen. Aber 73 Prozent erkannten, dass sich die Effektivität der Organisation gesteigert hatte. Und 72 Prozent stellten eine deutlich verbesserte Kundenorientierung fest.

Und in der Tat: Cloud ist als Technologie kein Durchbruch, ihre Nutzungsmotive aber sind es. Das wird an der Schwelle zum neuen Jahr deutlich. Denn während sich die Analysten mit ihren Trends für 2015 geradezu gebetsmühlenartig einig sind in der Wiederholung der ganz großen Trends – Analytics (of Big Data), Mobile und Social Networking -, so sicher ist auch, dass diesen Trends ohne die Cloud keine Zukunft gewiss wäre.

Ihre erste Manifestation erleben wir schon im Januar, wenn auf der Consumer Electronics Show in Las Vegas die ersten Gadgets gefeiert werden. Was immer wir dort an Neuem aus der Welt der 3D-Drucker, der Wearables, der Mess- und Steuergeräte oder der Drohnen und teilautonomen Fahrzeuge und Roboter sehen werden, wird erst durchs Cloud Computing so richtig zum Leben erweckt. Das gilt 2015 ebenso wie schon 2014 und 2013. Mit jedem „Ding“, das ans Internet of Things angeschlossen wird, wächst die Cloud. Wir merken es nur nicht.