Don´t Rest in Peace, CEBIT!

Ich habe gerade einen Blog darüber geschrieben, dass wir Deutschen uns durch unser Bräsigsein immer tiefer im digitalen Dschungel verheddern. Und kaum habe ich mich wieder beruhigt, da lese ich erstens, dass das 5G-Internet nicht an jeder Milchkanne nötig sei – obwohl doch genau das der Clou am Internet der Dinge ist. Und kaum habe ich mich davon erholt, muss ich erfahren, dass die CEBIT nun den Weg alles Irdischen gehen soll. Jetzt will ich mich aber nicht mehr beruhigen!

Doch bevor ich mich im besten Gernot-Hassknecht-Stil darüber aufrege, dass wir es wieder geschafft haben, eine IT-Ikone wie die CEBIT, immerhin einst Weltmesse der Informationswirtschaft, den anderen hervorragenden, aber ungenutzten IT-Erfindungen aus Deutschland hinterher zu werfen, möchte ich einer wichtigen Pflicht nachkommen:

Liebe Mitarbeiterinnen und Mitarbeiter der CEBIT; lieber Oliver Frese,

Euch möchte ich von ganzem Herzen danken für mehr als ein Vierteljahrhundert Dienst an Ausstellern und Besuchern, an Pressevertretern und Politikern. Ihr seid ein großartiges Team und habt etwas Besseres verdient als eine Beerdigung der CEBIT im Massengrab der versunkenen IT-Welten. Nach Orgatech in Köln  und Systems in München wird nun der Sarg auch für die dritte, die schönste, die wichtigste und die erfolgreichste Computermesse aller Zeiten hinabgelassen. Geht nicht zur Gamescom, dem nächsten potentiellen Opfer, sondern findet einen ehrenwerten Platz auf der Industriemesse. Denn ohne IT ist die Industrie tot. Vielen Dank für viele tolle Gespräche, für hervorragenden Service und aufopferungsvolle Arbeit.

So. Aber jenen Messebeiräten, die über Jahre hinweg eine Veränderung der Messe in eine modernere, hippere Welt verhindert haben, die sich über Besucher mit Turnschuhen mokiert haben, die einen fairen Wettbewerb der CeBIT Home mit der IFA in Berlin verhindert haben und die CEBIT mit sinnlosem Köpfezählen kaputtgeredet haben – euch danke ich nicht.

Für viele war es schon zu viel, dass sich der IT-Mittelstand in den achtziger Jahren auf der CEBIT etabliert hatte, eine Entwicklung, die ich stets gefördert und gefordert habe. Mit Gemeinschaftsständen, mit denen Anpacker wie 1&1-Gründer Ralph Dommermuth in den neunziger Jahren ganze Hallen mit mittelständischen Softwarehäusern aus ganz Europa gefüllt hat, die schließlich auch von großen Anbietern wie IBM, Microsoft, SAP oder Deutsche Telekom kopiert wurden, ist die CEBIT groß und größer geworden.

Hier wurde der PC geboren und lockte nicht mehr nur die IT-Nieten in Nadelstreifen aus ihren RZs, sondern die Turnschuhträger, die in den neunziger Jahren eine völlig neue IT-Industrie schufen. Hier hätte auch das Internet gefeiert werden sollen, das eine komplette Digitalwirtschaft geboren hat. Aber für die Gründer der Startup-Szene und die Hippster von heute war die CEBIT bereits zu angestaubt. Angestaubt, weil sie auch von denen vernachlässigt wurde, die sich gegen eine Veränderung stemmten: Das Internet der Dinge wurde verdaddelt, weil dafür die Industriemesse auserkoren wurde. Für künstliche Intelligenz stirbt die CEBIT zu früh. Diese Messe hatte nicht einmal eine Chance.

Sie wurde nur noch palliativ behandelt mit einem letzten „Schöner-Sterben“-Versuch im Sommer. Es scheint, als hätte ein Arzt eine Langzeittherapie nach den ersten Dosen Frischzellen abgebrochen, weil ihm der Mut fehlte für eine vielleicht riskante Operation. Dem Patienten wurden die lebenserhaltenen Apparate abgeschaltet – ohne in die Patientenverfügung zu schauen. Die Messe wurde einfach aufgegeben und wirkt damit wie ein Symbol für die Saft- und Kraftlosigkeit der Deutschen beim Umgang mit dem digitalen Wandel.

Dies ist gottseidank nur ein Nachruf auf die CEBIT. Aber wenn wir so weitermachen, werden wir auch einen Nachruf auf den IT-Standort Deutschland schreiben müssen.

Ruhe nicht in Frieden, liebe CEBIT.

Nicht ganz dicht?

Was könnte man mit 34 Milliarden Dollar alles anfangen? Zum Beispiel ein gutes Schock Startups finanzieren, von denen dann die Hälfte zu Unicorns heranwachsen würde. Zum Beispiel ein eigenes autonom operierendes elektrisches Fliege-Fahrzeug bauen, mit dem man den gesamten Globus ausstatten könnte. Zum Beispiel eine Mars-Mission finanzieren, die allerdings außer Ruhm nicht viel einbrächte. Zum Beispiel den Welthunger lindern, die Bildungsmisere meistern, das Weltklima retten…
Ach, was soll´s. Man kann auch nur einfach zu einem völlig überzogenen Preis einen Open-Source-Anbieter wie Red Hat übernehmen. Das ist so phantasielos, dass eigentlich nur IBM auf eine solche Idee kommen konnte. Seit Jahren übernimmt Big Blue getreu einer selbstverordneten Strategie Unternehmen mit Investitionen im drei- bis vierstelligen Millionenbereich, um sie weitestgehend reibungslos, aber zumeist auch folgenlos in die eigene Organisation einzubauen. Buy a little, try a little. Irgendwie war immer genug Gewinnüberschuss da, um sich diese kleinen Eskapaden zu leisten.
Und jetzt Red Hat – für 34 Milliarden Dollar! Das sind 60 Prozent Aufschlag auf den Börsenwert zum Zeitpunkt der Bekanntgabe! Mehr als das Hundertfache des Nettogewinns. Mehr als das Zehnfache des Jahresumsatzes. Sicher „Die Übernahme von Red Hat verändert alles in dem Spiel“, wie IBMs Chefin Ginni Rometty frohlockte. Aber das ist auch kein Kunststück bei einem Investment, das den drittgrößten Deal in der gesamten IT-Geschichte darstellt.
Freilich ist Red Hat längst nicht nur ein Open-Source-Anbieter, sondern durchaus eine dominierende Kraft im Markt für Hybrid-Clouds. IBM katapultiert sich damit wieder an die Spitze in einem rasch wachsenden Markt. Denn ohne Open Source ist die Cloud nicht denkbar. Beide leben von der Community, die Ressourcen gemeinsam nutzt und durch Teilen mehr erhält. So wie Cloud-Infrastrukturen mehr Sicherheit und mehr Flexibilität für alle bedeuten, so bedeuten Open-Source-Umgebungen kürzere Entwicklungszeiten. Die Dynamik, die sich aus der gemeinschaftlichen Pflege einer Infrastruktur ergibt, hat bislang noch jede proprietäre Umgebung hinter sich gelassen. Das musste IBM in vielen negativ verlaufenen Quartalen erst mühsam lernen.
Insofern ist der Kauf von Red Hat auch eine Reaktion auf die jüngste Übernahme von GitHub durch Microsoft. GitHub bedient ebenfalls eine Open-Source-Community, indem hier eine Entwicklungsumgebung für offene Anwendungen bereitgestellt wird. Microsoft will damit die Dynamik für neue Cloud-Services auf seiner Azure-Plattform beflügeln. Vor allem im Bereich künstlicher Intelligenz sucht Redmond die Flucht nach vorn.
Hier kann es sich IBM in der Tat nicht leisten, zurückzubleiben. Die Übernahme von Red Hat hat aber durchaus etwas von einer Verzweiflungstat. Es wird sich jetzt zeigen müssen, was IBM daraus macht. Kaputtintegrieren wäre das schlechteste, was passieren könnte. Für eine lose Anbindung hätte allerdings auch eine exklusive Kooperation gereicht. Der Versuch, nun den Markt auszuhebeln und Red Hat jetzt die Zusammenarbeit mit Konkurrenten wie Microsoft, Oracle oder SAP zu verbieten, wäre ein Rückschritt in die Marktmechanismen des Mainframe-Mittelalters.
Und wie werden diese Anbieter reagieren, wenn sie künftig befürchten müssen, dass geteilte Knowhow nach IBM abfließt. Die Open-Source-Bewegung ist eine Macht, aber sie ist so verletzlich wie die Demokratie. Immerhin waren es IBM und auch Microsoft, die lange Zeit nach dem Motto vorgingen: Wer nach allen Seiten offen ist, kann nicht ganz dicht sein. Jetzt wandeln sich beide zum Open-Source-Paulus. Ob das geht?

Irgendwas mit Cloud

 

Kann man sich noch vorstellen, dass die Studienberatungsstellen Ende des vergangenen Jahrtausends einmal davon abgeraten haben, Informatik zu studieren, weil das Angebot an Studienabgängern in absehbarer Zeit die Nachfrage übersteigen werde. Gut, dass viele Studierende damals auf die anderen MINT-Fächer – also Mathematik, Naturwissenschaften und Technik – ausgewichen sind oder wenigstens Wirtschaftsinformatik belegt haben. Wer das nicht tat, machte „Irgendwas mit Marketing“ oder „Irgendwas mit Medien“.

Anfang des neuen Jahrtausends sah die Welt dann ganz anders aus als in den Prognosen vorhergesagt. Das Y2K-Problem fegte den IT-Arbeitsmarkt leer. Der Hightech-Verband Bitkom identifizierte 30.000 offene Stellen im IT-Sektor, plädierte für die Green Card für gut ausgebildete Ausländer – und SAP sowie andere IT-Konzerne rekrutierten massenhaft Physiker, Chemiker und andere Absolventen analytisch geprägter Studiengänge, um sie als Programmierer, Systemanalytiker oder Berater umzuschulen. Andere – wie etwa Microsoft – setzten globale Schulungsmaßnahmen auf, um ihr Ökosystem fit für die Dezentralisierung der IT zu machen: Netzwerk-Administratoren, Helpdesk-Mitarbeiter und System-Engineers halten seitdem die IT am Laufen.

Inzwischen identifiziert der Bitkom allein in Deutschland ein Defizit von 55.000 IT-Fachkräften. Es würde freilich ohne die Schulungsmaßnahmen der IT-Anbieter noch schlimmer aussehen. Und immer noch bosseln wir an einem Einwanderungsgesetz herum, das uns den nötigen Skill ins Land bringt. Immer noch hängt unser Bildungssystem technologisch hinterher. Und bei einem Rekordtief der Arbeitslosenzahl mit 2,25 Millionen haben wir branchenübergreifend aktuell 834.000 offene Stellen.

Da ist es kein Wunder, dass IBM, SAP oder Microsoft das Bildungsdefizit selbst in die Hand nehmen. Der jüngste Vorstoß kommt mit der Microsoft Learn Platform jetzt aus Redmond. Der Clou dabei ist, dass damit nicht einfach nur eine weitere Zertifizierungsoffensive gestartet wird, sondern neue Cloud-orientierte Wissensgebiete mit bislang noch wenig verbreiteten Lernmethoden eröffnet werden. Microlearning und Gamification heißen dabei die Zauberworte, mit denen lebenslanges Lernen attraktiver und vor allem effektiver gestaltet werden soll.

Microsoft kommt damit auch einer veränderten Technologiewelt nach. Während früher mitunter Jahre zwischen der Ankündigung eines Produkts wie beispielsweise Windows Server und seiner tatsächlichen Markteinführung vergingen, liefern Cloud-Infrastrukturen heute Neuerungen im Wochentakt. Damit muss auch der Skill-Aufbau schneller erfolgen als in den guten alten PC-Zeiten. Doch wie damals, als der Personal Computer zugleich Gegenstand und Werkzeug des Lernens war, ist es heute die Cloud, die sich selbst ihre Kompetenzen schafft.

Die Microsoft Learn Platform wurde jetzt auf der Ignite in Orlando vorgestellt und dürfte erst der Anfang sein im Wettbewerb der Ökosysteme. Denn nach internen Analysen beklagen vor allem die großen IT-Anbieter, dass die technische Entwicklung inzwischen schneller voranschreitet als der Skill-Aufbau. Doch ohne ausgebildetes Personal können die Marktchancen, die sich gegenwärtig im Cloud Computing, im Internet of Things oder rund um die künstliche Intelligenz bieten, gar nicht genutzt werden. Microsoft Learn soll dieses Tempodefizit ausgleichen und neue Jobprofile ausprägen, die „irgendwas mit Cloud“ zu tun haben. Cloud Administrator, Cloud Developer, Cloud Solutions Architect heißen die neuen Fertigkeiten, mit denen die Herausforderungen des Cloud Computings gemeistert werden sollen wie Virtualisierung, Sicherheit, Datenmanagement oder Ressourcenmanagement. Hinzu kommen all die bislang unbekannten Jobs, derer es für die Gestaltung von KI-Systemen bedarf, um Machine Learning und Big Data Analytics voranzutreiben.

Es ist der alte, sich immer wieder bestätigende Wettlauf zwischen Mensch und Maschine. Je mehr die Maschinen können, umso mehr müssen auch die Menschen können. Technologie ist kein Jobvernichter, sondern ein Jobcreator. – Nur, dass die neuen Jobs kaum noch Ähnlichkeit mit den alten haben. Es wird lange dauern, ehe die Studienberater davon abraten werden, „Irgendwas mit Cloud“ zu studieren.

Information At Your Fingertips

 

Es war ein unglaubliches Versprechen, das Microsoft-Gründer Bill Gates vor einem knappen Vierteljahrhundert in seiner Keynote auf der Computermesse Comdex in Las Vegas formulierte: Jeder erhält die Informationen, die er (oder sie oder es) benötigt, genau im richtigen Umfang zur richtigen Zeit und am richtigen Ort. „Information at your fingertips“ nannte er das. Dass er dabei vergaß, das Internet als notwendige Infrastruktur zu erwähnen, ist längst ein Treppenwitz der Geschichte. Aber selbst wenn er es erwähnt hätte, wären ihm andere Begriffe nicht in den Sinn gekommen, weil es sie vor 25 Jahren noch gar nicht gab: Cloud Computing, Mobile Computing, Internet of Things und Artificial Intelligence.

Erst diese vier lassen die Vision von damals Wirklichkeit werden. Dass inzwischen drei davon zu unserem Alltag gehören, zeigt, wie viel sich im letzten Vierteljahrhundert getan hat: Wikipedia statt Encyclopedia Britannica, Instagram statt Diashow, Facebook statt Tagebuch, Industrie 4.0 statt Massenware. Doch der flächendeckende Einsatz von künstlicher Intelligenz lässt weiter auf sich warten. Allgegenwärtig sind selbststeuernde Computer und Roboter in Zukunftsstudien und – je nach Vorurteilen – Utopien und Dystopien. Der Grund ist freilich einfach zu erkennen: Ohne Digitalisierung keine Daten, ohne Daten keine Analyse. Das dauert.

Dennoch füllen sich die Stellenausschreibungen mit neuen KI-orientierten Jobprofilen wie Data Scientist, Entwickler für Machine Learning oder KI-Beauftragte. 70.000 neue Jobs, so hat IBM jetzt ermittelt, werden im KI-Umfeld bis zum Jahr 2020 allein in den USA ausgeschrieben werden. Die meisten davon werden wohl kaum mit ausreichendem Skill aufgefüllt werden. Denn der Bedarf wird sich nach dieser Prognose jedes Jahr verdoppeln. Nur eine Jobkategorie im IT-Umfeld wächst noch schneller: Spezialisten für Cybersicherheit.

Tatsächlich ist die digitale Transformation erst mit dem Einsatz von künstlicher Intelligenz wirklich rund. Denn wenn jedes Gerät, jede Maschine und jede Ware im Unternehmen künftig in der Lage ist, Auskunft über Ziel und Zustand zu geben, braucht es eine Instanz, die aus diesen Daten Informationen generiert. Doch diese Instanz gibt es bislang noch nicht. Weder Unternehmenslösungen wie Enterprise Resource Planning oder Customer Relationship Management sind auf diese Herausforderung vorbereitet, noch sind es die Datenbanksysteme und Kommunikationsplattformen. Und auch die Visionäre sind Mangelware. „Information at your fingertips“ ist noch immer so weit entfernt, wie es vor 25 Jahren war.

Möglicherweise verbergen sich hinter KI genau jene Killeranwendungen, die der Digitalisierung erst zum Durchbruch verhelfen. Vorausschauende Wartung ist ein Beispiel, wie erst durch intelligente Auswertung der Daten monetarisierbarer Nutzen entsteht, die Automatisierung von Buchungsvorgängen in der Buchhaltung und im Controlling ein weiteres. Kommunikationsprozesse können durch Sprachassistenten standardisiert und systematisiert werden. Fertigungsprozesse werden weniger durch Roboter als vielmehr durch agile Steuerungssysteme revolutioniert.

Noch fehlt es in vielen Unternehmen an der Vorstellungskraft, eine Welt zu imaginieren, in der smarte Systeme Steuerungsaufgaben übernehmen. Insofern hätte der deutsche Mittelstand wieder einmal recht mit seiner zögerlichen Haltung gegenüber dem digitalen Wandel. Denn mittelständische Unternehmen, erst recht, wenn sie familiengeführt sind und auf langfristige Ziele setzen, investieren nicht in neue Technologien um der Innovation willen. Der Grenznutzen muss stimmen. Und Maschinen, die Daten produzieren, sind wertlos, solange niemand mit diesen Daten etwas anfangen kann. Doch allein die schiere Masse an Daten, die wir künftig erzeugen, verlangt nach neuen Analysemethoden auf der Basis künstlicher Intelligenz.

Deshalb führt die Frage, ob KI-Systeme eher Job-Killer oder eher Job-Creator sind, in die Irre. Denn ohne autonome, agile und selbststeuernde Systeme ist die digitalisierte Welt witzlos. Und erst dann werden wir das Vermächtnis von Bill Gates einlösen können: „Information at our fingertips“.