Nicht ganz dicht?

Was könnte man mit 34 Milliarden Dollar alles anfangen? Zum Beispiel ein gutes Schock Startups finanzieren, von denen dann die Hälfte zu Unicorns heranwachsen würde. Zum Beispiel ein eigenes autonom operierendes elektrisches Fliege-Fahrzeug bauen, mit dem man den gesamten Globus ausstatten könnte. Zum Beispiel eine Mars-Mission finanzieren, die allerdings außer Ruhm nicht viel einbrächte. Zum Beispiel den Welthunger lindern, die Bildungsmisere meistern, das Weltklima retten…
Ach, was soll´s. Man kann auch nur einfach zu einem völlig überzogenen Preis einen Open-Source-Anbieter wie Red Hat übernehmen. Das ist so phantasielos, dass eigentlich nur IBM auf eine solche Idee kommen konnte. Seit Jahren übernimmt Big Blue getreu einer selbstverordneten Strategie Unternehmen mit Investitionen im drei- bis vierstelligen Millionenbereich, um sie weitestgehend reibungslos, aber zumeist auch folgenlos in die eigene Organisation einzubauen. Buy a little, try a little. Irgendwie war immer genug Gewinnüberschuss da, um sich diese kleinen Eskapaden zu leisten.
Und jetzt Red Hat – für 34 Milliarden Dollar! Das sind 60 Prozent Aufschlag auf den Börsenwert zum Zeitpunkt der Bekanntgabe! Mehr als das Hundertfache des Nettogewinns. Mehr als das Zehnfache des Jahresumsatzes. Sicher „Die Übernahme von Red Hat verändert alles in dem Spiel“, wie IBMs Chefin Ginni Rometty frohlockte. Aber das ist auch kein Kunststück bei einem Investment, das den drittgrößten Deal in der gesamten IT-Geschichte darstellt.
Freilich ist Red Hat längst nicht nur ein Open-Source-Anbieter, sondern durchaus eine dominierende Kraft im Markt für Hybrid-Clouds. IBM katapultiert sich damit wieder an die Spitze in einem rasch wachsenden Markt. Denn ohne Open Source ist die Cloud nicht denkbar. Beide leben von der Community, die Ressourcen gemeinsam nutzt und durch Teilen mehr erhält. So wie Cloud-Infrastrukturen mehr Sicherheit und mehr Flexibilität für alle bedeuten, so bedeuten Open-Source-Umgebungen kürzere Entwicklungszeiten. Die Dynamik, die sich aus der gemeinschaftlichen Pflege einer Infrastruktur ergibt, hat bislang noch jede proprietäre Umgebung hinter sich gelassen. Das musste IBM in vielen negativ verlaufenen Quartalen erst mühsam lernen.
Insofern ist der Kauf von Red Hat auch eine Reaktion auf die jüngste Übernahme von GitHub durch Microsoft. GitHub bedient ebenfalls eine Open-Source-Community, indem hier eine Entwicklungsumgebung für offene Anwendungen bereitgestellt wird. Microsoft will damit die Dynamik für neue Cloud-Services auf seiner Azure-Plattform beflügeln. Vor allem im Bereich künstlicher Intelligenz sucht Redmond die Flucht nach vorn.
Hier kann es sich IBM in der Tat nicht leisten, zurückzubleiben. Die Übernahme von Red Hat hat aber durchaus etwas von einer Verzweiflungstat. Es wird sich jetzt zeigen müssen, was IBM daraus macht. Kaputtintegrieren wäre das schlechteste, was passieren könnte. Für eine lose Anbindung hätte allerdings auch eine exklusive Kooperation gereicht. Der Versuch, nun den Markt auszuhebeln und Red Hat jetzt die Zusammenarbeit mit Konkurrenten wie Microsoft, Oracle oder SAP zu verbieten, wäre ein Rückschritt in die Marktmechanismen des Mainframe-Mittelalters.
Und wie werden diese Anbieter reagieren, wenn sie künftig befürchten müssen, dass geteilte Knowhow nach IBM abfließt. Die Open-Source-Bewegung ist eine Macht, aber sie ist so verletzlich wie die Demokratie. Immerhin waren es IBM und auch Microsoft, die lange Zeit nach dem Motto vorgingen: Wer nach allen Seiten offen ist, kann nicht ganz dicht sein. Jetzt wandeln sich beide zum Open-Source-Paulus. Ob das geht?

Zurück in die Zukunft

Befinden wir uns noch in Gegenwart der Zukunft oder schon in der Zukunft, die wir gegenwärtig vorhersagen? Zu ähnlichen chrono-philosophischen Fragestellungen mag kommen, wer sich die zehn IT-Trends zu Gemüte führt, von denen die Auguren der Gartner Group glauben, dass sie vor allen anderen Trends das Jahr 2019 beeinflussen werden. Dabei haben die zehn Megatrends, die für das Jahr 2018 nach Ansicht von Gartner entscheidend gewesen sein sollten, noch kaum ihre Wirkung entfaltet. Aber bis zum Jahreswechsel sind es ja auch noch gut 60 Tage…

Denn kaum ein Unternehmen hat tatsächlich angefangen, seine Produktionsmaschinen und Produkte so mit Sensoren auszustatten, dass bei vollem Ernst von einem „digitalen Zwilling“ die Rede sein könnte, also einem genauen virtuellen Abbild der Realität, das durch die Daten entsteht, die von der Realität erzeugt werden. Jetzt aber spricht Gartner davon, dass es Unternehmen 2019 „leicht fallen „ werde, eine solche „Digital Twin“-Strategie umzusetzen. Bis zum Jahr 2020 sollen 20 Milliarden IP-Adressen im Internet der Dinge aktiv sein, die die Voraussetzung für den digitalen Zwilling von Milliarden Dingen sein werden. Sie werden durch die Daten, die sie sammeln, immer smarter und helfen dabei, das zukünftige Verhalten der Dinge zu simulieren.

Das greift bereits tief in die Trickkiste der künstlichen Intelligenz hinein, die dafür sorgen wird, dass die Dinge im Internet immer stärker autonom agieren und damit die Automatisierung auf einen neuen Level der Selbständigkeit bringen werden. Dabei werden auch die Methoden des Machine Learnings immer weiter genutzt, um tiefergehende Analysen zu ermöglichen, auf deren Basis dann Maschinen ihre Entscheidungen treffen. Dabei wird der Prozess der Datenaufbereitung, der Datenauswertung und der Datenvisualisierung auch selbst immer weiter automatisiert – augmented Analytics nennt Gartner das von nun an.

Dabei wird auch die Entwicklung von neuen KI-Algorithmen immer weiter automatisiert und mit Hilfe von KI-Systemen beschleunigt. Bis 2022 sollen diese Methoden bereits in 40 Prozent der Entwicklungsprojekte Realität sein. Damit verbunden ist freilich ein ungeheurer Bedarf an KI-Entwicklern, die zusammen mit Datenanalysten die Entwicklerteams begleiten. Man darf sich fragen, wie in der Zukunft dieser spezielle Fachkräftebedarf gedeckt wird.

Künstliche Intelligenz wird auch ins Edge Computing eingreifen. Mit der Edge rückt die Cloud wieder stärker an den eigentlichen Ort der Prozesse und Datenentstehung. Man könnte fast sagen, dass hier nach der Zentralisierung Richtung Cloud wieder ein Stück Dezentralisierung kommt, über die die Latenzzeiten – also die Wartezeit, bis die Cloud-Services über die 5G-Bandbreiten reagiert haben – verkürzt werden soll. Allerdings sollen spezielle KI-Chips auch dafür sorgen, dass diese peripheren Endgeräte smart genug sind, um auf Cloud-Services zu verzichten.

Dass mehr Rechenpower und KI-Cleverness auch wieder näher an den eigentlichen Ort des Geschehens rücken soll, findet laut Gartner auch seinen Grund in dem weiter zunehmenden Einsatz von Augmented Reality. Die virtuellen und begleitenden Realitätswelten benötigen nämlich enorme Rechnerleistung, um überhaupt zeit- und realitätsnah entstehen zu können. Das ganze wird dann mehr und mehr unsere Smart Spaces, wie Gartner den Sammelbegriff für Smart Homes, Smart Cities und Smart Factories nennt, beeinflussen.

Demzufolge wird sich ab 2019 eine Diskussion über digitale Ethik und die Bedeutung (wenn nicht den Verbleib) der Privatsphäre eröffnen, die die Rolle des Menschen in dieser KI-fizierten Zukunft untersucht. Vielleicht aber überlassen wir die Entscheidung über richtig und falsch dann schon den Quantum Computern, die auch komplexeste Wechselwirkungen zwischen Maschinen, Materialien, Methoden und Menschen simulieren können. Vielleicht empfiehlt uns Gartner dann, in die Gegenwart zurückzukehren – als Re-Dezentralisierung, Re-Despezialisierung, Re-Delinearisierung und zuletzt Regression.

 * Das Foto wurde der Steven-Spielberg-Produktion „Zurück in die Zukunft“ entnommen.

 

Teilen ist das neue Haben

Unsere gesamte Mobilitätsgesellschaft beruht auf dem uralten Wunsch, Menschen und Waren von A nach B zu transportieren. Komplizierter wird die Sache, wenn gleichzeitig auch der Wunsch besteht, Menschen und Waren von B nach A zu bewegen. Und richtig komplex wird die Sache, wenn auch noch ein Punkt C hinzukommt. Dann braucht man schon eine gescheite Infrastruktur, um die Komplexität zu bewältigen. Insofern ist es kein Wunder, dass ausgerechnet in Europa und Nordafrika die Wiege der Kultur liegt. Denn das Mittelmeer bot seit Jahrtausenden eine Transportinfrastruktur, die es erlaubte, ganze Weltreiche mit Waren und Menschen zu versorgen – von A bis O.

Logistik ist also ein Stück Menschheitsgeschichte, seit der erste Mensch auf die Idee kam, das erlegte Tier nicht vor Ort zu verschlingen, sondern in die heimische Höhle zu schleppen. Als dann auch noch die Faustkeil-Produzenten, die Feuer-Bewahrer und Kräuter-Sammlerinnen in den Prozess einbezogen wurden, war die erste Supply Chain geknüpft. Von da ab wurde praktisch nichts Neues mehr erfunden, solange in B gebraucht wurde, was in A vorhanden war.

Aber es wurde massiv optimiert bis zur heutigen multi-modalen Welt aus Transportwegen zu Wasser, zu Land und in der Luft mit Auto-Identifikation, Sendungsverfolgung, Hubs und Letzter Meile. Heute wird gepickt, gepackt und gepusht, getaktet, getracet, getrackt und getunet im Internet der Dinge und dank Cloud-Services, mit deren Hilfe immer mehr Eigenschaften in Richtung Software, Big Data und künstlicher Intelligenz abwandern.

Doch am Ende bleibt immer noch der Transportweg von A nach B. Deshalb steht neben dem digitalen Fußabdruck der Logistik immer und überall der CO2-Footprint im Raum, wie sich letzte Woche erneut auf dem 35. Kongress der Bundesvereinigung Logistik in Berlin zeigte. Die digitale Transformation verbindet die beiden Schwestern im Wirtschaftsstandort Deutschland – Industrie und Logistik – auf praktisch allen Ebenen. Je smarter Maschinen und Waren werden, je stärker Prozesse erst automatisiert und dann autonom werden, desto mehr verändern sich nicht nur die Produktions- sondern auch die Transportprozesse. Immer mehr Kunden-Zentrierung sorgt nicht nur dafür, dass Produkte, die keiner haben will, gar nicht erst produziert werden, sondern auch nicht an Orte geschafft werden, wo sie keiner will. Das Gegenstück zur Industrie 4.0 ist die Logistik der vierten Generation, betonte BDI-Chef Prof. Dieter Kempf in seinem Grußwort auf dem BVL-Kongress.

Dabei seien die Klimaziele der Bundesregierung zwar einerseits anspruchsvoll, andererseits aber zu schaffen, wenn Bund und Land, Wirtschaft und Wissenschaft bereit seien, rund 500 Milliarden Euro in die Hand zu nehmen. Dann sei im nationalen Alleingang auch ein Rückgang der CO2-Emissionen um 80 Prozent bis zum Jahr 2050 möglich. Dabei ist, so betonte BVL-Vorstandsvorsitzender Robert Blackburn, die Elektromobilität nicht allein der Weisheit letzter Schluss, um den CO2-Ausstoss beim Transport von A nach B zu reduzieren. Aber jede Fahrt, die eingespart wird, ist ein Dienst am Klima. Darum sind KI-getriebene Entscheidungsmechanismen zur Lenkung von Verkehrs- und Warenströmen eines der spektakulärsten Entwicklungen in der Logistik 4.0.

Deshalb stand der 35. Logistikkongress auch unter dem Motto „Digitales trifft Reales“. Denn zwar wandert immer mehr Wertschöpfung in die Digitalwirtschaft ab, deren CO2-Footprint deutlich kleiner ausfällt. Aber auch angesichts von dezentralisierten Produktionsmethoden wie 3D-Druck oder „Losgröße 1“ muss am Ende ein Motor gestartet werden, um den Transport zu übernehmen. Während autonome Lkw-Konvois auf der Langstrecke wie eine clevere Alternative zum Individualverkehr erscheinen, liegen die überzeugenden Konzepte im urbanen Straßengüterverkehr auf der letzten Meile noch nicht vor.

Vielleicht kommt der entscheidende disruptive Impuls auch gar nicht aus der Logistik 4.0 oder der Industrie 4.0, sondern aus der Gesellschaft 4.0. Denn die Digital Natives – also die Generation bis 30 – leben immer mehr nach dem Motto: „Teilen ist das neue Haben“. Die Sharing Economy verlangt weniger Transport, weil sie mit weniger Besitz auskommt, dafür aber mehr Kommunikation benötigt. Vielleicht steht nach einigen Hunderttausend Jahren in der Logistik doch eine echte Revolution bevor.

 

Azure ist das neue Windows

Die Cloud-Plattform Azure ist der am schnellsten wachsende Produktbereich bei Microsoft. Das gilt nicht nur für den Umsatz und – erfreulicherweise für die Redmonder – auch für den Gewinn. Es gilt vor allem für die Innovationskraft. In keinem Segment kommen so schnell und so kontinuierlich neue Features auf den Markt – nicht zuletzt in den systemrelevanten Bereichen Sicherheit und künstliche Intelligenz.

Allein auf der Großkonferenz für das Microsoft Ökosystem vergangenen Monat – auf der Ignite 2018 in Orlando – wurden 70 Produkte und Features für die Azure Plattform angekündigt oder erweitert. Und mit der verbesserten Version von Azure Machine Learning will Microsoft vor allem im Bereich künstliche Intelligenz den Vorsprung gegenüber anderen Anbietern ausbauen – oder ihnen zumindest einen harten Wettbewerb liefern. Dabei nutzt es freilich, dass mit „Ideas“ KI-Features gleich für die gesamte Office 365 Gemeinde verfügbar sind. So schnell kann kaum ein anderer Software-Hersteller seine Innovationen im gesamten Ökosystem ausrollen.

Allein Windows macht im mobilen Geschäft nur wenig Freude. Grund genug für Satya Nadella einen völlig anderen und vor allem pragmatischeren Weg zu wählen. Wenn es nicht gelingt, mit Windows mobile gegenüber den marktdominierenden Betriebssystemen Android und iOS aufzuholen, warum dann nicht aus einem der beiden das Betriebssystem der Wahl für Microsoft machen? Die Musik spielt eh längst auf der Azure-Plattform, während die Bedeutung von Windows – zumindest im mobilen Bereich – zurückgeht. Wenn sie dort überhaupt jemals bestand.

Denn wenn Azure das neue Windows ist, dann kann Android auch ruhig das neue Windows mobile sein. Und genau das deutet sich jetzt an: Denn kommende Features in Windows 10 lassen ahnen, wohin die Reise geht. „App Mirroring“ – also die Möglichkeit, Apps unter Windows zu starten, die nicht über Windows verfügbar sind – soll künftig eine Verzahnung zwischen beiden Betriebssystemen bringen, indem auch der Android-Home-Screen gespiegelt wird. Mit einem eigenen Launcher, so sagen die Gerüchte, sollen die Apps dann von Windows aus gestartet werden können.

Das Feature ist zwar nicht unbedingt neu – auch andere Anbieter haben solche Launcher schon für Apps auf Fremdbetriebssystemen. Aber bemerkenswert ist es dennoch, dass Microsoft schon seit langem die Aktivitäten in Richtung Android immer weiter forciert. So ist auch umgekehrt Office längst auf Android verfügbar, während es deutlich komplizierter ist, das gleiche auch auf der Apple-Seite unter iOS zu verwirklichen.

Aber die Mühe lohnt sich. Android ist das mit großem Abstand am weitesten verbreitete Mobil-Betriebssystem, das zugleich auch noch die attraktivsten Wachstumsraten genießt. Nichts liegt also für Microsoft, das auf der Cloud-Seite vor allem gegen die derzeitige Marktführerschaft von Amazon Web Services ankämpft, näher, als sich auf dem ohnehin verlorenen Terrain im Mobil-Bereich eine Atempause zu verschaffen. Denn die Weltherrschaft wird schon lange nicht mehr auf dem Desktop und wohl auch nicht mehr auf dem Smartphone entschieden, sondern in der Cloud.

Deswegen soll Azure wiederholen, was vor Jahrzehnten mit Windows gelungen ist: globale Dominanz für Microsoft erreichen und absichern. Deshalb ist Azure das neue Windows und fließen nicht nur die Entwicklungsanstrengungen in diese Cloud-Plattform. Auch gut situierte Produkte wie Windows Server migrieren allmählich von On-Premises in die Cloud. Dort sind alle Optionen auf grün: Skalierbarkeit, globale Erreichbarkeit, Security- und Performance-Management und nicht zuletzt das Tempo, mit dem neue Produkte deployed werden.

In der Tat: Azure ist das neue Windows.