Die Dinosaurier sind zurück

2,5 Milliarden Dollar Gewinn! Im Quartal! Das ist für die meisten Companies auf diesem Planeten ein ziemlich stolzes Ergebnis. Auch für das zweitgrößte Unternehmen dieser Welt – Amazon nämlich – sind 2,5 Milliarden Dollar eine stolze Stange Geld; vor allem, wenn man bedenkt, dass der Online-Versandriese lange Zeit als chronisch margenschwach galt. Wenn er überhaupt Gewinne ausweisen konnte.

Aber Amazon ist nicht mehr nur ein Online-Versandriese. Amazon ist vor allem der Weltmarktführer im Cloud-Business. Amazon Web Services stehen mit 6,1 Milliarden Dollar zwar nur für einen kleinen Teil des Konzernumsatzes, tragen aber mit 1,6 Milliarden Dollar Betriebsgewinn zu mehr als 55 Prozent des Gesamtgewinns bei. Wenn Amazon mit einer Marktkapitalisierung von derzeit gut 860 Milliarden Dollar Apple bei einem Börsenwert von 945 Milliarden Dollar als wertvollstes Unternehmen der Welt jemals ablösen sollte, dann wegen seiner Cloud-Aktivitäten.

Doch wie wackelig die Marktführerschaft im Cloud-Business ist, zeigen die Quartalsergebnisse der nachfolgenden Dinosaurier: Microsoft, IBM und SAP. Während Amazon praktisch ein Kind der Wolke ist, sind die drei alteingesessenen Tech-Companies allenfalls Cloud-Immigranten, Einwanderer aus einer Welt in der das Geschäftsmodell vom Besitz der Infrastrukturen und Produktivitätswerkzeuge geprägt war. Aber die drei scheinen sich erfolgreich in die Ära der Share-Economy und On-Demand-Infrastrukturen hinüberzuretten.

Allen voran Microsoft. Mit 30,1 Milliarden Dollar Umsatz im vierten Quartal des Geschäftsjahres hat die Gates-Company nicht nur erstmals die 100-Milliarden-Marke durchstoßen; zu diesem Ergebnis hat auch die Cloud-Sparte mit 6,9 Milliarden Dollar überdurchschnittlich gut beigetragen. Auch wenn sich das Wachstum rund um die Cloud-Angebote Azure, Dynamics 365 und Office 365 etwas verlangsamt hat, übersteigt der erreichte Cloud-Umsatz doch den von Amazon inzwischen deutlich. Die Frage der Marktführerschaft ist also schon längst eine Frage der Definition.

Denn auch IBM und SAP kommen mit ihren Cloud-Umsätzen allmählich in die Regionen von Amazon und Microsoft. Für beide – wie auch für Microsoft – zahlen sich offensichtlich die langjährigen festen Beziehungen zu Enterprise-Kunden aus, die jetzt auf dem Migrationsweg in die Cloud sind und bei den drei Dinosauriern Asyl suchen. Für IBMs Chefin Virginia Rometty dürfte das nach zahllosen Quartalen mit sinkendem Umsatz wie eine Erlösung sein. Das Unternehmen hat sich in die Herzen der IT-Leiter zurückgekämpft. Vor allem die CIOs, die mit globalen, zeit- und transaktionskritischen Infrastrukturen zu kämpfen haben, wählen offensichtlich bei ihrem Weg von On-Premises zu On-Demand lieber die „Good Old Buddies“ als die Cloud-Natives wie Amazon und Google.

SAP sieht sich damit auf einem guten Weg, den alten Cloud-Rivalen Salesforce im Geschäft mit Lösungen für das Kundenbeziehungsmanagement abzuschütteln. Und alle drei Dinosaurier – Microsoft, IBM und mit Einschränkungen SAP – setzen nicht nur auf die Cloud, sondern zugleich auf alle Disziplinen im Modernen Fünfkampf, der neben Cloud Computing aus Mobile Computing, Data Analytics, Artificial Intelligence und Security Management besteht.

SAP ist – mit Recht – stolz darauf, dass 93 Prozent der Fortune-500-Unternehmen Lösungen der Walldorfer einsetzen. Microsoft kann sich nicht nur auf ein Quasi-Monopol bei Desktop-Betriebssystemen stützen, sondern auch auf eine gigantische Zahl von Kunden und Partnern, die in Azure die facettenreichste Cloud-Plattform sehen. IBM wiederum holt auf verlorenem Mainframe-Terrain wieder auf und nutzt dabei die Intelligenz von Watson, dem derzeit marktführenden KI-System.

Noch ist der größte Teil des Cloud-Kuchens unangetastet. Die Zahl der Migrationswilligen ist riesig – sie umfasst praktisch alle Unternehmen dieser Welt. Aber im Laufe des kommenden Jahrzehnts wird unter den jetzigen Cloud-Riesen der Verdrängungskampf beginnen. Dann wird sich zeigen, wer die bessere Strategie hat. Die Dinosaurier jedenfalls sind gar nicht ausgestorben – sie haben sich agil in die Lüfte erhoben.

 

Spekulative Aushorchung

„Kernschmelze“ und „Gespenst“ sind wahrlich nicht zu niedrig gegriffene Schlagworte für das möglicherweise größte anzunehmende Unbehagen der Informationswirtschaft. Wir wissen nicht einmal, wie viele Milliarden Prozessoren mit den jetzt vorgefundenen Sicherheitslücken weltweit im Einsatz sind. Die Chipproduktion seit 1995 – also seit mehr als 20 Jahren – ist sozusagen kontaminiert.

Das Einfallstor, durch das nach Ansicht der Sicherheitsforscher bislang noch kein Angriffsversuch unternommen wurde, ist eine im Grunde äußerst wünschenswerte Einrichtung: „Speculative Execution“ – zu deutsch: „Spekulative Ausführung“ – ist eigentlich ein Klassiker der Prozessorbeschleunigung. Der Chip mutmaßt, welche Daten als nächstes benötigt werden, und lädt sie schon mal runter. Dabei sind dann auch verschlüsselte oder geschützte Daten auf der Hardwareebene unverschlüsselt verfügbar. Meltdown macht sich das zunutze, indem der Prozessor aufgefordert wird, die eigenen Daten sozusagen spekulativ auszuhorchen. Durch Software kann dieser Prozess weder bemerkt noch unterbunden werden.

Eigentlich. Doch seit Monaten arbeiten die großen Anbieter von Betriebssystemen und Geräten an einer softwareseitigen Lösung. Sie sollte eigentlich am 9. Januar – also am Dienstag – weltweit als Update bereitgestellt und in den Data Centern der größten Cloud-Anbieter installiert werden. Doch eine derart weltumspannende Reparatur ließ sich wohl nicht mehr länger verheimlichen. In den USA tauchten erste Berichte von hektischen Update-Aktivitäten auf, die Spekulationen über ein anstehendes IT-Großereignis schürten. Dass es so groß und so niederschmetternd für eine ganze Industrie, ja für unsere komplette Art zu leben, zu arbeiten, zu kommunizieren sein würde – das hatte wohl niemand ahnen können.

Außer jenen Anbietern – darunter Microsoft, Google und Amazon –, deren IT-Ökosphäre durch die Sicherheitslücke in größte Gefahr geraten würde. Seit Juni letzten Jahres – heißt es – arbeiten die Hersteller an einem Software-Update, dass diese Lücke zwar nicht endgültig schließt, aber doch wenigstens schwerer nutzbar macht. Endgültige Sicherheit wird wohl nur ein kompletter Austausch der Hardware bringen. Aber wie soll das gelingen?

Wer jetzt an Dieselgate denkt, ist kein Schelm. Ohne die Möglichkeit der schnellen Hilfe durch ein Software-Update stünde die Welt an einem Abgrund – denn Milliarden Prozessoren kann man nicht einfach mal so eben austauschen. Allein sie zu produzieren, würde die Produktionskapazitäten aller Chiphersteller aufbrauchen. Sie auszutauschen ist in vielen Fällen ebenfalls nicht möglich – wer weiß schon, wo er welchen Chip im Einsatz und am Netz hat.

Da ist es fast ein Segen, dass die Dematerialisierung unserer Produktwelten so weit fortgeschritten ist, dass die notwendigen ersten Sicherheitsmaßnahmen über ein Software-Update erfolgen können. Und es ist zugleich ein Segen, dass inzwischen Hunderttausende Unternehmen ihre Anwendungen nicht mehr im betriebseigenen Rechenzentrum, sondern in der Cloud haben. Dort – und das ist durchaus ein Wettbewerbsvorteil – haben die großen Anbieter wie Microsoft, Google und Amazon längst die Nase vorn. Sie wurden bereits früh durch die Hackerforscher informiert – denn nur sie können es sich leisten, diese extrem aufwändigen Forschungsarbeiten auch zu finanzieren.

Wie komplex das Software-Update ist, zeigt sich daran, dass beispielsweise Microsoft davor warnt, das Update erst auszuführen, wenn auch die Antivirus-Hersteller wiederum ihre Updates bereitgestellt haben. Denn die bestehenden Schutzsoftware-Versionen werden aktiv, wenn nicht unterstützte Aufrufe in den Speicher des Kernels getätigt werden. Erste Antivirus-Anbieter haben allerdings schon reagiert und ebenfalls Updates zur Verfügung gestellt.

Andere Anbieter ziehen jetzt in einem zweiten Schritt nach. Und Millionen von Unternehmen, die ihre Lösungen unverändert im eigenen Betrieb hosten, werden in den kommenden Wochen folgen. Oder nichts tun. So unfassbar das erscheinen mag, aber die Zahl der Menschen, die auch nach Bekanntwerden einer Sicherheitslücke nur schulterzuckend beiseite gehen, ist immer noch erschreckend hoch.

Oh, dabei fällt mir ein: Ich sollte jetzt meinen PC runterfahren und dann das neue Sicherheitsupdate hochladen. Oder gleich alle Daten und Anwendungen einem seriösen Cloud-Anbieter anvertrauen. Und morgen kaufe ich einen neuen Computer – mit bugfreien Prozessoren gegen spekulatives Aushorchen.

Aber erst morgen…

 

Digitalien – Geteiltes Land

Eine Studie der Management-Schule WHU hat jetzt gezeigt, dass selbst unter den Unternehmen in Deutschland, die unter starkem Modernisierungsdruck stehen, die Formulierung einer ganzheitlichen Digitalstrategie die Ausnahme ist. Lediglich 20 Prozent der Befragten sehen sich so weit. Die Hälfte der Unternehmen hat immerhin die Zuständigkeiten für eine Strategie der digitalen Innovationen und Geschäftsmodelle benannt. Ebenfalls die Hälfte sieht sich immer noch zu schlecht über die Themen und Technologien der digitalen Innovation informiert. Und ebenfalls 50 Prozent – vermutlich die gleiche Hälfte – versteht das Thema Digitalisierung vor allem als Angriffspunkt für weitere Rationalisierungsschritte und zur Kostenersparnis.

Deutschland, geteiltes Digitalland. Dieser Eindruck drängt sich nicht nur bei der Befragung von Unternehmen und Managern auf. Auch die Versorgung mit der geeigneten Infrastruktur sorgt hierzulande für ein geteiltes Bild. Die einen – stadtnahen Nutzer – verfügen über große Bandbreiten im Internetverkehr. Die anderen – ländlichen Bewohner – müssen noch immer ihr Handy aus dem Fenster halten, wenn sie einen vernünftigen Empfang haben wollen. Hier wiederholt sich die Erfahrung aus der Einführung der Elektrizität: Das Land teilt sich in diejenigen, die über das Licht der Informationstechnik verfügen, und diejenigen, für die das nicht gilt. Die im Dunkeln sieht man nicht, sang Bertolt Brecht (in einem etwas anderen Zusammenhang).

Dass die Beurteilung der digitalen Gaben auch in der Bevölkerung in zwei Lager – aus Befürwortern und Gegnern – teilt, muss da nicht überraschen. Die Beratungsfirma PricewaterhouseCoopers hat jetzt Bundesbürger in einer repräsentativen Befragung nach ihrer Einschätzung der künstlichen Intelligenz befragt und ebenfalls ein in der Hälfte gespaltenes Land vorgefunden. Dass künstliche Intelligenz bei der Bewältigung der drängendsten und komplexesten Fragen der Menschheit – wie dem Klimawandel, demographischen Wandel oder medizinischen Herausforderungen, aber auch Schutz vor Cybercrime – helfen könnte, glaubt jeweils ziemlich exakt die Hälfte der Befragten.

Im Prinzip nehmen sogar neun von zehn Befragten an, dass KI in irgendeiner Form dabei helfen kann, bestehende Probleme zu meistern. Aber das bedeutet noch lange nicht, dass KI-Forschung und KI-Systeme positiv konnotiert sind. 51 Prozent finden, dass KI negative Emotionen auslöse. Und dass künstlich intelligente Systeme künftig Arbeitsplätze vernichten werden, davon sind sogar zwei Drittel der Befragten überzeugt.

Die Umfragen zeigen eine klassische Umbruchsituation, wie sie nur mit der industriellen Revolution verglichen werden kann. Rund um die Dampfmaschine, die Eisenbahn und die Elektrifizierung haben sich seinerzeit viele absurde Mythen etabliert – wie die, dass der Mensch für die hohen Geschwindigkeiten nicht geschaffen sei. Tatsächlich zeigt sich auch heute, dass das Wissen über die Möglichkeiten und Limitierungen der künstlichen Intelligenz durchaus auch Anleihen aus dem Märchenland nimmt. Zwar haben nur sechs Prozent der Bevölkerung den Begriff „künstliche Intelligenz“ noch nie gehört. Doch drei von fünf Bundesbürgern können nicht erklären, worum es sich tatsächlich dabei handelt.

Wir brauchen eine neue Epoche der Aufklärung, in der wir den Menschen nicht nur auf die naturwissenschaftlichen Füße stellen, sondern auch seinen Kopf auf eine informationstechnisch-kognitive Zukunft ausrichten. So wie auch die nächste Bundesregierung den Breitbandausbau auf ihre Fahnen schreiben und die nächsten Fördermilliarden für digitale Projekte bereitstellen wird, muss sie auch beim Bildungsausbau in Deutschland kräftig nachlegen. Derzeit – auch das ist ein aktuelles Ergebnis – fehlen jährlich zwölf Milliarden Euro, wie das Institut der deutschen Wirtschaft in seinem Bildungsmonitor berechnet. Vom Kindergarten bis zur Hochschule besteht durchgehender Investitionsbedarf, um den Herausforderungen des demographischen wie des digitalen Wandels zu begegnen.

Denn das wissen die Bundesbürger über künstliche Intelligenz immerhin: Sie wird komplexere, kreativere, vernetztere, ganzheitlichere Arbeitsplätze schaffen und die Kärrnerarbeit den Maschinen überlassen. Nur zehn Prozent der Befragten glauben, dass künstliche Intelligenz Kreativität hervorbringt. Allerdings traut jeder Vierte der Technologie zu, im Jahr 2025 einen Nummer-Eins-Hit zu schreiben.

Oder sollte sich ereignen, was bereits mit dem Smartphone bei der Verbreitung des mobilen Internets zu beobachten war. Seit Jahren sind es nämlich die Internet-Giganten aus dem Silicon Valley, die dabei helfen, digitale Fertigkeiten einzustudieren. Ihr Erfolgsgeheimnis ist Convenience. Was leicht fällt, wird auch akzeptiert, wenn nicht gar geliebt. Es wäre nicht unwahrscheinlich, wenn dieser „Bildungsauftrag“ auch bei den aktuellen Digitaltechnologien durch Google, Amazon und Apple erfüllt wird. Denn schon ein Drittel der befragten Bundesbürger will zuhause einen digitalen Assistenten haben. Ebenso viele wollen sich durch künstliche Intelligenz bei der Steuererklärung helfen lassen. Und 28 Prozent wollen lieber mit einem KI-System als im Volkshochschulunterricht eine neue Sprache lernen.

Und nicht zuletzt: Den Papierkram im Job würden 22 Prozent doch ganz gerne einem digitalen Assistenten überlassen. Geteiltes Leid ist eben halbes Leid. Auch in Digitalien.

 

So what?

Expertise entsteht aus Experimenten! Der im Grunde richtige Lehrsatz scheint zugleich das Credo der Bildungsexperten zu sein, die ständig an neuen Modellen arbeiten. Kaum hat eine Schulreform erste Ergebnisse gezeigt, wird sie durch die nächste bereits abgelöst. Aber es braucht nun mal Zeit, aus Fakten Wissen und aus Wissen Bildung wachsen zu lassen. Da ist es denn auch nur folgerichtig, dass mehr und mehr Bundesländer wieder zum neunjährigen Gymnasium zurückkehren.

Dass Bildung Zeit braucht, müssen auch die Schulungsexperten der künstlichen Intelligenz und des maschinellen Lernens erkennen. Je komplexer die Aufgabenstellung ist, desto langwieriger ist der Aufbau einer Computing-Umgebung für deren Bewältigung. Inzwischen zeigt sich, dass beispielsweise der schlagzeilenträchtige Sieg von IBMs Watson bei der Quizshow Jeopardy! doch ein relativ leichtes Unterfangen war im Vergleich zu den immensen Aufgaben, mit denen IBMs Auftraggeber die Plattform für das Cognitive Computing betrauen wollen. Neben schönen Erfolgen mehren sich inzwischen Nachrichten über abgebrochene oder gar fehlgeschlagene Projekte.

Um Maschinenstürmern gleich den Wind aus den Segeln zu nehmen: Cognitive Computing und Deep Learning erzeugen keine Bildung – die bleibt uns Menschen vorbehalten. Aber diese und andere Formen der künstlichen Intelligenz revolutionieren die Verfügbarkeit von allokiertem Wissen und die Fähigkeit, aus Daten Informationen zu generieren und in großen Datenmengen Muster zu erkennen, aus denen wiederum Schlussfolgerungen gezogen werden können, die uns bei der Entscheidungsfindung unterstützen.

Das hat inzwischen einen unermesslichen Nutzwert. KI-gestützte Systeme erkennen in Netzwerken auffällige Verhaltensmuster, die auf einen Hackerangriff schließen lassen, und ergreifen Abwehrmaßnahmen. Das Potential allein ist immens: Wie der Hightech-Verband Bitkom jetzt mitteilt, ist allein in den vergangenen zwei Jahren rund die Hälfte der deutschen Unternehmen Ziel eines Angriffs geworden. Der dabei entstandene Schaden summiert sich in den zurückliegenden 24 Monaten auf 53 Milliarden Euro. Und dabei wird die Malware immer komplexer, so dass Virenscanner ohne Zuhilfenahme künstlicher Intelligenz versagen. IBM hat jetzt ihr Wissen um Systeme und Netze aus 30 Jahren Projektgeschichte in einen Datenpool geleitet, aus dem Watson schöpfen soll. Die Datenbank unter dem Namen IBM Data Lake soll bei der Automatisierung der Systemadministration helfen und Hackern das Leben schwer machen.

Ein weiteres Paradebeispiel ist das Scannen von Millionen Seiten an Fachliteratur, die mit Hilfe der Fähigkeiten von IBMs Watson, natürliche Sprache auf ihren Inhalt hin zu analysieren und sich bei der Entschlüsselung der Semantik auch nicht durch syntaktische Sprachfallen wie doppelte Verneinung beirren zu lassen, ausgewertet werden. Ebenso sind KI-Systeme hervorragend geeignet, in Bildern typische Muster zu erkennen und damit Abweichungen von der Norm zu identifizieren. Beide Methoden helfen heute Ärzten und Wissenschaftlern in nahezu allen Disziplinen bei der Forschungsarbeit und der Diagnose von Krankheiten. Wenn auf diese Weise auch nur ein Menschenleben gerettet werden konnte, haben sich die Investitionen bereits gelohnt.

Und die Investitionen sind in der Tat immens: IBM allein hat einen zweistelligen Milliardenbetrag in die Entwicklung der Technologie hinter Watson gesteckt und dabei auch zahlreiche Firmenübernahmen gewagt. Aber die Marktchancen sind keineswegs geringer: Im Jahr 2025 sollen Unternehmenslösungen im Wert von 31 Milliarden Dollar verkauft werden. Darin ist die damit verbundene Wertschöpfung noch gar nicht berücksichtigt. Sie dürfte ein Vielfaches betragen.

Kein Wunder also, dass sich die Konkurrenz um die vordersten Plätze rangelt. Nach Einschätzung von Gartner ist IBMs Watson-Plattform die am weitesten entwickelte, doch Anbieter wie GE Digital, Microsoft, PTC und Amazon Web Services folgen auf dem Fuß. Und Internetgiganten wie Google und Facebook entwickeln eigene KI-Plattformen für den Eigenbedarf. Wie IBM wollen sie vor allem die eigenen Datenmengen gewinnbringend auswerten.

Dabei steckt die KI-Forschung auch 50 Jahre nach ihrer Begründung durch Marvin Minsky eigentlich noch in der Trial-and-Error-Phase – also am Beginn der Bildungskarriere. So verfolgen Cognitive Computing oder Deep Learning unterschiedliche Konzepte des Wissensausbaus und der Analyse, was sie keineswegs zu universell einsetzbaren Hochbegabten macht. Sie verfügen eher über singuläre Fähigkeiten, die sie für bestimmte Aufgaben optimal erscheinen lässt, für andere wie3derum nicht. Das ist eine typische Erkenntnis bei komplexen Unternehmenslösungen: Auch ERP-Systeme lassen sich nicht ohne weiteres heute im Maschinenbau und morgen in der Medizin einsetzen. Sie folgen kontextspezifischen Best Practices und keinen universellen Begabungen.

Das muss nun auch das Bildungssystem rund um die künstliche Intelligenz erkennen. IBMs Watson ist ebenso wenig ein Universalgenie wie es die KI-Angebote der Konkurrenten sind. Dass Googles KI-Ansatz den Weltmeister im Go-Spiel besiegt, bedeutet nicht, dass es jedes Spiel beherrschen kann. Aber es kann fahren (im autonomen Google-Fahrzeug) und antworten (über Android-Smartphones).

IBM wiederum versucht nun, Watsons Fähigkeiten zur Mustererkennung für die Prozesssteuerung im Internet der Dinge zu nutzen. Das wäre ein weiterer Riesenmarkt. Und der wäre auch nötig, denn bislang dürfte Watson trotz lukrativster Verträge mit Fortune-500-Unternehmen kaum mehr eingespielt haben als die Kapitalkosten. Mit IoT könnte sich jedoch ein niedrigschwelliger Bildungssektor anbieten, für den man nicht gerade das KI-Abitur benötigt.

Denn für IBM verrinnt die Zeit. Nicht nur wächst die Konkurrenz. Nach 21. Quartalen mit Umsatzrückgang schmilzt auch die Marktbedeutung. Gut, dass die jüngsten Anstrengungen zur Verschlankung die Kosten so weit senken, dass unverändert Gewinn ausgewiesen werden kann. Sonst heißt es für IBMs Watson in wenigen Quartalen wirklich nur noch: „So what?“