SAP goes Greene

Was macht eigentlich SAP? Das wertvollste deutsche DAX-Unternehmen wächst und wächst. Aber wächst es auch an den richtigen Stellen?

1,4 Milliarden Euro wird SAP aus den Ergebnissen des zurückliegenden Geschäftsjahres an seine Aktionäre ausschütten. Das ist stattlich. Im Vergleich dazu nehmen sich die gut 45 Millionen Euro an Vorstandsgehältern, die letzten Donnerstag auf der Aktionärsversammlung durchgewunken wurden, geradezu marginal aus. Im internationalen Vergleich – und daran muss sich SAP genauso wie der FC Bayern messen – sind solche Gehälter keineswegs so exorbitant, wie die hiesige Debatte vermuten lässt.

Den weltweiten Wettbewerb um die besten Köpfe, die Internationalisierung des Managements und seiner Aufsichtsgremien meistert SAP mit aller Konsequenz. Mit Diane Greene wechselt jetzt die Hauptverantwortliche für das Cloud-Geschäft bei Google in den SAP-Aufsichtsrat. Das dürfte die Zusammenarbeit zwischen SAP und Google weiter beflügeln. Schon jetzt unterhält SAP eine strategische Partnerschaft mit der Cloud-Sparte von Google. Die Gründerin des Virtualisierungs-Spezialisten VMware, Diane Greene, die zusätzlich zu ihrer Management-Aufgabe bei Google auch im Aufsichtsrat der Google-Mutter Alphabet sitzt, dürfte dazu beitragen, dass SAP in dem derzeit am schnellsten wachsenden Marktsegment der Digitalisierung zumindest so schnell wachsen kann wie die Konkurrenz. Das ist aber auch dringend nötig.

Denn obwohl SAP vor gut zehn Jahren, als das Thema Cloud Computing noch kaum bei den Anwendern angekommen war, mit seiner Cloud-basierten Unternehmenssoftware Business by Design die Softwarewelt aufschreckte, ist das Geschäft aus der Wolke beim größten deutschen Softwarehaus nicht ganz einfach. Denn unverändert liegt der Schwerpunkt des Unternehmens bei der Business Logik, also beim Management der Geschäftsprozesse in beinahe allen Unternehmen der Fortune 500-Liste. Das ist die unangefochtene Domäne der Walldorfer. Hier steht SAP im direkten Vergleich mit den Konkurrenten Oracle und Microsoft gut da.

Die enormen Wachstumsraten der großen IT-Anbieter aber stammen aus dem Geschäft mit der Infrastruktur als Service – also mit Rechnerleistung, Netzwerk, Sicherheits-Features und Speicherkapazitäten. Das ist eigentlich ein ideales Betätigungsfeld für einen Total Seller wie SAP, der seinen Kunden Komplettlösungen aus einer Hand anbieten kann. Zwar gehört SAP zu den Top Ten der Cloud-Society, die rund 70 Prozent des Gesamtmarkts von 260 Milliarden Dollar im vergangenen Jahr unter sich verteilen. Aber in dieser Zehnergruppe gibt es wiederum eine Drei-Klassen-Gesellschaft, wobei Amazon allein ein Drittel des Marktes für sich beanspruchen kann. Die Konkurrenten Amazon und Microsoft decken als Klasse für sich zusammen genommen die Hälfte des Marktes ab – und Microsoft wächst derzeit deutlich schneller.

Nach Einschätzung der Cloud-Analysten von Synergy Research hat die zweite Klasse der „Big Five“ – also der fünf größten Cloud-Anbieter Amazon, Microsoft, Google, Apple und Facebook – im vergangenen Jahr zusammen 13 Milliarden Dollar in den Ausbau ihrer Cloud-Infrastruktur gesteckt. Dieses Jahr werden es kaum weniger sein. In der dritten Klasse – den Nachfolgern in der Zehnergruppe mit Alibaba, Oracle, IBM, SAP und Tencent dürften es vor allem die beiden chinesischen Anbieter sein, die dieses Investitionstempo mithalten können. Auch IBM wird alles daran setzen, diese letzte Chance auf Rückkehr ins große Geschäft nicht ungenutzt verstreichen zu lassen. Aber können auch die beiden Software-Riesen Oracle und SAP jedes Jahr eine Milliarde Dollar in die Cloud-Infrastruktur stecken?

SAP hat sich da offensichtlich für einen dritten Weg entschieden. Der größte Teilmarkt im Cloud-Geschäft ist nun mal Software as a Service – und hier hat SAP mit seinen Anwendungs-Suiten und der In-Memory-Datenbank HANA alle Karten in der Hand. Neben den eigenen Cloud-Rechenzentren unterhalten die Walldorfer deshalb Partnerschaften mit den großen Drei – Amazon, Microsoft und Google. SAP will nicht durch die Cloud wachsen, sondern mit der Cloud. Dass dabei auch die großen Cloud-Infrastrukturanbieter mitverdienen, muss kein Nachteil sein. Man muss sie nur nahe genug an sich binden. Mit der Personalie Diana Greene ist dabei ein Zeichen gesetzt worden.

 

Who, the fuck, is Ellis?

Man könnte angesichts der Innovationsflut, die gegenwärtig auf uns niederbricht, beinahe verzagen. Mobile Computing ist noch kaum bewältigt. Cloud Computing ebenso wenig. Und gleichzeitig kommen mit dem digitalen Wandel und der vierten industriellen Revolution zwei Technologiewellen auf uns zu, die mindestens eine Dekade lang Investitionen und Innovationen beherrschen werden. Doch die alles überragende Tsunami-Welle, die auf uns zu rollt, türmt sich mit den Möglichkeiten der künstlichen Intelligenz auf. Sie wird weit ins Land vordringen und unser Leben von Grund auf verändern.

1200 Milliarden Dollar werden nach Schätzungen der Gartner Group allein im laufenden Jahr in KI-Systeme und –Services investiert. Ein internationaler Wettlauf um die führende Position ist unter den Technologie-Giganten ausgebrochen. Und schon scheint es so zu sein, dass die Karten längst verteilt sind. Die größten KI-Anbieter kommen entweder aus den USA und heißen Google, Microsoft und IBM oder sie kommen aus China – wie zum Beispiel Alibaba oder Tencent. Große europäische Anbieter oder gar Deutsche kommen erst unter „ferner liefen“.

Das gilt inzwischen bereits für die gesamte Wertschöpfungskette rund um künstliche Intelligenz. Dort, wo KI-Systeme genutzt werden, entstehen Umsatz-Sprünge durch Predictive Analytics, Kommunikationsvorteile durch Sprachsteuerung, Effektivitätsgewinne durch Automatisierung, Erkenntnisgewinne durch Cognitive Computing und ein Mehr an Flexibilität durch Machine Learning oder Deep Learning. Google, Amazon und Facebook in den USA und wieder Alibaba und Tencent in China sind die größten Nutznießer aus der KI-Nutzung.

Das gleiche Bild ergibt sich bei der Grundlagenforschung rund um künstliche Intelligenz. Es sind nicht mehr nur Stanford und Harvard, die weltweit die schlauesten Forscher an sich ziehen. Im gesamten Silicon Valley tobt ein Krieg um die Köpfe, der längst dazu geführt hat, dass europäische Wissenschaftler den Weg über den Atlantik antreten, um auch auf diesem Gebiet auf optimale Arbeitsbedingungen für Grundlagenforschung und die Entwicklung neuer Algorithmen zu stoßen. In China gibt es längst eine staatliche verordnete Konzentration auf Forschungsgebiete für KI. Dabei ist keineswegs mehr sichergestellt, dass die Forschungsergebnisse – wie Jahrhunderte lang üblich – der Wissenschaftsgemeinde frei zugänglich gemacht werden. Gerade die staatlichen chinesischen Konzerne und die Internet-Giganten aus den USA haben die Wettbewerbsvorteile durch Geheimhaltung für sich erkannt.

Denn KI-Forschung ebenso wie die gewerbliche Nutzung von künstlicher Intelligenz benötigt einen der wertvollsten Rohstoffe, die die Menschheit überhaupt hervorbringen kann: die Daten über unser Handeln und Wandeln. Sie sind die Voraussetzung dafür, dass KI-Systeme zu Erkenntnissen und Entscheidungsvorlagen gelangen, die dem menschlichen Geist auch auf den zweiten Blick verborgen bleiben. Der nächste Handelskrieg zwischen den Kontinenten wird nicht um Stahl geführt, sondern wegen der Daten, die die internationalen Konzerne weltweit eintreiben und auswerten.

Sowohl bei der Finanzierung als auch bei der Erhebung von Daten als Grundlage für KI-Forschung sind die Europäer ins Hintertreffen geraten. Längst erheben sich deshalb Stimmen aus der Wissenschaftsgemeinde, die eine gemeinsame europäische Initiative fordern. Vorbild solle dabei das vor 65 Jahren gegründete Großforschungslabor für Kernphysik CERN werden. Nur im Zusammenschluss der 22 Mitgliedstaaten war eine Kraftanstrengung möglich, wie sie der Bau des Large Hadron Colliders darstellt, mit dem schließlich der Nachweis des Higgs-Teilchens und damit ein historischer Meilenstein in der Quantenphysik gelang. Einen Namen hat die Initiative schon: European Laboratory for Learning and Intelligent Systems – kurz: Ellis. Von der Gründungsidee des CERNs bis zur Grundsteinlegung des ersten Labors bei Genf vergingen drei Jahre. Kaum zu glauben, dass es der europäischen Union gelingen könnte, Ellis innerhalb von nur drei Jahren aus dem Boden zu stampfen. In der KI-Forschung bedeuten drei Jahre eine Ewigkeit. Wir werden uns wohl ewig fragen müssen: Who, the fuck, is Ellis, wenn wir die europäische Krankheit, die Bräsigkeit, nicht ablegen. Sonst werden wir dem abgefahrenen KI-Zug hinterherwinken…

 

Oder gibt es Hoffnung? Ich hatte die Ehre, auf dem 49. Monetären Workshop in Frankfurt, zu dem sich hochkarätige Banker und Finanzexperten trafen, meine Thesen zur KI-Entwicklung vorzutragen. Ich gewann dabei durchaus den Eindruck, dass die Finanzwelt den Ernst der Lage erkennt. Wer meine Thesen nachlesen möchte, braucht nur hier zu klicken.

Cloud ist nicht Cloud

In der galaktischen Enzyklopädie „The Hitchhiker´s Guide to the Galaxy“ steht der lebenskluge Rat: „Traue keinem Wesen, von dem du nicht weißt, womit es denkt…“

Gut, also gilt es auf der Erde – immerhin ein Teil dieser Galaxie – zu fragen: Womit denken Alexa, Cortana oder Siri? Wo denkt sich Amazon unsere Kaufempfehlungen aus? Was denkt das Google-Auto, wenn es abbiegt? Wer trifft wo die Entscheidungen im Internet der Dinge?

Zugegeben, Dinge sind keine Wesen. Sie werden durch künstliche Intelligenz zwar vielleicht wesenhaft – aber das ist auch alles. Wo und womit sie kalkulieren und wer die Algorithmen dafür bereitstellt – diese Fragen gewinnen von Tag zu Tag an Bedeutung. Um das zu verstehen, bedarf es offensichtlich erst eines Großskandals wie den um die massenhafte Ausspähung von Facebook-Accounts durch Cambridge Analytica und der mutmaßlichen Weiterverwertung der Beute für die Präsidentenwahl in den USA und das Brexit-Referendum in Großbritannien.

Denn künstliche Intelligenz ist als „Gott der kleinen Dinge“ offensichtlich so unterschwellig, dass sie von ihren Nutzern gar nicht als solche wahrgenommen wird. Nicht einmal jeder sechste Deutsche will laut einer jetzt veröffentlichten Studie bemerkt haben, im letzten Jahr mit künstlicher Intelligenz in Berührung gekommen zu sein. Allein die Verkaufszahlen der Smartphones mit ihren KI-Funktionen in der Spracherkennung und den Einkaufs-Apps bei Amazon bis Zalando weisen darauf hin, dass mehr als die Hälfte der Bevölkerung mehrfach wöchentlich KI-Erfahrungen gemacht haben müsste.

Das ist das Phänomen der zweiten Welle des Cloud Computings: Wir greifen über benutzerfreundliche Schnittstellen auf Funktionen zurück, deren Funktionsweise, ja sogar deren Existenz uns nicht bewusst ist. Denn die Cloud ist schon lange nicht mehr nur das externe Rechenzentrum, in das Unternehmen ihre IT auslagern, um mehr Flexibilität und weniger Kosten zu erzielen. Die zweite Welle der Cloud liefert eine Plattform für Funktionen, die wir mobil und „on the fly“ nutzen, ohne dafür die Rechenleistung mit uns herumschleppen zu müssen. Online-Shopping, Spracherkennung, (teil-)autonomes oder vernetztes Fahren, Security Features, smart Data, predictive Analytics – all das nutzen wir, ohne es uns recht bewusst zu machen. Das freundliche Application Programming Interface liefert uns den Service frei Haus.

Das ist so gut und so schlecht wie die Absichten, die damit verfolgt werden. Deshalb baut die zweite Welle des Cloud Computings immer stärker auf die wichtigste Währung im Internet, mit der sich nicht über Blockchain spekulieren lässt: Vertrauen. Es geht nicht mehr um die Frage, wem man Anwendungen und Daten anvertraut. Es geht inzwischen um die Frage, wem man (Vor-) Entscheidungen anvertrauen möchte.

Für Unternehmen und Organisationen wird es somit immer wichtiger, diese zweite Welle des Cloud Computings für sich zu nutzen. Denn Cloud-Services mit künstlicher Intelligenz bieten nicht nur mehr Kundenkomfort, sie binden durch eine positive Customer Experience ihre Kunden immer stärker an die Plattform, der sie sich anvertraut haben. Für Markenanbieter wird das zu einem wettbewerbsentscheidenden Imagefaktor. Die „Freude am Fahren“ oder der „Vorsprung durch Technik“ wird nicht mehr durch die Motorleistung des Fahrzeugs erfahrbar, sondern durch die Serviceleistungen des vernetzten Automobils. Die Eigenschaften eines Haushaltsgeräts definieren sich nicht mehr aus seiner Hardware, sondern aus der Plattform heraus, vom dem es seine Software-Updates bezieht. Und der Online-Einkauf bei der Modemarke des Vertrauens definiert sich nicht mehr ausschließlich über Produkt und Preis, sondern über die Customer Experience.

Doch schon erscheint die dritte Cloud-Welle am KI-Horizont. Durch sie werden die Services nicht mehr nur den Kunden zur Verfügung gestellt, sondern den Dingen selbst, die untereinander vernetzt sind, Daten austauschen und koordiniert agieren. Fahrzeuge teilen sich Störungen im Verkehrsablauf mit, Lieferdienste optimieren die letzte Meile, Maschinen verzahnen die Wertschöpfungskette.

Unternehmen und Organisationen sollten ihre Digitalstrategie möglichst schnell auf diese zweite und dritte Welle des Cloud Computings ausrichten und dabei sich selbst und den Kunden in den Mittelpunkt stellen. Sonst weiß man bald wirklich nicht mehr, womit das Ding da draußen denkt…

 

 

Das Microsoft-Dilemma

Wer Vertrauen gewinnt, gewinnt auch Marktanteile. Und mit jedem neuen Kunden wächst die Verantwortung für das Produkt, seinen Nutzen, seine Sicherheit und Zukunftsfähigkeit. Sonst verliert man erst das Vertrauen und dann Marktanteile… – Das ist der Teufelskreis des Marketings.

Aber es gibt Ausnahmen. Bild beispielsweise ist die meist-verleugnete Zeitung in Deutschlands Blätterwald: kein Vertrauen, kein Ansehen, kein Abonnement. Und doch entschieden sich zu Spitzenzeiten fünf Millionen Käufer täglich dafür, sich durch Bild eine Meinung zu bilden.

Bild ist heute ein Opfer der Digitalwirtschaft – bei einer täglichen Leserschaft von „nur noch“ einer Million plus. Das Blatt verliert seine Käufer an die elektronischen und sozialen Medien, obwohl auch diese nicht gerade einen offiziellen Vertrauensvorschuss genießen. Jeder distanziert sich von Fake-News, Shit-Storms und Hass-Predigten – und doch decken Millionen Online-Leser ihren täglichen Kommunikationsbedarf über Facebook, Twitter und Co.

Ganz allgemein gilt für die Internet-Giganten wie Facebook, Amazon, Google, Microsoft, Apple oder Alibaba, dass sie schon ihrer schieren Größe wegen kaum Vertrauen genießen. Jeder mögliche Missbrauch ihrer Marktmacht wird bereitwillig unterstellt. Aber ihre Größe verdanken die Anbieter ausschließlich ihrer enormen Kundenzahl, was bisweilen monopolhafte Züge annimmt. Milliarden User vertrauen diesen Plattformen ihre persönlichen Daten, ihre Verhaltensmerkmale, ihre Beziehungen und ihre Geschäftsprozesse an. Vertrauen ohne Zutrauen – das funktioniert, scheint´s, vor allem in der Digitalwirtschaft.

Für Microsoft ist diese Paradoxie des Marketings schon seit seligen DOS-Zeiten der Normalzustand. MS-DOS und Windows sind wohlmöglich die am schlechtesten beleumundeten Produkte unter den Quasi-Monopolen. Negativ-Berichterstattung über „Windoof“ gehört einfach zum guten Ton. Und doch ist es weiterhin das am meisten verbreitete PC-Betriebssystem. An Installationszahlen wird es nur übertroffen von Googles Android, obwohl der Suchmaschinen-Gigant nun wirklich nicht den Ruf hat, ein Vertrauensmonopol zu besitzen.

Das „Microsoft-Dilemma“ hat es jetzt auch ins Abendprogramm des Fernsehens gebracht, als in einer breit angelegten Berichterstattung die mutmaßliche Abhängigkeit deutscher Behörden angeprangert wurde. Dabei – und ganz im Gegensatz zum Tenor der Beiträge – entscheidet sich die öffentliche Hand immer wieder für Microsoft als Anbieter der Wahl und gibt dabei sogar Versuche mit Open Source-Angeboten auf. Genau genommen gibt es eine langjährige und intensive, wenn nicht sogar vertrauensvolle Lösungspartnerschaft zwischen beiden.

Tageszeitungen wie die FAZ haben das „Microsoft-Dilemma“ aufgegriffen und warnen vor der Gefahr, durch Internet-Giganten ausgespäht zu werden, wenn diese in der Cloud Zugriff auf Personen- oder Firmendaten erhalten. Tatsächlich aber hat Microsoft schon vor drei Jahren zwei Rechenzentren in die Treuhänderschaft der Deutschen Telekom gegeben, um sich erstens das Vertrauen ihrer Cloud-Kunden zu verdienen. Es geschah aber auch, um zweitens möglichen Gewissenskonflikten, wie sie derzeit im Prozess gegen die US-Regierung drohen, zu entgehen. Die US-Behörden stehen auf dem Standpunkt, dass Daten auch dann im Fahndungsfall ausgeliefert werden müssen, wenn sich weder Daten, noch Betreiber in den USA befinden – solange nur der Firmensitz der Muttergesellschaft dort gemeldet ist.

Mehr vertrauensbildende Maßnahme als die treuhänderische Verwaltung gibt es nicht. Aber diese deutsche Cloud wird von Deutschen nur zögernd angenommen. Umgekehrt wächst Microsofts standardisiertes Cloud-Angebot hierzulande schneller als in jedem anderen Land. Die Azure Plattform ist im Begriff, Amazons Web Services weltweit den Rang abzulaufen. Dabei folgen beide den üblichen Sicherheitsstandards der Digitalwirtschaft – aber viel mehr auch nicht. Offensichtlich schafft weniger Sicherheit mehr Vertrauen.

Es ist das Absurdistan der Cloud-Welt. Jeder führt das Thema Sicherheit auf der Zunge, aber wenns ans Schlucken geht, sind es vor allem die Kosten, die es zu verdauen gilt. Was sollte man Microsoft hierzulande raten? Mehr Vertrauen durch weniger Sicherheit? In jedem Fall kann Microsoft mit dem Sicherheits-Doppelbeschluss nur gewinnen. Einerseits schützt der Hochsicherheitstrakt hinter den Mauern der Deutschen Telekom nicht nur in dem Fall vor dem Zugriff der US-Behörden, dass Microsoft den Prozess verlieren sollte. Er schützt im Falle eines gewonnenen Prozesses andererseits auch vor der Unterstellung, Microsoft würde mit den Daten seiner Kunden eigene Interessen verfolgen. Und drittens kann Microsoft unabhängig vom Ausgang der gerichtlichen Auseinandersetzung sein Azure-Angebot mit üblichen Sicherheitsstandards zu wettbewerbsstarken Preisen ausbauen. So gewinnt man vielleicht nicht mehr Vertrauen, aber wenigstens mehr Marktanteile.