Ein Urteil zum Vergessen

682 Millionen Informationen über 66,3 Millionen Menschen, Daten über 4,2 Millionen Unternehmen,  – besser könnte man das, was man gemeinhin eine Datenkrake zu nennen pflegt, nicht charakterisieren. Nur – es handelt sich hier weder um die NSA, noch um Google. Es sind die Eckdaten der vermutlich größten Auskunftei Deutschlands: der Schufa. Sie bedient jährlich mehr als 110,7 Millionen Kreditauskünfte und arbeitet dazu mit rund 8000 Vertragspartnern zusammen, die mehr oder minder freiwillig und für Dritte intransparent Informationen an die „Schutzgemeinschaft für allgemeine Kreditsicherung“ weiterreichen.

Diese Eckdaten habe ich „gegoogelt“. „Schufanisieren“ hat sich dagegen nie im Sprachgebrauch etabliert – vermutlich auch deshalb, weil wir zwar die Möglichkeit haben, die über uns und unser Finanzverhalten gespeicherten Daten (in Auszügen?) einzusehen. Selbst kostenfrei einfach mal zu schauen, was denn der Nachbar so an Schulden hat, ist uns (und das ist auch gut so) nicht möglich.

Aber wie genau die Schufa unsere Kreditwürdigkeit ermittelt, wie genau der Algorithmus ausschaut, nach dem sie aus Standortdaten, Informationen zum Schuldendienst, zum Kaufverhalten etc. einen „Score-Wert“ ermittelt, der schließlich die Höhe unserer Kreditzinsen oder überhaupt über Wohl und Wehe unseres Kreditantrags bestimmen könnte, das wissen wir nicht. Und das muss uns die Schufa auch nicht mitteilen, wie der Bundesgerichtshof Ende Januar in seinem Urteil über die Klage einer Frau, die auf Herausgabe der Berechnungsdetails geklagt hatte, entschieden hat (Az.: VI ZR 156/13).

Wie Google hingegen seine Suchergebnisse bewertet und auflistet, wie es Anzeigen dazu schaltet und wie es Wettbewerbsangebote von anderen Suchmaschinen mit einbezieht, das verhandeln EU-Wettbewerbskommissar Joaquin Almunia, Google-Vertreter und Internet-Anbieter seit vier Jahren. Derzeit trifft man sich in Paris, um die aktuellen Vorschläge, die eine stärkere Einbindung von Wettbewerbsangeboten in die Google-Listen ermöglichen soll, möglicherweise noch zu verschärfen. Am Ende soll eine für Google rechtlich bindende Verpflichtung entstehen.

Dabei macht Almunia eines klar: Die EU-Kommission geht nicht gegen marktbeherrschende Stellungen vor, sondern lediglich gegen Fälle, in denen eine marktbeherrschende Stellung missbraucht wird. Ob das bei Googles Suchergebnissen der Fall ist, sehen Google und dessen Mitbewerber naturgemäß unterschiedlich.

In diesem Prozess geht es auch um urheberrechtliche Fragen – beispielsweise darum, ob Google Zeitungsartikel überhaupt und wenn ja beliebig lange in seinen Suchergebnissen vorhalten darf. Verlage nehmen – aus welchen Überlegungen heraus auch immer – ihre ePaper-Angebote nach einer bestimmten Frist vom Web. Wenn Google aber die Links archiviert, sind sie immer noch vorhanden. Die Schwierigkeit in dieser Debatte wird unter anderem dadurch erhöht, dass die Verlage zwar nicht auf ihr Ranking verzichten wollen, wenn ein Schlagwort zu Ergebnissen aus ihren Publikationen führt, aber als Urheber des Textes dennoch darüber entscheiden wollen, ob dieser Beitrag noch und möglicherweise sogar kostenfrei verfügbar sein darf oder nicht.

Und erst recht, so entschied letzte Woche der Europäische Gerichtshof, darf Google keine Links zu Zeitungsartikeln mehr zeigen, in denen – beziehungsweise im aktuellen Fall in deren Umfeld – schützenswerte personenbezogene Daten veröffentlicht werden. Tatsächlich ging es also nicht um einen redaktionellen Beitrag, sondern um die Anzeige zu einer privaten Zwangsversteigerung direkt daneben. Dass Googles Algorithmen auch diese Anzeige durchsuchbar und damit auffindbar machten, ist sozusagen die dunkle Seite dieses ansonsten eher erleuchtenden Algorithmus.

Wie Google nun dieses Urteil umsetzen wird, steht noch in den Sternen. Aber das Gericht hat dazu Fristen gesetzt, die Google sicherlich (formal) einhalten will. Schon heute ist es möglich, bei Google einen Antrag auf Vergessen zu stellen. Allerdings ist dafür Voraussetzung, dass der Link gegen die Qualitäts- und juristischen Richtlinien von Google verstößt. Praktikabel ist das nicht.

Wenn wir aus Daten Informationen generieren wollen, und das wollen wir!, dann benötigen wir Big Data Analysen und Suchmaschinenergebnisse. Wir sind davon abhängig, dass wir Algorithmen an die Hand bekommen, die uns die Stecknadel im Stecknadelhaufen finden helfen. Heuhaufen wäre ja noch vergleichsweise einfach.

Insofern ist das Urteil zum Vergessen, das der EuGH in der vergangenen Woche gesprochen hat, sicherlich ein Meilenstein. Anlass zum Jubel, wie es Politiker nahezu aller Parteien offensichtlich sehen, ist es auf den zweiten Blick eigentlich nicht. Vielleicht stehe ich mit dieser Meinung allein: Aber ein Urteil zum Vergessen hat ebenso Orwell´sche Dimensionen wie ein Urteil zum „N’oublie jamais“, wie Joe Cocker singt. Denn das hat auch seinen Reiz, sonst hätte dieser Song keinen Sinn.

Die Welt als Familie

Was ist da eigentlich passiert? Es hat den Anschein, als wäre ein Meinungsbeitrag in einem nahezu ausschließlich in deutschsprachigen SAP-Kreisen verbreiteten Anwendermagazin der berühmte Tropfen gewesen. Das Fass, das er zum Überlaufen gebracht hatte, war der Gleichmut, das Charisma, die Hingabe an eine faszinierende Technologie. Diesen Eigenschaften des zurückgetretenen Technologiechefs Vishal Sikka verdankt SAP viel, vor allem aber eines: Aus einem Prototyp unter dem Namen SanssouciDB wurde HANA und damit SAPs strategische Plattform für das Cloud Computing.

Dass HANA heute nicht mehr mühsam mit High Performance Analytic Appliance gedeutet wird, sondern einfach als Produktname in den Köpfen der Anwender angekommen ist, mag nicht eine technologische, sondern eine marketingtechnische Meisterleistung sein. Doch ohne ein meisterliches Produkt ist Marketing nichts. Man sollte da nie die Reihenfolge verwechseln.

Jetzt hat Vishal Sikka bei SAP das Handtuch geworfen – und es wäre eine Katastrophe, wenn HANA nicht bereits von einer Technologie zum Produkt, von einem strategischen Entwurf zu einer strategischen Plattform für das zukünftige Geschäft des größten (weitgehend) deutschen Softwarehauses gereift wäre. Die Saat dazu wurde unter der Agide von Hasso Plattner in Potsdam gelegt. Der Reifungsprozess erfolgte unter Vishal Sikka in einem globalen Prozess. Und der Vertriebserfolg muss nun unter Bill McDermott ebenfalls global herbeigeführt werden.

Soweit der Business Talk. Der Rest ist Psychologie.

Vishals sagen wir ruhig einmal: überhasteter Rückzug scheint die Folge einer tiefen Kränkung zu sein. Nichts anderes legt sein persönlicher Blogpost vom 1. Mai nahe, in dem er unter der Überschrift „Words and Wisdom…“ auf die Einlassungen der – wie Vishal selbst schreibt – „Klatschbase“ Peter Färbinger reagiert. Der hatte nämlich in jener Anwenderpostille darüber räsoniert, dass der große Graben zwischen Europa und Amerika in der Führungsriege der SAP ausgehoben werde. McDermott, heißt es da beispielsweise, werde den Konzern entweder weiter amerikanisieren oder aber bei nächster sich bietender Gelegenheit an die Spitze eines (wahren) US-Konzerns wechseln. Und Vishal Sikka sei der zweite Nicht-Europäer, mit dessen Hilfe Hasso Plattner die SAP technologisch vor sich her treibe. Dabei seien doch sowohl ERP-Tugenden als auch SanssouciDB ursprünglich einmal deutsche Errungenschaften…

Weil der Artikel handwerklich fragwürdig ist – er zitiert nicht, sondern mutmaßt allenthalben -, klingt er nach dumpfem Nationalismus. Er trifft aber durchaus einen Kern der Diskussion in den Hallen der SAP in Walldorf, wo seit langem schon die Identitätsfrage gestellt wird. Was als Überfremdung und Fremdbestimmung missverstanden wird, ist in Wahrheit nur eine Frage der Verwurzelung: Worin sieht eine global agierende Firma ihre Herkunft. SAP ist nie angetreten mit dem Ziel eine deutsche, eine europäische Firma zu sein. Sie war es einfach.

Ihr Kern ist Technologie – und die hat keine Nation.

SAP ist in dieser Identitätsfrage möglicherweise weiter als US-amerikanische Unternehmen, die sich als „American Heritage“ begreifen und den eigenen Nationalismus unter einem globalen Führungsanspruch verbergen. Sie hat derzeit eine amerikanisch-dänische Führungsspitze und Vishal Sikka mag gehofft haben, dass sich nach Jim Hagemann-Snabes Wechsel in den Aufsichtsrat am 21. Mai eine amerikanisch-indische Doppelspitze ergeben könnte. Daraus wurde nichts. Weil Bill McDermott den Alleingang präferiert? Weil mit einer deutsch-indischen Spitze jene Überfremdung gedroht hätte, die der Artikel angedeutet hatte? Weil Sikkas Stern im Sinken war?

Sein Rücktritt hat den SAP-Vorstand jedenfalls wieder europäischer werden lassen. Dabei ist SAP auf dem guten Weg zur wahrhaft internationalen Company, die der vedischen Erkenntnis folgt, dass die ganze Welt eine Familie ist: Vasudhaiva Kutumbakam.

Die Welt ist eine Familie und das Internet ist der Kaffeetisch, an dem wir uns treffen.

Früher oder später werden alle globalen Unternehmen vor dieser Identitätsfrage stehen: Google ebenso wie Apple – oder Siemens und Alstom.

Namaste Vishal.

Amazon kreuzweise

Warum heißt Amazon eigentlich Amazon? Während die einen spekulieren, dass es sich um ein Mantelwort aus „amazing online“ handeln könnte, sehen andere eher im größten Fluss der Erde, der sich aus zahllosen Quellen speist und das Wasser schließlich in einem mächtigen Strom bündelt, die wahre Metapher für den Online-Versandhändler. Die Metapher zumindest illustriert ganz gut den Integrationsansatz, den Amazon-Gründer Jeff Bezos offensichtlich schon im Kopf hatte, als er „nur“ einen Buchversand gründete. Der Wirtschaftswissenschaftler Bezos entwickelte sein Unternehmen und seinen Markt lehrbuchgerecht kreuzweise – erst horizontal, dann vertikal.

Denn nach der horizontalen Integration – also der Bündelung einer Vielzahl von gewerblichen Anbietern auf einer Angebotsplattform – erfolgte die vertikale Integration entlang der Distributionsschiene. Beide Expansionslinien werden seitdem konsequent ausgebaut: Horizontal durch die Hereinnahme von so ziemlich allem, was sich in einen Internet-Verkaufskatalog pressen lässt; vertikal durch die totale Beherrschung des Distributionswegs und des Kundenbeziehungsmanagements.

Und damit sind wir auch schon mittendrin im Imageproblem, mit dem Amazon seit Jahren zu kämpfen hat. Bei einem Markenartikler ist es die Produkterfahrung, die das Image des Herstellers prägt. Ist die Qualität gut, wird es auch der Hersteller sein. Apple ist das beste Beispiel dafür, dass Perzeption immer noch mächtiger ist als die Realität. Amazon aber wird über die Tugenden eines Logistikers bewertet, nicht über die gelieferte Ware. Pünktlichkeit, Fehlerfreiheit, Flexibilität, Kundennähe – das sind die Kriterien, über die Amazon bewertet wird. Und diese Eigenschaften haben auch ein Gesicht. Es ist das des eiligen Kollegen, der das Paket an der Haustür abgibt. Bislang trug der aber immer die Trikots von Hermes, DHL oder FedEx. Also: Wenn es gut läuft, war es der Carrier; wenn es schlecht ging, war es Amazon. Das ist das Mantra der Kontraktlogistik.

Da kann es wirklich nicht überraschen, dass Amazon immer stärker in die Digitalisierung der Geschäftsprozesse investierte, um Distribution unabhängig von Transportwegen und Zustelldiensten aufzubauen. Angefangen vom Produkt (Audio, Video, EBooks) über den Distributionsweg (on Demand, Download oder Cloud Services) bis zur Kundenbindung (Social Media, Crowd, Big Data) hat Amazon den eCommerce neu durchdekliniert. Mit Erfolg.

Es kann aber auch nicht überraschen, dass Amazon in seinem letzten Quartalsbericht bei Frachtkosten einen Anstieg um 31 Prozent ausweist und damit deutlich macht, wie sehr die vertikale Integration bis zur letzten Meile im Zentrum der Aufmerksamkeit steht. Denn der happige Frachtkosten-Posten ist keineswegs nur Spiegelbild der Preisentwicklung auf der letzten Meile. Es ist auch ein Anzeichen dafür, dass Amazon mit aller Kraft die nächste Runde der vertikalen Integration bis zur Haustür des Kunden einläutet. Mit Amazon Fresh, dem Frischdienst für Lebensmittel, läuft bereits der erste Service, der auf externe Logistikdienstleister verzichtet und Ware direkt aus den grünen Lieferwagen mit dem Amazon-Smiley (oder dem Pfeil von A nach Z) vor die Tür stellt. Und in SF, LA und NY kommen in diesen Tagen auch klassische Amazon-Pakete über Amazon-Dienste an den Kunden.

Und die Branche tut, als wäre sie überrascht! Dabei ist nichts ist naheliegender, als dass Amazon weiter an der kreuzweisen Eroberung seines Marktes arbeitet.

Horizontal werden weitere Produkte ins Programm genommen. Längst ist Amazon auch die Verkaufsplattform für private Anbieter, die damit neben der Auktionsplattform eBay einen weiteren Vertriebskanal für den Ramsch vom Dachboden haben. Längst sind mit Amazon Web Services auch Infrastrukturangebote im Internet vorhanden. Man kann inzwischen Wetten darauf abschließen, wann Amazon auch Dienstleistungen ins Programm nimmt. Es wird deutlich: Amazon sucht jene Produkte, die kein zusätzliches logistisches Kopfzerbrechen bereiten.

Und gleichzeitig bosselt Amazon an der Optimierung der logistischen Prozesse. Medienwirksam wird da die Idee der Auslieferung per Drohne ins Spiel gebracht. Rechtswirksam wird da schon mal das Patent auf „Auslieferung vor Bestellung“ reklamiert. Praktisch wirksam sind da Angebote wie „Prime Pantry“, bei denen Kunden solange zukaufen, bis das normierte Paket voll ist. Retourenwirksam ist der Aufbau von Packstationen, an denen Kunden die nicht gewünschte Ware zurückgeben können.

Und da wird es evident, dass Amazon mit einer eigenen Flotte für die letzte Meile nicht nur aus dem Preisdiktat der Carrier ausbrechen will. Es baut zugleich auch eine Flotte auf, die a) gestrandete Drohnen und b) abgelegte Retouren aus den Packstationen zurückholt. Noch „vertikaler integrierter“ geht kaum noch. Und tatsächlich: Hier klingelt bare Münze. 40 Prozent der Frachtkosten sind für Aufwände, die eigentlich vermeidbar wären – Fehlfahrten, Lehrfahrten, Rückrufe. Amazon geht das Problem jetzt an – kreuzweise.

 

Moores Werk und Darwins Beitrag

Lange Zeit schien es, als würden die Naturgesetze für die Cloud nicht gelten. Die Anziehungskraft zum Beispiel, die Cloud Computing auf den Mittelstand ausüben sollte, ist seit Jahren ausgesetzt. Und auch Moores Gesetz, wonach sich die Dichte und damit Komplexität integrierter Schaltkreise alle 18 Monate verdoppelt, schien auf die Rechenleistung aus der Wolke keine Auswirkungen zu haben. Denn eine erste Ableitung aus dem Mooreschen Gesetz ist ja die erlebte Praxis, dass sich im Gegenzug die Kosten für eine und dieselbe Rechenleistung innerhalb dieser 18 Monate halbieren sollten.

Lange Zeit aber schien dieses Gesetz für die Cloud nicht zu gelten – die Infrastrukturleistungen, die aus der Wolke bereitgestellt werden, nahmen zwar kontinuierlich zu: mehr Speicher, mehr Rechenpower, mehr Übertragungsleistung. Aber der Preis für Infrastructure as a Service blieb seit einer halben Dekade erstaunlich stabil. Seit zwei Zyklen sollte Moores Gesetz auf die Kosten keinen Einfluss gehabt haben?

Doch. Seit 2013 herrscht gerade eine Preisschlacht unter den Anbietern systemnaher Cloud-Services. Nachdem lange Zeit Amazon das Preisdiktat innehatte, hat sich jetzt Google an die Spitze der Abwärtsbewegung gesetzt. Bis zu 40 Prozent weniger zahlen Googles Cloud-Kunden von einem auf den anderen Tag – und Amazon, Microsoft, IBM folgen en Suite. Wie eine Börsenkorrektur wurden die Preise praktisch auf das Plateau herabgesenkt, das Gorden Moore ihnen bereitet hatte.

Das ist durchaus eine schlechte Nachricht für jene Anbieter, die ihr margenschwaches Boxengeschäft durch ein attraktiveres Geschäftsmodell mit dem Cloud Computing ersetzen wollen – IBM zum Beispiel. Jetzt müssen es doch (nur) die Economies of Scale bringen, nach denen der Betrieb eines Rechenzentrums für viele kostengünstiger operieren kann, als viele Rechenzentren für jeweils einen.

Das ist aber auch eine schlechte Nachricht für jene Anbieter, die neben dem Cloud-Geschäft keine echte Cash-Cow außerhalb der Mooreschen Gesetzmäßigkeiten haben – Amazon zum Beispiel, deren margenschwaches Retailgeschäft zwar weltweit dominant ist und so ziemliche alles, was man kaufen kann, abdeckt. Aber der plötzliche (und diesmal nicht selbst angezettelte) Einnahmeverzicht schlägt schon ins Kontor.

Denn die Investitionen in weltweit operierende Service-Rechenzentren gehen mit den steigenden Kundenzahlen und den strenger werdenden legalen Anforderungen erheblich in die Höhe. IBM plant (wie berichtet) den Ausbau seines Dienstleistungsparks auf 40 Zentren und nimmt dafür mehr als eine Milliarde Dollar in die Hand. Microsoft hat im zurückliegenden Jahr insgesamt Investitionen von 4,3 Milliarden Dollar getätigt. Google haute sogar 7,4 Milliarden Dollar raus. Bei Amazon waren es 3,4 Milliarden Dollar. Obwohl es dank des Mooreschen Verdopplungsszenarios mehr „Bang for the Buck“ gibt, haben sich diese Investitionen in den letzten fünf Jahren praktisch verzehnfacht.

Bilanzgewinn ist nicht das Ziel im Preiskrieg, sondern Landgewinn. Es geht darum, die wachsenden Kapazitäten so schnell wie möglich auszulasten und Marktanteile überall dort hinzuzugewinnen, wo sich Nachfrage auftut – in den Industrieländern ebenso wie in den Schwellenländern wie in den unentwickelten Ländern. Denn für jede dieser Wirtschaftsregionen hat die Cloud ein eigenes Heilsversprechen: mehr Flexibilität hier, mehr Wachstum da und überhaupt Rechenleistung für alle dort.

Außerdem aber gilt es, das Terrain vorzubereiten für die wahre Königsdisziplin des Cloud Computings – die Bereitstellung von Software und Services, für Anwendungen und Analysen, für die denn auch stabilere Preise erzielt werden können. Google hat ebenso eine Office Suite im Angebot wie Microsoft – und beide wollen die Plattformen, von denen diese Cloud-Services genutzt werden, zur ubiquitären Wolkenwelt ausbauen. Apple und wiederum Google haben das gleiche Ziel auch mit Blick auf ihre App-Stores, in denen Milliarden von Kleindownloads das Geschäft stärken. Und IBM wie auch SAP verbreiten sich in der Wolke, um ihren Großkunden die Plattform der Zukunft zu bereiten. Oracle kündigt diesen Schritt für den Sommer 2014 an.

So schön diese Entwicklung für den Anwender ist, der sich nunmehr über stetig wachsende Rechenleistung bei kontinuierlich sinkenden Preisen freuen kann. Er kann seine Ressourcen für andere, mehr das eigene Geschäft betreffende Aktivitäten nutzen – und damit ein Versprechen der Cloud-Marketiers einlösen. So gefährlich ist das Spiel für die Anbieter, die immer höhere Investitionen bei sinkenden Margen nur mit mehr Effizienz kompensieren können. Der Markt freilich ist beliebig groß und angesichts von Mehrfachnutzern nicht einmal durch die Zahl der Weltbevölkerung begrenzt. Aber am Ende führt Moores Gesetz doch zu einem weiteren, noch mächtigeren Naturgesetz: Darwins „Survival of the Fittest“. Kann sein, dass wir uns erst im Mesozoikum des Cloud-Zeitalters befinden, wo Größe und nicht Hirn alles zählte. Aber dann kommen die Säuger der zweiten Cloud-Generation…