Welche Plattform hätten´s denn gern?

Ich bin ein echtes Nachkriegskind – am 9. Mai 1945 geboren. (Ich teile diesen Geburtstag übrigens mit Drafi Deutscher.) Ich habe sozusagen gewartet, bis „die Luft rein“ ist, ehe ich mich auf diese Welt begeben habe. Seitdem aber gehe ich kaum einem Streit aus dem Weg…

Als ich mit 35 Jahren mein Unternehmen gründete, die GUS Group, die sich auf Unternehmenslösungen für die Prozessindustrie und die Logistik spezialisiert hat, ahnten wir kaum, was für eine Revolution mit der Digitalisierung des persönlichen Arbeitsplatzes losgetreten werden würde. Statt Personal Computing war für mich vor allem die sogenannte Mittlere Datentechnik das Szenario, auf das sich mein Startup gründen sollte. Und damit landete die Company inmitten eines erbitterten Stellungskriegs zwischen unterschiedlichsten Hardwareplattformen: hier die IBM /3x-Familie, dort die Nixdorf 8870 gerade oder ungerade, daneben Siemens und andere zur IBM 4300 steckerkompatible Systeme. Wir hatten uns allen Plattformen gleichermaßen verschworen und wurden zwischen ihnen aufgerieben, weil wir die Software dafür parallel und unabhängig voneinander entwickeln mussten. Ein Kraftakt, von dem wir uns beinahe nicht erholt hätten…

Kaum hatten wir jedoch mit der IBM AS/400 zum Ende der achtziger Jahre ein halbwegs sicheres Fahrwasser gefunden (und als erster Mittelstandspartner der IBM in Europa eine kooperative Marketingstrategie erfunden), hatte der Personal Computer die Ära des Client/Server-Computings eingeläutet, die uns erneut dazu zwang, eine Plattform-Entscheidung zu treffen.

Doch als sich in diesem Stellungskrieg der Staub gelichtet hatte, war schon längst das – zunächst belächelte – World Wide Web als Plattform der Zukunft aus dem Nebel aufgetaucht. Wir adaptierten auch diese neue Welt, indem wir vor jede Lösung ein kleines „e“ hängten. Da viele glaubten, mit dem vorgehängten „e“ sei die neue Plattform bereits erreicht, stürzten sie in die größte Spekulationsblase der Nachkriegsgeschichte.

Heute suchen wir die richtige Plattform in der Cloud. Sie wird nicht mehr durch Hardware geformt, nicht mehr durch eine Software-Architektur definiert, sondern durch ein Geschäftsmodell bestimmt. Die Plattform ist – bei aller Technik, die zu ihrer Verwirklichung notwendig ist – vor allem eine Idee. Eine Plattform in der Cloud kann Infrastruktur oder Software als Service anbieten. Sie kann aber auch Gelegenheiten, Kontakte, Wertschöpfungsketten oder ganz allgemein Ressourcen bereitstellen: Facebook, die größte News-Seite der Welt, produziert keine Inhalte. Uber, das weltweit größte Taxi-Unternehmen, besitzt keine Fahrzeuge. AirBnB, dem größten Bettenvermieter der Welt, gehört kein Hotel und Alibaba, der wertvollste Händler der Welt, besitzt kein Lager.

Oder auch: Apple, der Betreiber des größten App-Stores der Welt, produziert kaum eigene Software. Die Diskussionen auf Microsofts Entwickler-Konferenz Build deuten in die gleiche Richtung. Die Software, die die Plattformen Windows10 und Azure erfolgreich machen soll, kommt nicht von Microsoft, sondern von Unternehmen, die derzeit vielleicht noch nicht einmal gegründet worden sind. IBM tauscht nicht nur sein Vertriebsteam, sondern auch seine Unabhängigen Softwarepartner im großen Stil aus. Und eine der größten Cloud-Plattformen überhaupt – Salesforce.com – steht plötzlich zum Verkauf.

Heute ist mein Unternehmen so alt wie ich war, als ich es gründete: 35 Jahre. In diesen dreieinhalb Jahrzehnten haben wir ein knappes Dutzend Plattform-Entscheidungen zu treffen gehabt. Und wir stehen erneut vor der vieles entscheidenden Frage: Welcher Partner bietet die richtige Grundlage für unser künftiges Kerngeschäft?

Wie alle Software-Anbieter im industriellen Umfeld werden wir diese Entscheidung gleich mit der nächsten Plattform-Wahl zusammenlegen müssen: Welche Cloud-Strategie ist die richtige, wenn der Mittelstand in den nächsten Jahren im großen Stil in die Digitalisierung der Fertigungswelten investiert. Sind die bestehenden Cloud-Plattformen auch die richtige Basis für „Industrie 4.0“?

Und auch die übernächste Plattform-Frage wird sich stellen: Welches soziale Netz bietet die richtige Plattform für ein kundengetriebenes Geschäftsmodell? Sollen wir das Firmengeschick der Spaßgesellschaft unter Facebook, den Interessenskreisen von Google+ oder den Berufs- und Karriere-Plattformen anvertrauen?

Je mehr sich die Dinge ändern, umso mehr bleiben sie gleich: Die Gründungsphase meines Unternehmens und vieler anderer Softwarehäuser, die sich der Mittleren Datentechnik verschrieben hatten, war geprägt von plattformbezogenen Richtungsentscheidungen. Das ist heute keineswegs anders: „Welche Plattform hätten´s denn gern“ ist die ewige Gretchenfrage der Informationswirtschaft. Ich erlebe sie mit 70 als genauso spannend wie mit 35.

Build Dir Deine Meinung

Es hat schon etwas vom absurden Theater:  Auf dem Höhepunkt der Build-Entwicklerkonferenz, die Microsoft letzte Woche in San Francisco abhielt, schlug die Nachricht ein wie eine Bombe. Salesforce.com, mit 16 Prozent Anteil größter Anbieter im Markt mit Software für das Customer Relationship Management, kündigte an, dass ein interessantes Übernahmeangebot eingetroffen sei, das nun mit Hilfe von Banken und Beratern geprüft werde. Es war ein Querschuss aus der direkten Nachbarschaft: Das Salesforce-Hauptquartier und Microsofts Tagungszentrum trennen nur wenige Meter Luftlinie.

Mehr wurde nicht angekündigt. Aber plötzlich legten die Kommentatoren und Analysten auf der Build ihre HoloLens weg, vergaßen die Werbebotschaften rund um Apps für Windows 10 und blickten stattdessen in die Kristallkugel: Wer mag der Käufer sein, der kolportierte 40 Milliarden Dollar hinblättern will für eines der am stärksten wachsenden Unternehmen im Softwaremarkt. Es traten die bewährten Verdächtigen auf: IBM, Microsoft, SAP, Oracle und vielleicht sogar Google.

Denn klar ist, dass wer im 20-Milliarden-Dollar-Markt der Vertriebssoftware die Nummer eins sein will, muss Salesforce (zumindest teilweise) wegkaufen. Und klar ist auch, dass Salesforce es verstanden hat, aus seinem Lösungsangebot eine Cloud-Platform zu machen, auf der Entwickler und Anwender Anreize erhalten, eigene Apps zur Anreicherung der CRM-Suite zu schreiben. Und klar ist auch, dass Salesforce ein Lösungsportfolio anbietet, das vom Desktop über das Tablet bis zum Smartphone reicht.

Alles das sind Leistungsversprechen, die Microsofts CEO Satya Nadella jetzt auf der Build mit Windows 10 erst in Aussicht gestellt hat. Seine Message war einfach – wenn auch nicht so schweißtreibend wie seinerzeit bei Steve Ballmer: Wir brauchen Entwickler, die uns mit wertigen, überzeugenden Apps ausstatten. Dafür liefert Microsoft endlich, endlich ein Konvertierungstool,  mit dem iOS- oder Android-Apps auf Windows 10 portiert werden können. Und ist man erst einmal da, steht die ganze Hardware-Welt offen. Vom Desktop bis zur Xbox.

Da will man es fast nicht glauben, dass ausgerechnet Microsoft der Mystery-Käufer sein sollte, der nebenan bei Salesforce ein Angebot vorgelegt hat. Satya Nadella ist gut beraten, wenn sein Wahlspruch „Cloud First, Microsoft First“ auch bedeutet: erst mal Microsofts eigene Probleme lösen, ehe man sich einen solchen Integrationsbrocken ans Bein bindet.

Auch SAP hat bereits abgewinkt. Zwar gab es schon Gespräche zwischen den beiden Unternehmen, zwar ließ Marc Benioff lange Zeit keine Gelegenheit aus, die Überlegenheit von Salesforce gegenüber der SAP-Architektur zu betonen. Aber deshalb jetzt ein weiteres Milliarden-Abenteuer eingehen?

Oder IBM. Die Company setzt gerade alles auf Watson und arbeitet an ihrer eigenen Reorganisation. Der Kauf von Salesforce wäre eine Verzweiflungstat. Und nur, weil man das Geld hat, klingt das nicht wirklich plausibel.

Bleibt Oracle, um die es in den vergangenen Monaten verdächtig ruhig geworden ist. Der Weggang Marc Benioffs aus dem direkten Umfeld von Firmenchef Larry Ellison könnte eine schwärende Wunde hinterlassen haben, die mit einem Wahnsinnskauf geheilt werden könnte. Und in der Tat würde Salesforce und die erschütternd gut gelaunte Führungscrew zur Oracle-Kultur passen.

Fest steht, dass Benioff Nadella die Show gestohlen hat. Ob das mehr war als ein Feuerwerk am Himmel über San Francisco werden uns die Banken und Berater erzählen. Fassen wir uns in Geduld – und: Builden wir unsere Meinung.

Moore und die Globalisierung

Jedes Kind kennt Einsteins berühmte Formel (E=mc2), aber die Zahl derer, die erklären könnten, was diese Buchstabenkombination tatsächlich bedeutet, ist verschwindend gering (zur persönlichen Weiterbildung hier klicken). Ebenso gering dürfte umgekehrt die Zahl derer sein, die mit der Formel „K(t) = K0 * 2t/T2“ etwas anfangen können. Dafür aber weiß jedes Kind seine Folgen einzuschätzen: die Rechnerleistung verdoppelt sich in etwa alle 18 Monate.

Und in einer ersten Konsequenz bedeutet das: Computer können altern oder zumindest veralten und haben deshalb einen kürzeren Erneuerungszyklus als beispielsweise Autos. Jedes Kind macht irgendwann die Erfahrung, dass es mit einem 18 Monate alten Smartphone in der Schule nicht mehr reüssieren kann!

Einsteins Formel beschreibt ein Naturgesetz. Der Zeitraum, in dem sich die Anzahl der Transistoren auf einem Chip regelmäßig verdoppelt, den Gordon Moore vor einem halben Jahrhundert abschätzte, war und ist nur eine Prophezeiung. Allerdings eine, die sich trotz aller Unkenrufe kontinuierlich bewahrheitet.

Das dürfte auch daran liegen, dass Intel – der Chip-Produzent, den Gordon Moore zusammen mit Robert Noyce 1968 gründete – sich das Mooresche Gesetz als selbsterfüllende Prophezeiung konsequent zur Richtschnur der eigenen Produktplanung gesetzt hat und damit nicht nur sich selbst, sondern auch die Lieferanten unter enormen Entwicklungsdruck stellt. Davon hat bekanntlich nicht nur Intel profitiert, sondern eine ganze IT-Industrie – und wenn man so will die gesamte Weltwirtschaft.

Denn so wie Einsteins relativistische Theorie über den Zusammenhang von Energie und Masse die Welt im Innersten zusammenhält, befeuert Moores Gesetz vom ewigen Schrumpfen das globale Wachstum. Ja, es ist überhaupt erst die Geheimformel, die die Globalisierung vorantreibt. Denn ohne die Fähigkeit, unsere Geschäftsabläufe rund um die Erde und rund um die Uhr zu synchronisieren, gibt es keine effizienten globalen Prozesse. Das gilt für den weltweiten Maisanbau ebenso wie für die Digitalisierung der Produktion im Sinne von „Industrie 4.0“.

Der Umkehrschluss wäre wohl nicht übertrieben, wenn man folgert, dass ein Ausbleiben des 18monatigen Verdopplungsprozesses in der Chiptechnologie dazu führen würde, das globale Wachstum einzubremsen, zum Erstarren und zum Erliegen kommen zu lassen. Denn wir streben kontinuierlich nach mehr Effizienz auf der Basis von mehr Erkenntnis. Mehr Daten verlangen mehr Verarbeitung. Mehr Informationen verlangen mehr Kommunikation.

Gut, dass mit der Verdopplung in der Leistung auch ein Verfall bei den Kosten einhergeht. Der Supercomputer Cray-1 aus dem Jahr 1975 leistete (damals) schwindelerregende 80 Millionen Gleitkommaoperationen pro Sekunde (Megaflops). Die Grafikeinheit in einem schon gar nicht mehr top-aktuellen iPhone 5S leistet fast 1000mal so viel. Als Deep Blue 1997 Gary Kasparow im Schachturnier schlug, konnte er mit 11,4 Gigaflops rund 200 Spielzüge pro Sekunde analysieren. Der Tablet-Chip Tegra K1 in Googles Nexus 9 schafft es auf fast 400 Gigaflops. Und was machen wir damit? Daddeln, Texten, Quatschen.

Andererseits allokieren die großen Cloud-Anbieter immer mehr Rechenpower in ihren Data Centern rund um die Erde. Sie werden – ob durch Cloud oder Mobile, ob durch Big Data oder Social Media befeuert – das neue Rückgrat der Globalisierung. Wir sollten vielleicht die Betrachtungsweise ändern und künftig nicht mehr die Anzahl der Komponenten auf einem Chip zählen, sondern die schiere Rechenleistung, die sich mit immer gigantischeren Rechenzentren zusammenballt.

Als die Cray-1 den legendären Computerfilm Tron animierte, lag diese Rechenleistung in der Hand von wenigen, die sich eine solche Millionen-Investition leisten konnten. Die Rechenleistung der Cloud steht jedem, der sie mieten und nutzen will, zur Verfügung.

Dabei wird die Effizienz durch ein zweites, deutlich unbekannteres Gesetz weiter gesteigert: Das Metcalfesche Gesetz, das in diesem Jahr immerhin 35 Jahre alt wird. Robert Metcalfe, der Erfinder des Ethernets und Gründer des Netzwerkspezialisten 3Com, hat 1980 postuliert, dass der Nutzen eines Kommunikationssystems mit der Anzahl der möglichen Verbindungen der Teilnehmer wächst, während die Kosten nur proportional zur Anzahl der Teilnehmer steigen. Also: je mehr im globalen Kommunikationsverkehr teilnehmen, desto ertragreicher ist das für alle. In einer Digitalen Wirtschaft dürfte dieses Gesetz Moores Gesetz längst den Rang abgelaufen haben.

Nur, wo bleibt da der Mensch? Nach Schätzungen ist im Hirn Platz für 2,5 Petabyte. IDC aber schätzt, dass sich die Daten im Internet alle zwei Jahre verdoppeln und im Jahr 2020 40 Zettabyte (eine 4 mit 22 Nullen) an Daten im Web gespeichert sein werden. Unsere Fähigkeit, neue Informationen aufzunehmen, steigt aber nicht annähernd so schnell. Wir werden immer mehr Systeme brauchen, die Daten zu Informationen verdichten und Informationen auswählen. Irgendwann werden wir mit Didi dem Doppelgänger sagen müssen: „Ich brauche weniger Details.“

 

ISV: Immenses Selbst Vertrauen

Was sollen wir nur mit unseren Software-Partnern machen – diese Frage treibt die globalen IT-Companies seit Jahren um. Aus dem langjährigen Erfolgsmodell – einer klassischen Symbiose aus zentralem Angebot und dezentraler Dienstleistung – des Ko-Partnerings ist nämlich inzwischen fast so etwas wie ein Klotz am Bein geworden. Es ist allerdings keineswegs so, dass IBM, Microsoft, Oracle, Infor oder SAP künftig keine Partner mehr benötigen. Das Problem ist nur: Sie brauchen andere.

Denn das Erfolgsmodell – eine klassische symbiotische Beziehung aus zentralem Angebot und dezentraler Dienstleistung – ist inzwischen eher zu einem Wachstumshemmer geworden. Dafür gibt es mehrere Gründe:

–          Die Hersteller von globalen Lösungen bezahlen ihre Partner teuer für reine Installationsleistungen, die schon jetzt einfacher, schneller und vor allem kostengünstiger durch die Cloud erfolgen. Das automatisierte wöchentliche Update kostet zwar den Anwender Zeit, die kann er aber niemanden in Rechnung stellen.

–          Der Zusammenhang von Hardware und Software löst sich auf. Wo gestern noch aufwändige Installationsarbeiten in der IT-Zentrale von Anwenderunternehmen geleistet und bezahlt werden musste, reicht heute der selbstverantwortliche Gang in den nächsten MedienMarkt, um das geeignete Endgerät der Wahl auszuwählen. Der Rest ist Internet und Cloud.

–          Und der Verkauf der globalen Anwendungsarchitekturen, der bislang vor allem im Mittelstand beziehungsweise bei Small and Medium Companies weltweit am erfolgreichsten durch den Partnervertrieb erfolgte, verlangt in einem zunehmend auf Verdrängung ausgerichteten Markt nach neuen Konzepten. Standardsoftware wird gemietet, Individuallösungen werden aus Apps aus einer Mall zusammengestellt.

Der Nachteil all dieser Szenarien: Der regelmäßige Kontakt mit den Kunden geht verloren. Es sei denn, wir verknüpfen Infrastruktur- und Software-Plattformen künftig mit sozialen Medien und organisieren und optimieren auf diese Weise die Kommunikation zwischen Anbieter und Anwender.

Mit ein paar Jahrzehnten Verzögerung stehen die Software-Partner vor derselben Erneuerungswelle, in der die Vertragswerkstätten der Automobilhersteller schon länger ums Überleben kämpfen. Am deutlichsten wird der Strukturwandel am Beispiel der Diagnosesysteme für die Autoelektronik, für die die Werkstätten überteuerte Installationen finanzieren mussten, um dieses Serviceangebot nicht zu verlieren. Doch wahrscheinlich ist, dass auch die Analyse der Autoelektronik künftig in die Cloud wandert – und demnächst vielleicht sogar direkt von der Haustechnik daheim übernommen wird. Der Wandlungsprozess in der Autowerkstatt vollzieht sich nur deshalb schleichend, weil es immer noch Hardware und Physik gibt, an die Hand angelegt werden muss.

Deshalb wird sich der Wandel unter den kleinen und mittelständischen Softwarepartnern eher erdrutschartig vollziehen. Die globalen Anbieter kämpfen um ihre Marge und werden deshalb keine Almosen zur Lebensverlängerung in Form von zweckfreien Marketingbudgets und Vertriebsprovisionen ausschütten. Sie werden stattdessen in die Cloud als Universalplattform für Vertrieb und Betrieb investieren – global und so individuell, wie es der Massenvertrieb zulässt.

Wer in diesem Szenario als ISV, als Independent Software Vendor, überleben will muss über ein Immenses Selbstvertrauen verfügen, weil eine radikale Neuausrichtung ansteht. Denn der Markt der Zukunft liegt für die ISVs in der Individualisierung mit den Methoden des Massenmarkts. Denn auch unter der Cloud werden Anwender ihre Differenzierungspotenziale durch individualisierte Geschäftsprozesse zu verwirklichen suchen. Da benötigen sie globale Angebote, die durch Individuallösungen und Spezialanwendungen ergänzt und kundenindividuell angepasst werden sollen. Das ist und bleibt der Markt der ISVs. Sie werden aber ihre Angebote nicht mehr wie bisher dezentral, sondern zentral über die Plattformen ihrer globalen Partner offerieren. Sie verschwinden also als individueller Anbieter vom Markt und verbergen sich hinter Handelsmarken wie – sagen wir mal – IBM, SAP oder Microsoft. Ob die globalen Anbieter das selbst schon verstanden haben, gehört zu den spannenden Fragen der kommenden Jahre.

In jedem Fall gilt es, die Vergangenheit hinter sich zu lassen – wenn man überhaupt eine hat. Das ist der Grund, warum Unternehmen wie IBM, Microsoft oder SAP heute verstärkt Startups rekrutieren. Sie werden auf der Basis der neuen Geschäftsmodelle gegründet, haben keine Vergangenheit zu bewältigen, kein fehlqualifiziertes Personal, dafür aber Immenses Selbst Vertrauen.