bonnblog.eu


Moore und die Globalisierung

Jedes Kind kennt Einsteins berühmte Formel (E=mc2), aber die Zahl derer, die erklären könnten, was diese Buchstabenkombination tatsächlich bedeutet, ist verschwindend gering (zur persönlichen Weiterbildung hier klicken). Ebenso gering dürfte umgekehrt die Zahl derer sein, die mit der Formel „K(t) = K0 * 2t/T2“ etwas anfangen können. Dafür aber weiß jedes Kind seine Folgen einzuschätzen: die Rechnerleistung verdoppelt sich in etwa alle 18 Monate.

Und in einer ersten Konsequenz bedeutet das: Computer können altern oder zumindest veralten und haben deshalb einen kürzeren Erneuerungszyklus als beispielsweise Autos. Jedes Kind macht irgendwann die Erfahrung, dass es mit einem 18 Monate alten Smartphone in der Schule nicht mehr reüssieren kann!

Einsteins Formel beschreibt ein Naturgesetz. Der Zeitraum, in dem sich die Anzahl der Transistoren auf einem Chip regelmäßig verdoppelt, den Gordon Moore vor einem halben Jahrhundert abschätzte, war und ist nur eine Prophezeiung. Allerdings eine, die sich trotz aller Unkenrufe kontinuierlich bewahrheitet.

Das dürfte auch daran liegen, dass Intel – der Chip-Produzent, den Gordon Moore zusammen mit Robert Noyce 1968 gründete – sich das Mooresche Gesetz als selbsterfüllende Prophezeiung konsequent zur Richtschnur der eigenen Produktplanung gesetzt hat und damit nicht nur sich selbst, sondern auch die Lieferanten unter enormen Entwicklungsdruck stellt. Davon hat bekanntlich nicht nur Intel profitiert, sondern eine ganze IT-Industrie – und wenn man so will die gesamte Weltwirtschaft.

Denn so wie Einsteins relativistische Theorie über den Zusammenhang von Energie und Masse die Welt im Innersten zusammenhält, befeuert Moores Gesetz vom ewigen Schrumpfen das globale Wachstum. Ja, es ist überhaupt erst die Geheimformel, die die Globalisierung vorantreibt. Denn ohne die Fähigkeit, unsere Geschäftsabläufe rund um die Erde und rund um die Uhr zu synchronisieren, gibt es keine effizienten globalen Prozesse. Das gilt für den weltweiten Maisanbau ebenso wie für die Digitalisierung der Produktion im Sinne von „Industrie 4.0“.

Der Umkehrschluss wäre wohl nicht übertrieben, wenn man folgert, dass ein Ausbleiben des 18monatigen Verdopplungsprozesses in der Chiptechnologie dazu führen würde, das globale Wachstum einzubremsen, zum Erstarren und zum Erliegen kommen zu lassen. Denn wir streben kontinuierlich nach mehr Effizienz auf der Basis von mehr Erkenntnis. Mehr Daten verlangen mehr Verarbeitung. Mehr Informationen verlangen mehr Kommunikation.

Gut, dass mit der Verdopplung in der Leistung auch ein Verfall bei den Kosten einhergeht. Der Supercomputer Cray-1 aus dem Jahr 1975 leistete (damals) schwindelerregende 80 Millionen Gleitkommaoperationen pro Sekunde (Megaflops). Die Grafikeinheit in einem schon gar nicht mehr top-aktuellen iPhone 5S leistet fast 1000mal so viel. Als Deep Blue 1997 Gary Kasparow im Schachturnier schlug, konnte er mit 11,4 Gigaflops rund 200 Spielzüge pro Sekunde analysieren. Der Tablet-Chip Tegra K1 in Googles Nexus 9 schafft es auf fast 400 Gigaflops. Und was machen wir damit? Daddeln, Texten, Quatschen.

Andererseits allokieren die großen Cloud-Anbieter immer mehr Rechenpower in ihren Data Centern rund um die Erde. Sie werden – ob durch Cloud oder Mobile, ob durch Big Data oder Social Media befeuert – das neue Rückgrat der Globalisierung. Wir sollten vielleicht die Betrachtungsweise ändern und künftig nicht mehr die Anzahl der Komponenten auf einem Chip zählen, sondern die schiere Rechenleistung, die sich mit immer gigantischeren Rechenzentren zusammenballt.

Als die Cray-1 den legendären Computerfilm Tron animierte, lag diese Rechenleistung in der Hand von wenigen, die sich eine solche Millionen-Investition leisten konnten. Die Rechenleistung der Cloud steht jedem, der sie mieten und nutzen will, zur Verfügung.

Dabei wird die Effizienz durch ein zweites, deutlich unbekannteres Gesetz weiter gesteigert: Das Metcalfesche Gesetz, das in diesem Jahr immerhin 35 Jahre alt wird. Robert Metcalfe, der Erfinder des Ethernets und Gründer des Netzwerkspezialisten 3Com, hat 1980 postuliert, dass der Nutzen eines Kommunikationssystems mit der Anzahl der möglichen Verbindungen der Teilnehmer wächst, während die Kosten nur proportional zur Anzahl der Teilnehmer steigen. Also: je mehr im globalen Kommunikationsverkehr teilnehmen, desto ertragreicher ist das für alle. In einer Digitalen Wirtschaft dürfte dieses Gesetz Moores Gesetz längst den Rang abgelaufen haben.

Nur, wo bleibt da der Mensch? Nach Schätzungen ist im Hirn Platz für 2,5 Petabyte. IDC aber schätzt, dass sich die Daten im Internet alle zwei Jahre verdoppeln und im Jahr 2020 40 Zettabyte (eine 4 mit 22 Nullen) an Daten im Web gespeichert sein werden. Unsere Fähigkeit, neue Informationen aufzunehmen, steigt aber nicht annähernd so schnell. Wir werden immer mehr Systeme brauchen, die Daten zu Informationen verdichten und Informationen auswählen. Irgendwann werden wir mit Didi dem Doppelgänger sagen müssen: “Ich brauche weniger Details.”

 

Industrie 4.3

Bereits zum dritten Mal steht die Hannover Messe ganz im Zeichen der Digitalisierung und der vernetzten Fertigung, mit der die vierte industrielle Revolution losgetreten werden soll. Mal abgesehen davon, dass das Schlagwort von der „Industrie 4.0“ auch bei der dritten Aufführung nicht griffiger, nicht mitreißender wird und inzwischen ähnlich abgenutzt klingt wie der Begriff vom „Internet der Dinge“: es braucht halt mal wieder so lange, bis aus einer Vision eine Mission wird und sich daraus eine Aktion ergibt.

Aber so ist das nun mal mit den Elefantenschwangerschaften. Und dass Industrie 4.0 ein ganz dickes Ding ist, das bestätigen unisono Bundeskanzlerin Angela Merkel, EU-Kommissar Günther Oettinger und Bundeswirtschaftsminister Sigmar Gabriel, der dem Handelsblatt  nicht nur vorrechnete, dass „Hunderttausende neue Arbeitsplätze“ entstehen können, sondern auch postulierte: „Ein Plus von mehr als 250 Milliarden Euro an Wertschöpfung ist in den nächsten zehn Jahren möglich.“

Was sind da schon drei Jahre fürs Anlauf-Nehmen? Dass auch gesprungen wird, glauben drei Viertel der vom VDE befragten Mitgliedsunternehmen aus der Elektronik, Elektrotechnik und Informationstechnik: Die intelligente Fabrik seit spätestens 2025 Realität. Immerhin befänden sich bereits 70 Prozent der Befragten in einer Analysephase, während schon jeder dritte ein konkretes Projekt in Angriff genommen hat. Ähnlich positiv sieht der Hightech-Verband Bitkom die Lage. Von 100 befragten Unternehmen hat in dessen Studie jedes vierte ein konkretes Projekt am Laufen.

Das Problem ist nur: beide Studien befragen Unternehmen mit höchster Affinität zur Digitalisierung. Sie könnten sozusagen die Speerspitze der Industrie-4.0-Bewegung bilden. Ob aber tatsächlich nach zehn Jahren auch schon die breite Masse an mittelständischen Fertigungsunternehmen nach „Digitalien“ aufgebrochen sein wird, darf dennoch getrost bezweifelt werden. Auch wenn die Einführungsphasen neuer Technologien immer kürzer werden. Aus kaufmännischer Sicht müssen die alten Maschinen immer noch erst einmal abgeschrieben sein und einen Return on Invest erarbeitet haben, ehe Schichtwechsel im Maschinenpark herrscht. Jeder vierte vom VDE Befragte fürchtet, dass die deutsche Industrie zu lange an klassischen Produktionsmethoden festhalten wird.

Kein Wunder, dass hier und da auf der Hannover Messe die Rufe nach mehr Anreizen für Investitionen durch die Politik lauter wird. Zwar sehen sich Automobilbau und Maschinenbau ebenfalls ganz vorne beim Weg ins Digitale Fertigungszeitalter. Aber mehr Rechtssicherheit aus Berlin und Brüssel gerade dort, wo Unternehmensgeheimnisse und operative Daten in die Cloud wandern, wäre schon gut, heißt es beim VDMA. Denn die Furcht vor Spionage, Piraterie und Plagiaten wächst – auch bei den Maschinenbauern, die sich immer stärker einem unlauteren Wettbewerb durch nachgemachte Ersatzteile ausgesetzt sehen. Und auch die VDE-Studie bestätigt: Sieben von zehn Befragten sehen in der nicht gegebenen IT-Sicherheit die größten Hemmnisse.

Und gleichzeitig bleibt die Politik auch bei der Bereitstellung der nötigen Infrastruktur in der Bringschuld. Für die Umsetzung der Digitalen Agenda nimmt die Bundesregierung trotz dreier zuständiger Bundesminister ähnlich lange Anlauf wie die Wirtschaft für die Umsetzung von Industrie 4.0. Da nehmen die Argumente zum Teil schon absurde Formen an, wenn es einerseits heißt, die Zukunft des Industriestandorts Deutschland hinge von diesen Maßnahmen ab, andererseits aber jeder jeden anguckt und die Schultern zuckt: Fangt ihr schon mal an.

Nach der VDE-Studie glaubte vor zwei Jahren noch mehr als die Hälfte der Befragten, dass Deutschland zum Leitanbieter für Industrie 4.0 wird. Jetzt sind es nur noch 40 Prozent. Einer der Sündenböcke für die leichtsinnige Aufgabe von weltwirtschaftlichen Führungspositionen wird dabei in falschen Forschungsimpulsen gesehen. Die Automobilindustrie klagt, dass Deutschland zu lange kein Interesse an modernen Batterien hatte, die jetzt auf dem Weg zur Elektromobilität dringend benötigt werden. Und der Maschinenbau klagt ebenso wie die Elektronik-Industrie, dass viel zu wenig in die Weiterentwicklung Cyber Physical Systems investiert wird. Sie sind es, die das Internet der Dinge überhaupt erst mit Daten und Erkenntnissen füttern und damit die vierte industrielle Revolution mit Leben füllen.

Doch die beklagenswerten Versäumnisse von gestern rechtfertigen nicht die Unterlassungen von morgen. Politik und Wirtschaft sollten nicht jeweils auf den anderen zeigen, wenn es darum geht, Schub zu erzeugen. Sonst wird „Made in Germany“ ein nostalgischer Begriff, der auf der Hannover Messe bereits abgelöst wird durch den Slogan des Gastlandes: „Make in India“.

Das Fest der guten Ratschläge

Abgelegt unter Allgemein,Cloud,Microsoft,Mobile Internet,Smartphones,Windows by hpbonn am 07. April 2015

Wenn man „nullt“ stellen sich nicht nur die Gratulanten ein, sondern auch die ungebetenen Spender guter Ratschläge für das weitere Fortkommen: abspecken, agiler werden, gelassener werden – das sind so die Klassiker, die man dann zu hören bekommt. Und offensichtlich gilt das auch für Organisationen und Unternehmen, wie man jetzt an den zahllosen Beiträgen zum 40sten Firmenjubiläum der Microsoft Corp. sehen kann. Die meisten begnügen sich nicht einfach nur mit einer Widergabe der Leistungen und Lösungen, die eines der revolutionärsten Unternehmen der Wirtschaftsgeschichte vollbracht hat. Sie müssen Satya Nadella auch im Detail erklären, was er tun und lassen soll, wenn seine Company auch nur die nächsten zehn Jahre erleben soll. Der MS-CEO könnte eine ganze Woche damit verbringen, die Mails, Blogs, Kommentare und Analysen abzuheften, die Microsoft jetzt den Weg in die Cloud weisen.

Dabei handelt es sich längst um einen No-Brainer, dass Microsofts Zukunft – und die der ganzen Informationswirtschaft – in der Kombination aus Mobile und Cloud Computing liegt. Spannender ist die Frage, wie man beim Marsch in die Wolke seine Unterscheidungsmerkmale behält Und es ist durchaus viel verlangt von einer Organisation, entgegen der eigenen DNA, gegen die Unique Selling Preposition zu agieren. Das aber steht derzeit auf dem Maßnahmenplan ganz oben: nicht nur für Microsoft, sondern für praktisch alle Global IT-Player. Ihre großen Integrationsleistungen werden nämlich durch das Wolken-Paradigma verdeckt. Sie werden zwar noch immer dringend benötigt und ohne sie würde nichts in der Cloud funktionieren – aber es interessiert den mobilen Smartphone-Nutzer nicht mehr, warum seine App funktioniert.

Dass das in Redmond auch so gesehen wird – oder zumindest in gewissen Zirkeln diskutiert wird – zeigt der Hinweis von Mark Russinovich, der als Microsoft Technical Fellow geradezu dazu aufgerufen ist, das Undenkbare auszusprechen: Man könne, sagte er unlängst, vielleicht sogar das Betriebssystem Windows als Open Source zur Verfügung stellen. Das wäre ein noch deutlicherer Schritt als die Überlegung, Microsoft-Produkte auch anderen Betriebssystemen wie iOS oder Android zu öffnen. So unwahrscheinlich ein solcher Schritt in der nächsten Zeit wäre, so fundamental wäre der Move für die Marketing-Maschine Microsoft, die hinter jeder proprietären (aber wegen der Marktdominanz doch zum Weltstandard zählenden) Lösung eine Cash Cow verbirgt. Wie sehr Microsoft in diesem lange Zeit durchaus sinnvollen Geschäftsmodell steckt, beweist die aktuelle Lizenzpolitik zum SQL Server.

Aber die mobile, durch die Cloud bestückte Computerwelt funktioniert nicht mehr (oder demnächst nicht mehr) nach dem Lizenzmodell, sondern nach dem Pay-per-Use-Prinzip. Das sollten beste Voraussetzungen für Microsoft sein, sollte man denken, denn die Office-Lösungen zählen unzweifelhaft zu den meistgenutzten und meistverbreiteten Anwendungen auf diesem Globus. Aber sie verdanken ihre Marktbeherrschung nicht den zahllosen Klicks auf den mobilen Endgeräten, sondern dem alten Marketing-Modell des Bundlings. Und die Paketierung von Hardware, Systemsoftware und Anwendungssoftware funktioniert in der Cloud einfach nicht mehr.

Derzeit allerdings sieht es eher so aus, als wollte Microsoft die Mittel des Produkt-Bundlings revolutionieren – mit Azure als Plattform und Office 365 als Anwendungssuite. Die Strategie erinnert ein wenig an den Parforce-Ritt ins Internet Mitte der neunziger Jahre. Damals stampfte die Company den Internet Explorer aus dem Boden, um verlorengegebenes Terrain zurückzugewinnen. Da konnte nur gelingen, weil der Browser eng ans Betriebssystem gekoppelt war.

Die Company hat durchaus alle Chancen, sich mit dieser Methode in der Cloud-Spitzengruppe festzusetzen. Nur: Der Preis für diese Vorrangstellung könnte sehr hoch sein, weil die Marge in der Cloud eben nicht mehr sehr hoch sein wird. Die Microsoft-Organisation ist aber in den Jahren der glücklichen Cash Cows selbst zu fettleibig geworden, um jetzt mit der Cloud-Diät über die Runden zu kommen.

Also doch: abspecken, agiler und gelassener werden! Oops, Microsoft, jetzt haben wir doch ungefragt gute Ratschläge gegeben. Sorry und trotzdem: Happy Anniversary.

ISV: Immenses Selbst Vertrauen

Abgelegt unter Allgemein,Cloud,IBM,ISVs,Microsoft,Oracle,SAP by hpbonn am 30. März 2015

Was sollen wir nur mit unseren Software-Partnern machen – diese Frage treibt die globalen IT-Companies seit Jahren um. Aus dem langjährigen Erfolgsmodell – einer klassischen Symbiose aus zentralem Angebot und dezentraler Dienstleistung – des Ko-Partnerings ist nämlich inzwischen fast so etwas wie ein Klotz am Bein geworden. Es ist allerdings keineswegs so, dass IBM, Microsoft, Oracle, Infor oder SAP künftig keine Partner mehr benötigen. Das Problem ist nur: Sie brauchen andere.

Denn das Erfolgsmodell – eine klassische symbiotische Beziehung aus zentralem Angebot und dezentraler Dienstleistung – ist inzwischen eher zu einem Wachstumshemmer geworden. Dafür gibt es mehrere Gründe:

-          Die Hersteller von globalen Lösungen bezahlen ihre Partner teuer für reine Installationsleistungen, die schon jetzt einfacher, schneller und vor allem kostengünstiger durch die Cloud erfolgen. Das automatisierte wöchentliche Update kostet zwar den Anwender Zeit, die kann er aber niemanden in Rechnung stellen.

-          Der Zusammenhang von Hardware und Software löst sich auf. Wo gestern noch aufwändige Installationsarbeiten in der IT-Zentrale von Anwenderunternehmen geleistet und bezahlt werden musste, reicht heute der selbstverantwortliche Gang in den nächsten MedienMarkt, um das geeignete Endgerät der Wahl auszuwählen. Der Rest ist Internet und Cloud.

-          Und der Verkauf der globalen Anwendungsarchitekturen, der bislang vor allem im Mittelstand beziehungsweise bei Small and Medium Companies weltweit am erfolgreichsten durch den Partnervertrieb erfolgte, verlangt in einem zunehmend auf Verdrängung ausgerichteten Markt nach neuen Konzepten. Standardsoftware wird gemietet, Individuallösungen werden aus Apps aus einer Mall zusammengestellt.

Der Nachteil all dieser Szenarien: Der regelmäßige Kontakt mit den Kunden geht verloren. Es sei denn, wir verknüpfen Infrastruktur- und Software-Plattformen künftig mit sozialen Medien und organisieren und optimieren auf diese Weise die Kommunikation zwischen Anbieter und Anwender.

Mit ein paar Jahrzehnten Verzögerung stehen die Software-Partner vor derselben Erneuerungswelle, in der die Vertragswerkstätten der Automobilhersteller schon länger ums Überleben kämpfen. Am deutlichsten wird der Strukturwandel am Beispiel der Diagnosesysteme für die Autoelektronik, für die die Werkstätten überteuerte Installationen finanzieren mussten, um dieses Serviceangebot nicht zu verlieren. Doch wahrscheinlich ist, dass auch die Analyse der Autoelektronik künftig in die Cloud wandert – und demnächst vielleicht sogar direkt von der Haustechnik daheim übernommen wird. Der Wandlungsprozess in der Autowerkstatt vollzieht sich nur deshalb schleichend, weil es immer noch Hardware und Physik gibt, an die Hand angelegt werden muss.

Deshalb wird sich der Wandel unter den kleinen und mittelständischen Softwarepartnern eher erdrutschartig vollziehen. Die globalen Anbieter kämpfen um ihre Marge und werden deshalb keine Almosen zur Lebensverlängerung in Form von zweckfreien Marketingbudgets und Vertriebsprovisionen ausschütten. Sie werden stattdessen in die Cloud als Universalplattform für Vertrieb und Betrieb investieren – global und so individuell, wie es der Massenvertrieb zulässt.

Wer in diesem Szenario als ISV, als Independent Software Vendor, überleben will muss über ein Immenses Selbstvertrauen verfügen, weil eine radikale Neuausrichtung ansteht. Denn der Markt der Zukunft liegt für die ISVs in der Individualisierung mit den Methoden des Massenmarkts. Denn auch unter der Cloud werden Anwender ihre Differenzierungspotenziale durch individualisierte Geschäftsprozesse zu verwirklichen suchen. Da benötigen sie globale Angebote, die durch Individuallösungen und Spezialanwendungen ergänzt und kundenindividuell angepasst werden sollen. Das ist und bleibt der Markt der ISVs. Sie werden aber ihre Angebote nicht mehr wie bisher dezentral, sondern zentral über die Plattformen ihrer globalen Partner offerieren. Sie verschwinden also als individueller Anbieter vom Markt und verbergen sich hinter Handelsmarken wie – sagen wir mal – IBM, SAP oder Microsoft. Ob die globalen Anbieter das selbst schon verstanden haben, gehört zu den spannenden Fragen der kommenden Jahre.

In jedem Fall gilt es, die Vergangenheit hinter sich zu lassen – wenn man überhaupt eine hat. Das ist der Grund, warum Unternehmen wie IBM, Microsoft oder SAP heute verstärkt Startups rekrutieren. Sie werden auf der Basis der neuen Geschäftsmodelle gegründet, haben keine Vergangenheit zu bewältigen, kein fehlqualifiziertes Personal, dafür aber Immenses Selbst Vertrauen.

Neuere Beiträge »