Geschäftsideen 4.0

Es wird viel geplant derzeit auf politischer Ebene. Gleich vier Bundesminister bereiten die Digitale Agenda vor, deren erste Entwürfe allerdings allenfalls ein „ausreichend“ in den Augen der Wirtschaftsexperten erzielt hat. Da tagt der IT-Gipfel in der IHK zu Hamburg – auch wenn die Anreise durch den gerade begonnen Piloten-Streik und den gerade beendeten Lokomotivführer-Streik erschwert bis unmöglich gemacht wird. Und da kündigt der neue Präsident der EU-Kommission, Jean-Claude Juncker, zu Beginn seiner fünfjährigen Amtszeit an, einen europäischen Rechtsrahmen für die digitale Wirtschaft zu schaffen. Seine beiden zuständigen EU-Kommissare, der Este Andrus Ansip (Abbau von Handelsbarrieren im eCommerce) und der Deutsche Günther Oettinger (Zielsetzung: „digitaler Binnenmarkt“) assistieren bereits. Und ins selbe Horn stößt Junckers Pendant, Matteo Renzi, der als Italienischer Ministerpräsident turnusmäßig den Ratsvorsitz innehat: er entwickelt derzeit einen Plan für ein „digitales Europa“, der diese Woche noch vorgestellt werden soll und eine Investitionsoffensive in ganz Europa ankurbeln soll.

Bei so viel politischer Unterstützung könnte einem angst und bange werden. Denn die Erfahrung zeigt bislang: Je mehr politischer Wille auf europäischer Ebene hinter einer technologischen Initiative steht, umso langsamer mahlen die Mühlen in Brüssel und Berlin. Doch diesmal könnte tatsächlich Einmütigkeit zwischen der Politik in den Ländern und der Europäischen Union einerseits und zwischen Politik und Wirtschaft andererseits zu einem großen Durchbruch führen. Denn nichts weniger als das Überleben der Industrie auf dem Alten Kontinent steht auf dem Spiel.

Dies droht nämlich, so befürchten Wirtschaftsverbände und Unternehmensberater, wenn es nicht gelingt, die „digitale Kleinstaaterei“ in der Europäischen Union zu überwinden. Nationale Alleingänge seien dabei ebenso wenig förderlich wie das gegenseitige Ausbremsen zur Durchsetzung des kleinsten gemeinsamen Kompromisses. Um nicht „international den Anschluss zu verlieren“, wie beispielsweise BDI-Chef Ulrich Grillo letzte Woche warnte, hat der Bundesverband der deutschen Industrie jetzt die Consultants von Roland Berger eingeladen, ein Zukunftskonzept zur Vernetzung von Maschinen in der Produktion – bekannt unter dem Stichwort „Industrie 4.0“ – zu erstellen.

Ziel ist es dabei nicht nur, technische und rechtliche Rahmenbedingungen zu schaffen, sondern auch bei der kreativen Umsetzung der neuen Möglichkeiten im „Internet der Maschinen und der Dinge“ europaweit voranzukommen. Neue Geschäftsideen braucht der Kontinent – und den Mut, alte Zöpfe bei der Gelegenheit abzuschneiden.

Nirgends wird die Problematik derzeit deutlicher als in der Debatte um den Mitfahrdienst Uber, über den man privat Autos und Fahrer anheuern kann. Das auf bessere Auslastung leerer Autos zielende Konzept greift tief in die überkommenen Monopolstrukturen des Taxigewerbes ein. Der Widerstand ist folglich groß. Aber genauso erzeugen gegenwärtig überall im Wirtschaftsgeschehen disruptive Technologien neue Geschäftsmodelle, die bestehende Verkrustungen erst erkennbar und dann überflüssig machen.

Den damit verbundenen Wandlungsprozess will Europa jetzt im Gemeinschaftsgang vorantreiben, um den Alten Kontinent besser gegen das Technologiediktat aus den USA und immer deutlich spürbar auch aus dem asiatisch-pazifischen Raum zu wappnen. So könnte die Initiative ein „Wirtschaftswunder 4.0“ lostreten. EU-Kommissar Andrus Ansip erhofft sich ein zusätzliches jährliches Wachstum um 1,7 Prozentpunkte pro Jahr.

Doch die Realität sieht (noch) anders aus: 2010 wurden in der EU gut 40 Milliarden Euro für digitale Dienstleistungen ausgegeben – mehr als in den USA. 2014 überschreiten die Vereinigten Staaten die 70-Milliarden-Euro-Marke, während in der EU die Ausgaben lediglich auf 50 Milliarden Euro gestiegen sind. In den USA, so wird offenkundig, wächst nicht nur die Nachfrage schneller, sondern entwickeln sich auch neue Angebote vielfältiger und bunter als hierzulande.

Noch hat die Industrie in Europa die Nase vorn. Was sie braucht, sind neue Geschäftsideen – und die dazu passenden Rahmenbedingungen.

Unsichtbare Analytik im digitalen Dunkel

Schärfer konnten die Gegensätze nicht sein:

Einerseits: „Der Kern der wirtschaftlichen und sozialen Herausforderungen unserer Zeit“ liegt darin, warnt Jaron Lanier, „dass Computer so tun, als wäre Statistik eine adäquate Beschreibung der Realität.“ Der Internet-Aktivist forderte in seiner Dankesrede zur Verleihung des Friedenspreises des Deutschen Buchhandels einen technologischen Neuansatz, der nicht nur die Leistung und Effektivität, sondern vor allem auch die Würde der Anwender stärkt. Das aber sei in der Welt der „Algorithmen und Cloud-Connectivity“ derzeit nicht gegeben…

Andererseits: Nahezu zeitgleich und eine Viertel Erddrehung weiter westlich verkündete die Gartner Group in ihrem jährlichen Hochamt, dem Gartner Symposium  IT/Expo im floridanischen Orlando, jene zehn Trends der Informationstechnik, die die Welt im Jahr 2015 verändern werden. Und tatsächlich haben diese zehn Angebote, richtig falsch angewendet, jedes für sich das Potenzial für einen Angriff auf die Würde des Menschen. Der Mensch als Trend-User soll, laut Gartner, vor allem investieren und dann funktionieren.

Und das sind die „zehn Angebote“:

Computing Everywhere: Smartphones und mobile Geräte sind Teil der erweiterten IT-Infrastruktur und verbinden die private Umgebung und den Arbeitsplatz mit dem öffentlichen Raum. Damit aber verliert das IT-Management zugleich die Kontrolle über das Gesamtsystem.

Internet of Things: Wenn nicht nur Maschinen und Waren, sondern auch Dienstleistungen, Personen, Orte oder Systeme digitalisiert werden, entstehen neue Geschäftsmodelle für Unternehmen.

3D-Druck: Verbesserte Designs, beschleunigte Produktentwicklung und verkürzte Fertigungsprozesse werden das Ergebnis eines weitergehenden Einsatzes von 3D-Druckern sein, die sowohl im industriellen Umfeld als auch in der Medizin und im privaten Verbrauch genutzt werden.

Unsichtbare Analytik: Jede App wird zugleich auch ein Analysewerkzeug, weil die Digitalisierung der Dinge und Prozesse eine Datenflut erzeugt, die der Auswertung bedarf – filtern, kumulieren, extrahieren und bereitstellen.

Kontextsensitive Maschinen: Die allgemeine Verfügbarkeit von analytischen Informationen führt dazu, dass mobile Endgeräte und Maschinen immer individueller auf den situativen Kontext reagieren und zum Beispiel nur die in einer gegebenen Situation relevanten Informationen beisteuern.

Smarte Maschinen: Wenn Maschinen auf ihren Kontext reagieren können, können sie – wie zum Beispiel autonome Fahrsysteme oder Roboter – selbständig agieren.

Cloud/Client-Computing: Das Zusammenwachsen von Cloud- und mobilem Computing  führt zu zentral gesteuerten, individuell genutzten Services. Die Infrastruktur kann elastisch auf Veränderungen in der Nachfrage reagieren.

Dynamische Software-Modelle: Agile Programmiertechniken sind entscheidend, um bei sich ständig änderndem Nutzerverhalten und Anwendungen und Infrastrukturen anzupassen.

„Web-Scale“ IT: Das Web ist die Infrastruktur der Wahl auch für global agierende Unternehmen, die sich selbst firmeninterne, aber ubiquitär nutzbare Cloud-Strukturen etablieren.

Risiko-bewusste Sicherheit: Alles in der digitalen Zukunft wird durch Sicherheit definiert. Wie sicher aber sicher ist, bleibt letztlich jeder Organisation und jedem Individuum selbst überlassen. Ein neuer methodischer Ansatz, der Sicherheit, die „gut genug ist“ abwägt, ist deshalb gefordert.

Gartner glaubt, dass diese Trends die Welt im Innersten zusammenhalten.

Doch das „digitale Dunkel“, so Jaron Lanier, droht ebenso.

Ich schlage vor, wir warten erst mal ab – und hoffen auf mehr Details.

 

Der Stichwortgeber

Eigentlich hatte Tim Berners-Lee im März vor einem Vierteljahrhundert nur die Flut der wissenschaftlichen Erkenntnisse am CERN in den Griff bekommen wollen. Dass das World Wide Web, das durch seine initialen Entwicklungen – HTML, http und den Prototyp eines Browsers – dann unser Verständnis von dieser Welt verändern sollte, ja mehr noch: die Welt selbst verändern sollte, hatte er nicht auf dem Schirm. Oder doch?

„Das Problem des Informationsverlusts mag beim CERN besonders akut sein, aber in diesem Punkt ist CERN eher ein Miniaturmodell der ganzen zukünftigen Welt“, schrieb Berners-Lee in seinem Grundsatzpapier vom März 1989. „CERN begegnet derzeit einigen Problemen, die die Welt sehr bald gewärtigen wird.“

Zu diesem Zeitpunkt waberten nicht nur die Matrix und der Cyberspace durch das SciFi-Genre. Sondern auch natur- und gesellschaftswissenschaftliche Publikationen waren längst voll von Visionen, in denen „völlig neue Formen der Enzyklopädien entstehen werden, die von einem Gewebe aus Assoziationspfaden durchzogen sind“. Das Zitat entstammt der Juli-Ausgabe des amerikanischen Fachmagazins „The Atlantic Monthly“ aus dem Jahre 1945!

Den Autor und den Artikel dazu musste ich erst im Internet recherchieren: Dr. Vannevar Bush war seinerzeit Direktor des Office for Scientific Research and Development in den USA und damit Koordinator von rund sechstausend Wissenschaftlern und deren kriegswichtige Projekte. Der Titel des  69 Jahre alten Artikels: „As we may think“ – „So könnten wir [künftig] denken“!

So optimistisch Bush in seiner Vision über den umfassend informierten, intuitiv sich auf neue Wissensfelder vortastenden, denkenden Leser in einer vernetzten Welt – die er Memex nannte – gewesen sein mag. Sie trifft zu – und trifft auch wiederum nicht zu.

In der Tat: Die Enzyklopädie verstaubt im Regal, während wir den Permalink zu Wikipedia nutzen. Wir genießen Bücher wegen der haptischen Erfahrung, wie wir heute sagen, aber nicht, weil sie unsere primäre Lesequelle sind. Wir schreiben keine Wunschzettel, sondern kreieren Wishlists auf Amazon und sorgen auf Facebook für ihre Verbreitung. Breaking News erreichen uns im Web schneller als über die Broadcasting-Medien Radio und TV. Die Kunst des Briefeschreibens verkürzt sich zum Mailing, die des Essays zum Posting.

Und hier offenbart sich die fundamentale Verhaltensänderung,  die weder Bush noch Berners-Lee vorhersehen konnten: Das mühevolle Durchlesen verkürzt sich auf die Suche nach den markanten Stichworten. Die ebenso lustvolle wie leidvolle Recherche in voluminösen Texten reduziert sich auf das Scannen von Fundstellen. Die alte Idealvorstellung vom humanistisch Gebildeten weicht im World Wide Web dem digitalen Schatzsucher, der nur noch den Spuren des Internets als Stichwortgeber folgt.

Das Internet macht uns somit reicher und ärmer zugleich. Es wäre zu überprüfen, ob diese Entwicklung, die die ganze Welt betrifft, nun auch im CERN als Miniaturmodell der Welt beobachtet werden kann. Ist der wissenschaftliche Austausch auf der Ebene der Stichwortsuche nun tatsächlich effektiver und zielführender als der anhaltende wissenschaftliche Dialog und Diskurs unter Kollegen? Die Erfahrungen mit einem verschulten, auf den Bachelor als Stichwortsucher ausgelegten Studium legen durchaus den Verdacht nahe, dass das klassische Studium zwar weniger schnell, dafür aber reicher war.

Und in der Wirtschaft? Sicher sind wir inzwischen besser verzahnt, interaktiver miteinander vernetzt, globaler und breiter aufgestellt, um in neuen Märkten mit neuen Produkten und Dienstleistungen zielgruppengenau agieren zu können. Wir teilen die Arbeit nicht nur auf Abteilungen (daher der Name) und unternehmensübergreifende Wertschöpfungsketten auf und konzentrieren uns auf die wenigen verbliebenen Kernkompetenzen. Dabei vertiefen wir zwar das Knowhow im Kern, verlieren aber Wissen an der Peripherie – auch hier eine Folge der Wissensaneignung, die lediglich aufs Stichwort hört.

Das ist jedoch kein Menetekel. Hier wie dort, im privaten wie im wirtschaftlichen Bereich wird die Gesellschaft sich immer mehr scheiden in die, die die Kulturtechnik der Wissensaneignung über die Stichwortsuche hinaus beherrschen (oder wieder erlernen), und jene, die sich im Chatrooms und Daddelspielen verlieren. Dies ist die wahre digitale Kluft, mit der wir in Zukunft zu leben haben. Nicht allein die Frage, wer welchen Zugang zum World Wide Web genießt, sollte uns angesichts der Tatsache beschäftigen, dass lediglich 2,7 Milliarden von 7,7 Milliarden Menschen sich im Internet tummeln können. Auch die Frage, wie wir das Internet nutzen und wie wir unser Urteilvermögen ihm gegenüber behaupten, ist künftig eine Frage der „Digital Divide“. Denn erst dann entsteht eine geistige digitale Dividende.