Das IoT ist tot, es lebe die IoT!

Der Mörder ist mal wieder ein Gartner-Analyst: Das Internet of Things (IoT) – oder Internet der Dinge – ist noch gar nicht richtig geboren, da ist es auch schon wieder tot. Das Internet der Dinge benennt nämlich nur die Infrastruktur; viel wichtiger aber ist, was man damit macht. Information of Things (IoT) – also die Information über die Dinge – sind das entscheidende Momentum bei der Digitalisierung der Welt.

Und in der volldigitalisierten Welt sind Informationen immer und überall und über alles. Die Gartner Group, die soeben ihre jährliche Synode zu Glaubensfragen der Informationswirtschaft in Orlando, Florida, abgehalten hat, sieht uns alle allmählich im Cyberspace angekommen, also in der Matrix oder wie es auf Gartner-Sprech heißt: Digital Mesh.

Der Begriff ist gefährlich, denn er erinnert nicht nur an Mischmasch, sondern steht im Englischen sowohl für Netz oder Netzwerk als auch für das Sieb, dem ja bekanntlich das Vergessen sprichwörtlich ist. Doch in der Gartner-Interpretation ist der Mischmasch aus unterschiedlichen persönlichen Endgeräten, die sich untereinander synchronisieren, eine der Herausforderungen der kommenden Jahre. Sie wird die CIOs in Atem halten, die dafür sorgen müssen, dass die PCs, Smartphones, Tablets, Scanner, Netzdrucker oder Handhabungsautomaten auf dem gleichen Informationsstand sind. Es ist auch die Herausforderung für Information-Broker, die dafür sorgen werden, dass jedermann auf jedem Endgerät nur die Informationen erhält, die ihn oder sie in der speziellen Situation auch benötigt. Also: Wer ein Handy privat und eins dienstlich mit sich führt, möchte auf dem einen nur Privates auf dem anderen nur Dienstliches haben – und was so dazwischen ist, auf beiden. Umgebungsbewusste Endgeräte oder „ambient user devices“ nennen wir das von jetzt an im Gartner-Idiom.

Aber damit nicht genug: Wir erhalten nicht nur situationsbedingt die Informationen, die uns in der entsprechenden Lebenslage erreichen sollen. Wir bekommen auch noch kontextspezifische Hintergrundinformationen mitgeliefert. Hier helfen nicht einfach nur Suchmaschinen – das ist ja sowas von out! -, sondern semantisch optimierte Datenbanken, die Wortfelder und Themengebiete ebenso auswerten können wie Grafiken und Bilder. Im Ergebnis sollen wir Wissen statt Daten erhalten.

Dazu brauchen wir natürlich nicht einfach nur das Internet, wie wir es kennen. Wir brauchen neuronale Netze, die die lernenden Suchmaschinen dabei unterstützen werden, zu erkennen, was die Welt (wenn auch nicht im Innersten!) zusammenhält – und vor allem, wie man in ihr navigiert. So wird es über kurz oder lang weiterentwickelte Varianten von Cortana (Microsoft) oder Siri (Apple) geben, jenen kontextsensitiven Spracheingabesystemen, die uns heute zwar kaum mehr sagen können als das Wetter von morgen, übermorgen aber schon den Zusammenhang zwischen Historischem und Dialektischem Materialismus (oder etwas ähnlich Kompliziertem) erklären. Und natürlich werden die gleichen Netze auch dafür verwendet, Fahrzeuge autonom über unser Straßennetz zu steuern und Drohnen ins Krisengebiet einzufliegen.

Gartner, was habt ihr genommen? Alles, was in Orlando als zehn Voraussagen für das Jahr 2016 verkündet wurde, wird kommen – nur nicht 2016! Soeben haben wir in Deutschland die ersten Teilautobahnen für Testfahrten mit autonomen Lastwagen freigegeben. Soeben hat der Mittelstand erkannt, welche Möglichkeiten hinter Industrie 4.0 stecken. Und soeben haben wir damit angefangen, unsere betriebswirtschaftlichen Lösungen auf die Datenflut des Internets der Dinge vorzubereiten. Und damit werden wir auch 2016 noch vollauf beschäftigt bleiben.

Bitte gebt uns etwas Zeit zum Luftholen, liebe Freunde von der Gartner Group. Es reicht nicht, Visionen zu haben. Man muss auch in der Lage sein, sie zu verwirklichen. Bislang hat die Arbeitsteilung ganz gut geklappt. Gartner hatte die Visionen, die Informationswirtschaft hat sie realisiert. Aber jetzt geht es einfach zu schnell.

Das Internet der Dinge ist noch lange nicht tot. Denn zunächst brauchen wir die Infrastruktur, ehe wir uns auf sie verlassen können. Und dann haben wir die Informationen über die Dinge und können uns damit beschäftigen, was wir damit anfangen. Es hilft nichts, wenn die Digitalisierung der Welt schneller voranschreitet als die Umgestaltung der Welt. Wir brauchen Zeit. Aber ich fürchte, bis dahin gibt es wieder eine Gartner-Synode oder gar IT-Konklave und der weiße Rauch wird aus dem Convention Center in Orlando aufsteigen und uns signalisieren: Visio est mortuus. Habemus novum visionem. – Die Vision ist tot, wir haben eine neue.

 

Zehn oder die Kunst der Kundenpflege

Jetzt wissen wir es also: am 29. Juli ist D-Day: Download-Tag für Windows Zehn. Seit heute erhalten Benutzer, die Windows 7 oder 8.1 einsetzen, den Hinweis, dass sie sich für den Download bereithalten und registrieren sollen. Ein Jahr lang, so heißt es, kann dann die Welt das Upgrade runterladen und für die Lebensdauer des Geräts kostenfrei nutzen.

Schon im April hatte Microsoft mit dem Updatepaket 3035583 einen mutmaßlichen Window-10-Downloader auf allen registrierten Systemen installieren lassen. Ausgenommen sind freilich Enterprise Editionen, für die es kein kostenfreies Upgrade gibt, und RT-Installationen, für die es nicht einmal ein kostenpflichtiges Update gibt. Oder doch? Gerüchten zufolge wird Microsoft zumindest XP-Kunden ein kostenpflichtiges Upgrade für 35 €uro anbieten.

Der Termin gilt allerdings nur für PCs und Tablets. Smartphone-Inhaber müssen wohl noch ein wenig warten. Der unterschiedliche Termin dürfte in dem Versprechen liegen, eine über alle Systeme portierbare Windows-10-Version zu erhalten. Wer also eine App auf dem Smartphone installiert, soll sie auch auf dem Desktop nutzen können – natürlich bei voll synchronisiertem Datenbestand. Wer dies nutzt (und wer sollte das nicht wollen), ist schon mal per se Microsofts Cloud-Kunde. Gleichzeitig kommen Updates und Features jeden Patchday frei Haus – ob man will oder nicht. Für Consumer ist das okay. Für Unternehmen aber nicht.

Deshalb hat Microsoft ein kompliziertes Service-Modell für „Windows as a Service“ entwickelt, das Kunden in unterschiedliche Nutzer- und Nutzungskategorien einteilt. Für Unternehmen wird aller Voraussicht nach der Patchday zur Vergangenheit gehören. Updates werden danach aufgespielt, sobald sie verfügbar sind. Das sollte für Sicherheitsfeatures nicht uninteressant sein. Gleichzeitig besteht die Möglichkeit, Updates nicht auf jedes einzelne Endgerät, sondern auf einen zentralen Server zu schicken, von wo aus sie weiter distribuiert werden können. Das sollte die Netze deutlich entlasten. Und schließlich können Administratoren entscheiden, ob sie lediglich Sicherheits-Updates und Fehlerkorrekturen oder auch neue Funktionen installieren wollen.

Kunden sollten sich deshalb künftig gut überlegen, ob sie bei der Microsoft-Registrierung als „Consumer“ oder als „Company“ eingestuft werden wollen. Diese Option gilt insbesondere für kleinere Unternehmen, Handwerkbetriebe oder Freiberufler. Sie sollten ihr „Verhältnis zur Cloud“ dadurch klären, dass sie sich als Unternehmen outen und damit besondere Sorgfaltspflichten in Anspruch nehmen.

Für Microsoft steht dahinter eine interessante Geschäftsoption: (zu) viele nutzen Windows unter dem Mantel einer Privatperson längst betrieblich. Wo bisher die Lizenz im Wege stand, könnte künftig der Service den Weg zur Enterprise Edition ebnen.

Denn für dieses Betreuungsniveau braucht Microsoft keine Partner mehr – das Installieren neuer Updates von exklusiven Gold-Master-Scheiben ist eher ein Relikt des vergangenen Jahrtausends. Die Gelegenheit, während der Installation einen Kaffee mit dem Kunden zu trinken und sich nach nächsten Betreuungsmöglichkeiten (also: Geschäftschancen) zu erkundigen, ist ebenfalls passé. Das macht man jetzt durch moderne Marketing-Tools und Social Media. Den Ersatz sozialer Kontakte durch technische Interaktion nennt man Fortschritt…

Aber je mehr Kunden ihren Status als „Schein-Konsument“ zugunsten eines „Echt-Betriebs“ aufgeben, desto intensiver kann Microsoft sein Klientel bedienen. Das wird immer wichtiger angesichts der Tatsache, dass jedem User inzwischen mehrere Systeme zugeordnet werden müssen. Wer einen PC nutzt, hat wahrscheinlich auch ein Smartphone. Wer ein Tablet im Einsatz hat, greift vielleicht auch auf einen Windows Server zu. Diese Welten will und muss Microsoft mit Windows 10 und einer besonderen Kundenpflege einfangen. Der “Zehn-Buddhismus“ führt in eine neue Art der Kundenpflege. Windows 10 ist deshalb einerseits ein neues Betriebssystem, andererseits ein neues Betreuungssystem.

Allerdings sei auch angemerkt: Willkommen im Club, Microsoft. Die GUS Group verfolgt diese moderne Form der Kundenbetreuung mit ihrer Update-Philosophie rund um die GUS-OS Suite schon seit Jahren. Aber wir haben ja auch keine Privatkunden…

Moore und die Globalisierung

Jedes Kind kennt Einsteins berühmte Formel (E=mc2), aber die Zahl derer, die erklären könnten, was diese Buchstabenkombination tatsächlich bedeutet, ist verschwindend gering (zur persönlichen Weiterbildung hier klicken). Ebenso gering dürfte umgekehrt die Zahl derer sein, die mit der Formel „K(t) = K0 * 2t/T2“ etwas anfangen können. Dafür aber weiß jedes Kind seine Folgen einzuschätzen: die Rechnerleistung verdoppelt sich in etwa alle 18 Monate.

Und in einer ersten Konsequenz bedeutet das: Computer können altern oder zumindest veralten und haben deshalb einen kürzeren Erneuerungszyklus als beispielsweise Autos. Jedes Kind macht irgendwann die Erfahrung, dass es mit einem 18 Monate alten Smartphone in der Schule nicht mehr reüssieren kann!

Einsteins Formel beschreibt ein Naturgesetz. Der Zeitraum, in dem sich die Anzahl der Transistoren auf einem Chip regelmäßig verdoppelt, den Gordon Moore vor einem halben Jahrhundert abschätzte, war und ist nur eine Prophezeiung. Allerdings eine, die sich trotz aller Unkenrufe kontinuierlich bewahrheitet.

Das dürfte auch daran liegen, dass Intel – der Chip-Produzent, den Gordon Moore zusammen mit Robert Noyce 1968 gründete – sich das Mooresche Gesetz als selbsterfüllende Prophezeiung konsequent zur Richtschnur der eigenen Produktplanung gesetzt hat und damit nicht nur sich selbst, sondern auch die Lieferanten unter enormen Entwicklungsdruck stellt. Davon hat bekanntlich nicht nur Intel profitiert, sondern eine ganze IT-Industrie – und wenn man so will die gesamte Weltwirtschaft.

Denn so wie Einsteins relativistische Theorie über den Zusammenhang von Energie und Masse die Welt im Innersten zusammenhält, befeuert Moores Gesetz vom ewigen Schrumpfen das globale Wachstum. Ja, es ist überhaupt erst die Geheimformel, die die Globalisierung vorantreibt. Denn ohne die Fähigkeit, unsere Geschäftsabläufe rund um die Erde und rund um die Uhr zu synchronisieren, gibt es keine effizienten globalen Prozesse. Das gilt für den weltweiten Maisanbau ebenso wie für die Digitalisierung der Produktion im Sinne von „Industrie 4.0“.

Der Umkehrschluss wäre wohl nicht übertrieben, wenn man folgert, dass ein Ausbleiben des 18monatigen Verdopplungsprozesses in der Chiptechnologie dazu führen würde, das globale Wachstum einzubremsen, zum Erstarren und zum Erliegen kommen zu lassen. Denn wir streben kontinuierlich nach mehr Effizienz auf der Basis von mehr Erkenntnis. Mehr Daten verlangen mehr Verarbeitung. Mehr Informationen verlangen mehr Kommunikation.

Gut, dass mit der Verdopplung in der Leistung auch ein Verfall bei den Kosten einhergeht. Der Supercomputer Cray-1 aus dem Jahr 1975 leistete (damals) schwindelerregende 80 Millionen Gleitkommaoperationen pro Sekunde (Megaflops). Die Grafikeinheit in einem schon gar nicht mehr top-aktuellen iPhone 5S leistet fast 1000mal so viel. Als Deep Blue 1997 Gary Kasparow im Schachturnier schlug, konnte er mit 11,4 Gigaflops rund 200 Spielzüge pro Sekunde analysieren. Der Tablet-Chip Tegra K1 in Googles Nexus 9 schafft es auf fast 400 Gigaflops. Und was machen wir damit? Daddeln, Texten, Quatschen.

Andererseits allokieren die großen Cloud-Anbieter immer mehr Rechenpower in ihren Data Centern rund um die Erde. Sie werden – ob durch Cloud oder Mobile, ob durch Big Data oder Social Media befeuert – das neue Rückgrat der Globalisierung. Wir sollten vielleicht die Betrachtungsweise ändern und künftig nicht mehr die Anzahl der Komponenten auf einem Chip zählen, sondern die schiere Rechenleistung, die sich mit immer gigantischeren Rechenzentren zusammenballt.

Als die Cray-1 den legendären Computerfilm Tron animierte, lag diese Rechenleistung in der Hand von wenigen, die sich eine solche Millionen-Investition leisten konnten. Die Rechenleistung der Cloud steht jedem, der sie mieten und nutzen will, zur Verfügung.

Dabei wird die Effizienz durch ein zweites, deutlich unbekannteres Gesetz weiter gesteigert: Das Metcalfesche Gesetz, das in diesem Jahr immerhin 35 Jahre alt wird. Robert Metcalfe, der Erfinder des Ethernets und Gründer des Netzwerkspezialisten 3Com, hat 1980 postuliert, dass der Nutzen eines Kommunikationssystems mit der Anzahl der möglichen Verbindungen der Teilnehmer wächst, während die Kosten nur proportional zur Anzahl der Teilnehmer steigen. Also: je mehr im globalen Kommunikationsverkehr teilnehmen, desto ertragreicher ist das für alle. In einer Digitalen Wirtschaft dürfte dieses Gesetz Moores Gesetz längst den Rang abgelaufen haben.

Nur, wo bleibt da der Mensch? Nach Schätzungen ist im Hirn Platz für 2,5 Petabyte. IDC aber schätzt, dass sich die Daten im Internet alle zwei Jahre verdoppeln und im Jahr 2020 40 Zettabyte (eine 4 mit 22 Nullen) an Daten im Web gespeichert sein werden. Unsere Fähigkeit, neue Informationen aufzunehmen, steigt aber nicht annähernd so schnell. Wir werden immer mehr Systeme brauchen, die Daten zu Informationen verdichten und Informationen auswählen. Irgendwann werden wir mit Didi dem Doppelgänger sagen müssen: „Ich brauche weniger Details.“

 

201x – das Jahr des Cloud Computings

Wo waren Sie, als die IBM /360-Architektur angekündigt wurde? Oder: Was machten Sie mit Ihrem ersten PC? Oder mit Ihrem ersten Smartphone? Tablet? Welches Wort googelten Sie als erstes?

Die im Allgemeinen geschichtsvergessene Welt der Informationstechnologie kann nur wenige lokalisierbare Wendepunkte identifizieren. Am Tag zum Beispiel, nachdem Steve Jobs das iPad präsentierte, war nicht alles anders. Die Financial Times witzelte noch, das Ding sei zu groß zum Telefonieren und zu klein zum Computern. Und doch hätte dieser Moment vor fünf Jahren – der 27. Januar 2010 – das Zeug zu einem „Watershed-Moment“, von dem an die Wasser in eine andere Richtung fließen – und die Geldströme auch.

Denn vielleicht werden wir einmal diesen 27. Januar vor fünf Jahren auch als Geburtsstunde des Cloud Computings ansehen, weil damals das erste mobile Endgerät präsentiert wurde, das vollends abhängig von den Angeboten aus der Cloud ist – mehr noch als das iPhone als Urtyp der Smartphone-Familie. Und auf jeden Fall wäre dieses Datum griffiger als die Veröffentlichung jenes Diagramms, in der erstmals eine Wolke als Symbol für ein nicht näher definiertes Netzwerk verwendet wurde.

Es ist also ganz typisch für die Cloud, dass auch ihre Anfänge eher im Diffusen liegen, im Nebel der Vergangenheit abgetaucht, sozusagen. Und ebenso lässt sich an der Schwelle vom alten zum neuen Jahr kein Ereignis rückblickend oder vorausschauend ausmachen, das nun den endgültigen und von vielen kontinuierlich als unmittelbar bevorstehend geweissagten Durchbruch des Cloud Computings markieren könnte.  2014 war keineswegs das Jahr, in dem alle in die Wolke gingen. Und 2015 wird es ebenso wenig sein. Aber in den kommenden zwölf Monaten wird sich ein Prozess fortsetzen, der schon die vergangenen zwölf Monate gekennzeichnet hatte: die schleichende Veränderung der privatwirtschaftlichen und öffentlichen Infrastrukturen vom On-Premise zum On-Demand. Wir befinden uns inmitten eines informationstechnischen Klimawandels.

Deutlich macht dies die aktuelle KPMG-Umfrage zur Umsetzung des Cloud Computings in 800 globalen Unternehmen – und vor allem der Vergleich mit den Ergebnissen aus dem Jahr 2012. Damals wie heute erkannte knapp die Hälfte der Befragten in Kosteneinsparungen den wichtigsten Effekt unter der Wolke. Doch während vor zwei Jahren kaum ein anderes Argument vorgebracht wurde, werden heute qualitative Zielsetzungen wie „Einbindung von mobilen Endgeräten“, „Bessere Einbeziehung von Kunden und Lieferanten“, „Generierung von Einsichten aus Daten“ oder „Schnellere Entwicklung neuer Produkte und Geschäftsmodelle“ angeführt.

Da ist es faszinierend, dass die Ergebnisse, die das Jahr 2014 in der Rückschau brachte, nicht deckungsgleich sind, mit den gesetzten Erwartungen. 70 Prozent der Befragten erfuhren tatsächlich, dass sich durch Cloud Computing die Kosten senken lassen. Aber 73 Prozent erkannten, dass sich die Effektivität der Organisation gesteigert hatte. Und 72 Prozent stellten eine deutlich verbesserte Kundenorientierung fest.

Und in der Tat: Cloud ist als Technologie kein Durchbruch, ihre Nutzungsmotive aber sind es. Das wird an der Schwelle zum neuen Jahr deutlich. Denn während sich die Analysten mit ihren Trends für 2015 geradezu gebetsmühlenartig einig sind in der Wiederholung der ganz großen Trends – Analytics (of Big Data), Mobile und Social Networking -, so sicher ist auch, dass diesen Trends ohne die Cloud keine Zukunft gewiss wäre.

Ihre erste Manifestation erleben wir schon im Januar, wenn auf der Consumer Electronics Show in Las Vegas die ersten Gadgets gefeiert werden. Was immer wir dort an Neuem aus der Welt der 3D-Drucker, der Wearables, der Mess- und Steuergeräte oder der Drohnen und teilautonomen Fahrzeuge und Roboter sehen werden, wird erst durchs Cloud Computing so richtig zum Leben erweckt. Das gilt 2015 ebenso wie schon 2014 und 2013. Mit jedem „Ding“, das ans Internet of Things angeschlossen wird, wächst die Cloud. Wir merken es nur nicht.