Apple Cloud Time

Der gute alte Daniel Bernoulli – ohne seine Theorien zur Strömungslehre würden wir weder fliegen, noch Benzinmotoren nutzen oder Lebensmittel abkühlen. Doch im Internet kommen seine Theorien an ihre Grenzen. Stau, sagt er nämlich, ist eine Engstelle im Strömungsverlauf – und dort steigt die Strömungsgeschwindigkeit.

Schön wär´s. Beim Stau im Web beschleunigt sich gar nichts. Da hilft dann nur Geduld.

Als sich jetzt Millionen Apple-User auf das lang ersehnte iOS 5-Betriebssystem stürzten, war es mal wieder so weit. Der englische Guardian stellte fest, dass sich ab 13. Oktober das britische Web deutlich verlangsamte. Und Apple musste zugeben, dass die Server an den ersten Tagen der Download-Phase schwer überlastet hatten. World Wide Waiting – das alte Gespenst des WWW war wieder da.

Allerdings – was ist das auch für ein Mengengerüst, dass Apple dem Web da aufgeladen hat: rund 250 Millionen Mal wurden iPhones, iPads oder iPod Touch seit 2007 verkauft. Für alle steht jetzt seit gut zwei Wochen das 700 Megabyte fette iOS 5 bereit. Das macht einen Datenstrom von sage und schreibe 175 Petabyte, der da durchs Netz gejagt werden musste.

Es dürften gut und gerne noch mehr sein: rund um den Globus klagten Apple-Adepten, dass sie den Download mehrfach wiederholen mussten, um endlich in den Genuss der 200 neuen Funktionen zu kommen. Von einer Ausfallquote bis 50 Prozent – also jeder zweite Downloadversuch – wird gemunkelt. Und seitdem nun wieder alles klappt, werden Tipps, Q&As und Manuals nachgeladen. Gleichzeitig geht der Run auf die iCloud los, die künftig iTunes in den Hintergrund drängen soll, um das weltweite Datensichern leichter und vor allem schnurloser zu machen.

Es ist, als wollte Apple parallel zur IBM Information On Demand-Konferenz in Las Vegas noch einmal zeigen, dass das Web doch noch nicht ganz auf die Massendaten vorbereitet ist, die Big Blue künftig über das Internet verarbeitet sehen will. Erste Probleme mit verweigerten Passworten und Zugriffen werden aus der iCloud-Gemeinde bereits gemeldet. Apple ließ unterdessen wissen, dass in der Tat einige Nutzer auch weiterhin  in der Wolke mit Wartezeiten zu rechnen hätten.

Stau ist, wenn alle gleichzeitig das gleiche tun. Nach Analysen der Forschungsgruppe Wahlen sind inzwischen 90 Prozent der bis 49jährigen regelmäßig im Internet. Bei den 50 bis 59 Jahre alten Zeitgenossen sind es immerhin noch 80 Prozent. Erst bei den älteren Semestern sinkt die Zahl auf 40 Prozent.

Nach Beobachtungen des Bitkom verbringen die Surfer aber vor allem ihre Zeit mit Facebook. 16,2 Prozent ihrer Online-Zeit waren die User demnach bei Facebook zu Gast, weitere 12,3 Prozent der Zeit werden für die diversen Angebote von Google aufgebracht – von der Suchmaschine bis zu Google+. Deutsche Angebote kommen unter „ferner liefen“: United Internet (Web.de und gmx) verbraucht 2,1 Prozent der Surferzeit, die Deutsche Telekom lediglich 1,4 Prozent.

50 Millionen Menschen sind inzwischen in Deutschland online – weniger als halb so viele wie in den USA. So erklärt sich der Tweet eines erfolgreichen iOS 5-Downloaders: „Warten, bis die Amis schlafen.“

Das Peta-Prinzip

Wir haben uns ja kaum an Tera gewöhnt, jene Tausend Megabyte, die man heute als externe Festplatte für 49 €uro bekommen kann – oder für ein paar Cent im Monat in der Cloud. Aber die wahre Musik der Erkenntnis spielt längst im Petabereich – in Tausenden von Terabyte. Schon dem menschlichen Hippocampus wird die Fähigkeit zugestanden, rund 2,5 Petabyte an Informationen bewältigen zu können. Da stecken sie dann die Informationen – und warten darauf, ins (noch größere) Langzeitgedächtnis verschoben zu werden, auf dass sie erinnert oder zu neuen Erkenntnissen zusammengesetzt werden.

2,5 Petabyte Merkfähigkeit – das ist doch schon was. Das ganze Internet archiviert derzeit geschätzt 7 PB – bei einer monatlichen Wachstumsrate von 100 Terabyte. Und Google sagt man nach, dass Tag für Tag die dreifache Menge der gesamten Web-Daten über die Suchmaschine geschaufelt wird.

IBM hat jetzt, rechtzeitig zur Information On Demand-Konferenz in Las Vegas, den weltweit größten Speicher-Array zusammen geschraubt: 120 Petabyte. Zusammengeschraubt? Verlinkt! Denn die einzelnen Speicherstellen sind keineswegs physisch miteinander verbunden. Muss auch nicht mehr sein. Denn wer wirklich mit „Big Data“ operiert, flüchtet längst in den virtuellen Raum.

Während der Mittelstand weltweit im Cloud Computing allenfalls eine Lösung für die Anwendungsinfrastruktur sieht und die Daten tunlichst in den Keller sperrt, sind die Anwender übergroßer Datenmengen längst dabei, ihren Schatz in die Wolke zu verschieben. Weil nirgendwo sonst Platz für den ganzen Wust ist? Nein, weil nirgendwo sonst genügend Rechenpower zu finden ist, um aus diesen Datenmengen Informationen und aus Informationen Erkenntnisse zu machen.

Das ist eine neue Form des Peter-Prinzips (wonach Mitarbeiter so lange Karriere machen, bis sie eine Position erreicht haben, für die sie nicht geeignet sind). Für Datenmengen gilt analog das Peta-Prinzip: Daten vermehren sich kontinuierlich, bis sie ein Volumen erreicht haben, für dessen Verarbeitung es kein System mehr zu geben scheint. Information on Demand ist also keine große Sache, wenn es sich um Megabyte-Volumen handelt. Die Cloud wäre demnach der Weisheit letzter Schluss.

IBM hat sich an die Spitze dieser Bewegung gesetzt und will nun endlich nicht nur Daten sehen, sondern auch Informationen. Was mit Watsons Jeopardy-Auftritt spielerisch begann, ist inzwischen realer Ernst geworden. Ärzte erhalten Entscheidungsunterstützung aus einer Pentabyte-großen Wissensbasis. Handelsketten bekommen Marktanalysen aus Millionen Kassenzetteln täglich. Und Modemarken erhalten stundengenaue Trendanalysen bei der semantischen Auswertung von Milliarden von Social-Media-Schnipseln.

Allerdings: Während IBM alle Kraft daran setzt, diesen Planeten ein wenig smarter zu machen und sich als Markt- und Meinungsführer bei der Bewältigung von gigantischen, pardon: petantischen Datenvolumina positioniert, scheint ein hausgemachtes Problem unbeobachtet und vor allem ungelöst liegenzubleiben. Wenn IBM wüsste, was IBM weiß.

Die IOD hier in Las Vegas ist einerseits eine beeindruckende Leistungsshow über das, was mit IBMs Hilfe beim Number Crunching erreicht werden kann. Aber es ist auch eine erschreckende Demonstration, dass aus Hundert noch so brillanten Einzelvorträgen noch lange keine Vision entsteht. Den Big Data fehlt das Big Picture. Vielleicht bedarf es dazu weiblicher Intuition und Intelligenz. Die soll ab 1. Januar 2012 ja an oberster Stelle eingesetzt werden. Wenn Sam Palmisano den Datenwürfel an Virginia Rometty übergibt.

Bei der für Frauen typischen Sorgfalt kann man dann darauf hoffen, dass die nächste IOD-Konferenz nicht dadurch zu einem Rohrkrepierer erste Güte wird, dass die hier angebotenen Netze ständig zusammenbrechen. Denn ohne Netz ist man mit Information on Demand nicht nur nicht verlinkt, sondern eher gelinkt.

Letzte Zuflucht

Muss die Evolutionsgeschichte der Informationstechnologie umgeschrieben werden? Bisher war es ja so (in fast forward): Mainframe-Terminal, Minimainframe-Client, Client-Server, Server-Centric, Internet-aware, Hosted Services, Cloud. Richtig zweifelsfrei fest steht dabei eigentlich nur (laut Genesis 1.1): Am Anfang war der Host (und der Host war von IBM).

Jetzt, hier auf dem Gartner Symposium in Orlando, scheint sich so etwas wie die Vertreibung aus dem Wolken-Paradies abzuzeichnen. Die Anwender haben offensichtlich vom Verzeichnisbaum der Erkenntnis genommen und festgestellt: Die Cloud ist keineswegs so kostengünstig wie gedacht. So mancher Anbieter schaute zudem an sich herunter und erkannte, dass er nackt war.

Die Cloud findet irgendwie in jedem Einzelvortrag statt, ist zwar kaum das Thema, aber immer im Subtext der Analysen vorhanden. Die Wolke hat sich – wenn man so sagen darf – gesetzt. Dabei sind die Gartner-Analysten immer noch auf der Suche nach der definitorischen Bewältigung des Cloud-Begriffs. Und siehe da: ein bisschen was von Mainframe-Terminal, Server-centric oder Hosting schwingt in den Infrastrukturangeboten mit. Die Cloud als Rückschritt oder als letzte Zuflucht?

Massenkonsum, Mass-Customization, Massendatenhaltung oder auch massives Rechnen – das alles geht künftig gar nicht mehr ohne die Wolkenangebote. Aber dort, wo der Kern eines Unternehmens liegt, da hält sich beharrlich die onPremise-Lösung. Sie wird in den kommenden Jahren allenfalls von der privaten Wolkeninfrastruktur abgelöst. Services aus dem Internet? Im Prinzip ja. In den peripheren Bereichen des Unternehmens sogar als multi-tenant SaaS. Aber direkt am Herzen wird nur im privat verwalteten Web operiert.

Das hat verdammt Ähnlichkeit mit Hosting oder Server-centric Computing. Macht aber nichts – denn es scheint, dass nach dem Gipfel der Erkenntnis nun das Tal des Pragmatismus folgt.

Die klassische Euphoriekurve kann Gartner sogar in Zahlen belegen:

Zwölf Milliarden Dollar geben Unternehmen im laufenden Jahr für Software aus, die sie OnDemand beziehen. Dabei handelt es sich vor allem um CRM-Lösungen, Mail-Accounts und Dokumentenmanagement. Für Speicher, Rechnerzeit und Werkzeuge aus der Cloud, also für Infrastruktur as a Service, investieren die Firmen im laufenden Jahr rund 4,2 Milliarden Dollar. Frisch und neu und erst im Entstehen sind die Plattformen, auf denen Anbieter ihre integrierten Lösungen bereitstellen. Sie machen gegenwärtig immerhin ein Volumen von 1,2 Milliarden Dollar aus.

Infrastruktur als Service wird der boomende Markt der Zukunft. In fünf Jahren wird der jährliche Umsatz mit „Hardware“ aus dem Internet auf 18 Milliarden angewachsen sein. Der Trend könnte allerdings von einem ganz anderen Trend völlig überlagert werden: Mobility as a Service. Wenn fünf Milliarden Smartphone-Benutzer ihre Apps im gleichen Tempo downloaden wie bisher und sich gewollt oder ungewollt mit ebenso viel Milliarden Maschinen vernetzen, die Services aus der Cloud in die Endgeräte pushen, dann wächst der Umsatz mit den Cent-Beträgen locker über die 20 Milliarden-Dollar-Grenze.

Wahrscheinlich sind die öffentlichen Wolkenbänke dann so überlaufen, dass dem seriösen Anwender ohnehin nur die Zuflucht in die eigene, private Wolke 7 bleibt – nicht als letzte Ruhestätte, aber als letzte Zuflucht.

PS: Nutznießer dieses Cloud-Booms, meint Gartner, sind weniger die Old School-Anbieter, sondern die Facebooks und Googles dieser Welt. Facebook ist hier bei Gartner die gefeierte Company – auch dass das Unternehmen nun BITKOM-Mitglied ist, schlägt bis in die USA Wellen. Herzlich Willkommen, Facebook.

Spezielle Kommunikationssysteme

Als „führendes Unternehmen für die systemintegrierte Realisierung von Datenerhebungs- und Bewertungssystemen im Bereich der Telekommunikation“ verzichtet DigiTask auf eine der bewährten Methoden des Marketings: auf Referenzberichte. Kein Testimonial einer Behörde oder anderweitig interessierten Organisation würdigt die Leistungen des jetzt als Entwickler des sogenannten Bundestrojaner in die Schlagzeilen geratenen Anbieters „spezieller Kommunikationssysteme“. Es ist wahrscheinlich „Diskretion“, die dem hessischen Unternehmen dieses selbst auferlegte Schweigen anempfiehlt – obwohl Diskretion in diesem besonderen Fall einen geradezu grotesken Beigeschmack bekommt…

Nun, trotz aller Diskretion wissen wir (oder wussten es längst): der Bundestrojaner, jene jetzt vom Chaos Computer Club auf der Grundlage unseres Grundgesetzes sezierte Schnüffelsoftware, die – unter anderem – kontinuierlich Screenshots vom PC-Geschehen schießt und übermittelt, „verschlüsselte“ Skype-Kommunikation dechiffriert und mitschreibt, wenn übermäßig große Mengen Backpulver im Internet bestellt werden, stammt nicht von den Bundesbehörden, sondern von einem kommerziellen Anbieter. Der habe, so wird jetzt verbreitet, mehr Funktionen angeboten, als bestellt worden seien. So ist der große Lauschangriff zwar technisch, jedoch nicht juristisch möglich. Aber da der Hunger ja bekanntlich beim Essen kommt, folgt, dass der Datenhunger sich beim Lauschen einstellt.

Hat der Bund das nötig? Erst kürzlich hatten die Bundesbehörden bewiesen, wie zielgenau gesetzeskonforme Maßnahmen und Vorgehensweisen sind – ganz ohne zusätzlichen Trojaner:  Der Paragraf 98a des Strafgesetzbuches zum Beispiel erlaubt es, beim Verdacht auf die „Vorbereitung einer schweren staatsgefährdenden Gewalttat“, Telefone abzuhören oder Wohnungen zu durchsuchen. Computer können in diesem Sinne so unverletzlich wie Telefone oder wie Wohnungen sein. Richtig eingesetzt, folgt der Bundestrojaner diesem Gebot. Gemessen an seinen jetzt funktionalen Möglichkeiten ist aber wohl weit mehr möglich als juristisch gedeckt werden kann.

Es ist deshalb nur folgerichtig, wenn der Bund seine Lauschware jetzt selbst produzieren will. Dann ist nur drin, was drin sein darf. Ansonsten meldet sich mit Sicherheit der Bundesrechnungshof. So, wie er das schon beim Mammutprojekt „Fiscus“ getan hat, als die Finanzbehörden des Bundes und der Länder in den neunziger Jahren eine allumfassende Finanzsoftware kreieren wollten. Wenig blieb von dieser dreistelligen Millioneninvestition (damals allerdings noch D-Mark) übrig.

Auch sonst hat der Bund kein glückliches Händchen bei der Entwicklung und Fertigstellung von „speziellen Kommunikationssystemen“: ELENA zum Beispiel, der jüngst wieder vom Amt genommene Elektronische Entgeltnachweis, für den die Wirtschaft Millionen (diesmal Euro) investieren musste. Oder die LKW-Mautsoftware, die das sie tragende Konsortium heftig überforderte. Auch die Bundeswehr erlebte bei ihren Software-Projekten so manche Mission Impossible.

Ein in Eigenregie entwickelter Bundestrojaner – wäre das nicht ein Danaergeschenk? Es war Laokoon, der angesichts des hölzernen Pferdes ausrief: „Ich fürchte die Griechen, auch wenn sie Geschenke bringen.“ Danach verstrickte er sich mit seinen Söhnen in von Athene gesandte Lindwürmer. Die Laokoon-Gruppe – heute auch das Sinnbild für im Sourcecode verstrickte Softwareentwickler!