Das Peta-Prinzip

Wir haben uns ja kaum an Tera gewöhnt, jene Tausend Megabyte, die man heute als externe Festplatte für 49 €uro bekommen kann – oder für ein paar Cent im Monat in der Cloud. Aber die wahre Musik der Erkenntnis spielt längst im Petabereich – in Tausenden von Terabyte. Schon dem menschlichen Hippocampus wird die Fähigkeit zugestanden, rund 2,5 Petabyte an Informationen bewältigen zu können. Da stecken sie dann die Informationen – und warten darauf, ins (noch größere) Langzeitgedächtnis verschoben zu werden, auf dass sie erinnert oder zu neuen Erkenntnissen zusammengesetzt werden.

2,5 Petabyte Merkfähigkeit – das ist doch schon was. Das ganze Internet archiviert derzeit geschätzt 7 PB – bei einer monatlichen Wachstumsrate von 100 Terabyte. Und Google sagt man nach, dass Tag für Tag die dreifache Menge der gesamten Web-Daten über die Suchmaschine geschaufelt wird.

IBM hat jetzt, rechtzeitig zur Information On Demand-Konferenz in Las Vegas, den weltweit größten Speicher-Array zusammen geschraubt: 120 Petabyte. Zusammengeschraubt? Verlinkt! Denn die einzelnen Speicherstellen sind keineswegs physisch miteinander verbunden. Muss auch nicht mehr sein. Denn wer wirklich mit „Big Data“ operiert, flüchtet längst in den virtuellen Raum.

Während der Mittelstand weltweit im Cloud Computing allenfalls eine Lösung für die Anwendungsinfrastruktur sieht und die Daten tunlichst in den Keller sperrt, sind die Anwender übergroßer Datenmengen längst dabei, ihren Schatz in die Wolke zu verschieben. Weil nirgendwo sonst Platz für den ganzen Wust ist? Nein, weil nirgendwo sonst genügend Rechenpower zu finden ist, um aus diesen Datenmengen Informationen und aus Informationen Erkenntnisse zu machen.

Das ist eine neue Form des Peter-Prinzips (wonach Mitarbeiter so lange Karriere machen, bis sie eine Position erreicht haben, für die sie nicht geeignet sind). Für Datenmengen gilt analog das Peta-Prinzip: Daten vermehren sich kontinuierlich, bis sie ein Volumen erreicht haben, für dessen Verarbeitung es kein System mehr zu geben scheint. Information on Demand ist also keine große Sache, wenn es sich um Megabyte-Volumen handelt. Die Cloud wäre demnach der Weisheit letzter Schluss.

IBM hat sich an die Spitze dieser Bewegung gesetzt und will nun endlich nicht nur Daten sehen, sondern auch Informationen. Was mit Watsons Jeopardy-Auftritt spielerisch begann, ist inzwischen realer Ernst geworden. Ärzte erhalten Entscheidungsunterstützung aus einer Pentabyte-großen Wissensbasis. Handelsketten bekommen Marktanalysen aus Millionen Kassenzetteln täglich. Und Modemarken erhalten stundengenaue Trendanalysen bei der semantischen Auswertung von Milliarden von Social-Media-Schnipseln.

Allerdings: Während IBM alle Kraft daran setzt, diesen Planeten ein wenig smarter zu machen und sich als Markt- und Meinungsführer bei der Bewältigung von gigantischen, pardon: petantischen Datenvolumina positioniert, scheint ein hausgemachtes Problem unbeobachtet und vor allem ungelöst liegenzubleiben. Wenn IBM wüsste, was IBM weiß.

Die IOD hier in Las Vegas ist einerseits eine beeindruckende Leistungsshow über das, was mit IBMs Hilfe beim Number Crunching erreicht werden kann. Aber es ist auch eine erschreckende Demonstration, dass aus Hundert noch so brillanten Einzelvorträgen noch lange keine Vision entsteht. Den Big Data fehlt das Big Picture. Vielleicht bedarf es dazu weiblicher Intuition und Intelligenz. Die soll ab 1. Januar 2012 ja an oberster Stelle eingesetzt werden. Wenn Sam Palmisano den Datenwürfel an Virginia Rometty übergibt.

Bei der für Frauen typischen Sorgfalt kann man dann darauf hoffen, dass die nächste IOD-Konferenz nicht dadurch zu einem Rohrkrepierer erste Güte wird, dass die hier angebotenen Netze ständig zusammenbrechen. Denn ohne Netz ist man mit Information on Demand nicht nur nicht verlinkt, sondern eher gelinkt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert