Tracking as a Service

Inzwischen kennt es jeder, das Enterohämorrhagische Escherichia coli – kurz Ehec. Das vor rund 30 Jahren im Pansen eines Rinds wildgewordene Bakterium vom Stamme der bestens aus dem Biologieunterricht bekannten E.coli verübt seit gut einer Woche tödliche Anschläge auf Norddeutschland: Hunderte sind erkrankt, mehr als zehn Patienten bereits verstorben – von innen heraus geschwächt durch das von Ehec verursachte hämolytisch-urämische Syndrom (HUS). Und mindestens ebenso bedrohlich: Auch wenn das Labor der Münsteraner Universitätskliniken den Ehec-Typen schnell identifzieren konnte und eine Spur des Erregers auf spanische Salatgurken verweist – der genaue Weg, die genaue Ursache für die Epidemie ist noch völlig unklar. Derweil vergeht die Zeit…

Es ist nämlich keineswegs egal, ob in China ein Sack Reis umfällt, in Hamburg eine Palette Salatgurken auskippt oder in Malaga Gülle versprüht wird. Lebensmittel sind mobiler als Menschen, sie absolvieren auf ihrem Weg auf den Teller globale Reisestrecken, gehen buchstäblich von Hand zu Hand und erfahren extreme Umweltbedingungen: von brütender Hitze ins Kühllager, vom gleißenden Licht in die Dunkelkammer. Nicht selten sind sie dabei durch kaum mehr geschützt als jene Haut, die sich vor Millionen von Jahren bewährt hatte, bevor es den globalen Lebensmittelmarkt gab.

Die Gesetzgeber in der Europäischen Union haben das erhebliche Gefahrenpotenzial gesehen, das sich aus der Wertschöpfungskette aus Verbreitung, Verarbeitung und Verkauf (dem „Inverkehrbringen“, wie es auf büro-kratisch richtig heißt), ergibt. Mit der EU-Verordnung 178-2002 haben sie EU-weit die gesetzlichen Vorgaben an Lebensmittelproduzenten vereinheitlich und präzisiert. Danach müssen die Player in der Supply Chain jeweils den Vorgänger und den Nachfolger benennen können, von dem sie und an den sie die einzelnen Lebensmittelchargen geliefert (bekommen) haben. In der Folge lässt sich damit minutiös und schnell rückverfolgen, welche Erdbeerernte in welche Joghurtpalette geriet. Ausgespart in der Verordnung wurden allerdings die Erzeuger und Teile des Handels und des Handwerks.

Durch diese Nachweislücke scheint das Ehec-Bakterium geschlüpft zu sein. Und genau dieser Bruch in der chargenorientierten Rückverfolgung macht auch jetzt das Aufspüren der Wege, über die die Bakterien-Invasion auf Norddeutschland hereingebrochen ist, zu einem Detektivspiel gegen die Zeit. Solange die Quellen nicht zweifelsfrei eingegrenzt werden können, ist es völlig angemessen, die Warnungen global und pauschal auf Gurken, Tomaten und Blattsalat auszuweiten.

Rund zwei Millionen Euro, so beklagen Landwirtschaftsvertreter, gehen dadurch täglich den Bauern an Einnahmen verloren. Ähnlich waren die Zahlen im vergangenen Februar, als Dioxin-Eier die Verbraucher in Atem hielten. Und ähnliches könnte sich wieder ereignen, wenn es nicht gelingt, die Quellen möglicher Verunreinigungen schneller und präziser identifizieren zu können. Die informationstechnischen Mittel, die Rückverfolgbarkeit von Lebensmitteln (und anderen Produkten, die Gefahr für Leib und Leben verursachen können) auch auf Erzeuger und deren Lieferanten und minutiös auch auf Großmärkte oder das Handwerk auszudehnen, sind längst da. Das Internet der Dinge, die Kommunikation von Waren und ihrem Status, ist längst Realität. Datenpools für ein übergreifendes Tracking- und Tracing-System gibt es bei jedem Online-Buchverkauf, warum nicht auch bei Food.

Tracking as a Service ist ein globales Thema – das spürt man selbst hier in Australien bei der Eröffnung der dortigen CeBIT-Dependance, wo „German Ehec“ ein Topthema ist. Tracking as a Service könnte die lebensrettende Maßnahme des Cloud Computings sein. Ein Thema nicht nur für Saure-Gurken-Zeiten, sondern vor allem für jene IT- und Exzellenz-Gipfel, in denen über die ganz großen Infrastrukturinvestitionen gesprochen wird. Der Ausstieg aus der Unsicherheit könnte sofort beginnen, ohne Super-GAU und Moratorium.

Wolkige Bettgesellen

Beinahe wäre die Mission beendet gewesen, bevor sie so richtig begonnen hatte: Aus dem Lautsprecher des Stockholmer Flughafens röhrte es „Mr. Steven Ballmer, please proceed to the information counter!“ Auf einen Schlag wussten Tausende Geschäftsreisende, dass der Microsoft-Chef in Skandinavien weilte. Die geheime Mission, die den energischen Boss der Windows-Company im Januar 2011 zum nebelbedingten Zwischenstopp auf dem Weg nach Helsinki zwang, war nun alles andere als geheim – dafür sorgte das Wall Street Journal, das sofort nicht nur die Nachtigallen trapsen, sondern auch die Nokia-Handys polyphon piepen hörte.

Doch der Deal gelang. Nokia-Handys werden nunmehr ausschließlich mit Windows Phone 7 ausgestattet. Der Super-GAU, nämlich dass Google mit Android Nokias Hoflieferant werden könnte, war abgewendet. Die Marktlage ist ohnehin schwierig genug: Ende 2010 reklamierte Microsoft mit Windows Phone 7 einen Marktanteil von 3,1 Prozent bei Smartphones, Google allerdings 32,9 Prozent. Überraschend war und ist nur das Folgende: Microsoft lässt sich den Deal mit Nokia, das ja nun wirklich nicht mehr in der vordersten Reihe bei Smartphones rangiert, aber immerhin mit 400 Millionen Geräten noch der größte Handyhersteller ist, eine Milliardeninvestition in die gemeinsame Entwicklung kosten. Nokia wurde der Verzicht auf das eigene, ohnehin abgeschriebene Symbian-Betriebssystem geradezu vergoldet.

Aber was ist schon eine Milliarde an Entwicklungskosten, wenn gleichzeitig 8,5 Milliarden Dollar für den Internet-Telefondienst Skype geboten werden? Die knapp 700 Millionen Skyper sollen künftig volle Integration auf der Xbox, Kinect und Phone 7 genießen. Und Microsoft hofft, mit Skype nicht nur einen weiteren Telefonkanal zu schaffen, sondern vor allem Videokonferenzen über Outlook und Office bieten zu können. Da ist die Ankündigung, dass Microsoft nun auch in RIMs Blackberry investieren will, schon fast eine Fußnote der Geschichte. Die – nach Marktzahlen zweitklassige – Suchmaschine Bing soll künftig von den Blackberrys favorisiert werden.

Für Nokia und RIM, die beide zuletzt nicht gerade Marktstürmer waren, dürfte das parallele Investment in mobile Internettelefonie – hier Smartphones, dort Voice over IP – irritieren. Microsoft ist offensichtlich händeringend auf der Suche nach Absatzkanälen, über die den Konkurrenten Apple und Google das Marketing-Wasser abgetragen werden kann. In der Theorie klingt es vernünftig. Die Praxis aber lehrt uns, dass sich Unternehmen mit jahrzehntelangen Technologieinvestments schwer tun, alte Pfade zu verlassen.

Doch der Dreier aus Skype, RIM und Nokia ist nicht die einzige merkwürdige Bettgesellschaft, die sich unter Microsofts Wolkendecke begibt. Blühende Landschaften sollen auch auf Microsofts Azure Platform entstehen, setzte SAP auf der Sapphire nach. SAPs „Landscape Management Software“, die die Verwaltung von öffentlichen und privaten Cloud-Installationen erlaubt, soll mit Microsofts Private-Cloud-Services verknüpft werden. Wann? Weiß man nicht.

Geradezu nebulös ist die Ankündigung der SAP auf der Sapphire, künftig auf die Cloud-Services von Amazon zu setzen. Das Announcement kam wenige Tage nach dem Schwarzen Karfreitag, an dem Amazons Cloud-Services crashten. Auf diesen sind aber jetzt sowohl SAP BusinessObjects-, als auch SAP-Rapid-Development-Lösungen verfügbar. Demnächst sollen auch die ERP-Suiten hierüber genutzt werden können. Dann müssten eigentlich noch Ankündigungen zu Netweaver auf dem Blackberry und Business by Design auf künftigen Nokia-Smartphones folgen. – In der Cloud wächst auch zusammen, was nicht zusammengehört.

OnPromise – IT wie sie sein sollte

Wer hat eigentlich diese unselige Dichotomie in die Cloud-Debatte gebracht: OnDemand versus OnPremise? Zurückkehrend von einem Einladungs-Meeting des Cloud-Consulting-Pioneer Saugatuck in New York hatte ich im Flugzeug genügend Muße, um sicherheitshalber die zurückliegenden 78 Bonnblogs noch einmal durchzulesen. Und ich kann nun freien Gewissens behaupten  – also ich nicht!

Der Cloud Business Summit hat noch einmal auf den Punkt gebracht, was schiefläuft an der laufenden Cloud-Debatte. Vor allem die Marketing- und Sales-People haben in den letzten drei Jahren die Welt verrückt gemacht mit der Formel: IT is moving to the cloud (and it will never return). In diesem Satz und seiner Coda in sotto voce stecken alle Missverständnisse und Urängste der wolkengestützten Datenverarbeitung: meine Serverfarm, mein Administrator, meine Programme und meine Daten verschwinden irgendwo zwischen hier und den Vereinigten Daten von Informesien.

Die Ursache für diese Urangst liegt in dem Postulat: Mit Cloud Computing können Anwender ihre Hardware aus dem Fenster werfen – die nächste Investition in old iron fällt aus. Dieses derzeit am häufigsten verwendete Verkaufsargument fürs Cloud Computing ist ein Kind des Elevator Pitch: Schnell, schlagend und – naja – nicht so völlig falsch, aber auch nicht so richtig richtig.

Saugatuck´s Business Summit, auf dem neben den großen Anbietern auch erfrischend viel Praxiswissen vertreten war, hat damit gründlich aufgeräumt. „Die OnPremise-Welt wird nicht verschwinden“, postulierte Saugatuck´s Vice President Lee Geishecker, sondern wird durch Cloud-Services angereichert. Darin aber besteht die Herausforderung für Chief Information Officers und IT-Leiter, die sich kreativ mit der Frage auseinander setzen müssen, wie sie ihre bestehenden hauseigenen Anwendungen durch zusätzliche Dienste erweitern, flexibler gestalten und in einer globalen und mobilen Welt verfügbar machen können. Die Private Cloud, die Wolke für die eigene Organisation, ist dabei eine natürliche Verlängerung der bisherigen OnPremise-Infrastruktur. Genau genommen haben schon heute die Mitarbeiter in einer weltumspannenden Organisation keinen blassen Schimmer, woher ihre Daten und Anwendungen eigentlich kommen. Und es geht sie auch tatsächlich nur eine feuchte Wolke an. Entscheidend ist, dass Daten und Anwendungen verfügbar, performant, sicher und valide sind.

Deshalb muss die Antwort auf die Frage nach OnDemand oder OnPremise auf jeden Fall heißen: On Promise. Liefert endlich die IT, die eure Anwender von euch verlangen – so lautet die Forderung an Anbieter und IT-Manager. Die Kunden wollen mehr Flexibilität, weniger Abhängigkeit von bestehenden Strukturen, die Fähigkeit zur Neugestaltung auch in komplexen und verzweigten Organisationen (neudeutsch: deployment) und natürlich die Dynamik und Skalierbarkeit, die eine ständige Anpassung an eine sich ständig verändernde Geschäftswelt wirtschaftlich möglich machen. Das ist die Erwartung an Cloud Services als Erweiterung der jetzigen residualen Infrastruktur.

Und diese Forderungen werden die Anwender durchsetzen – egal, ob der CIO an der Spitze der Bewegung steht oder nicht. Dieses Momentum hat sich in der IT-Welt schon zweimal ereignet: Erstens, als die Midrangesysteme ins Abteilungsbudget passten, und zweitens, als PCs in den persönlichen Haushaltsetat passten. Cloud-Services passen überall hin, ob der CIO will oder nicht. Der Wettlauf um die Cloud-Angebote ist ein Landrace auf die schönsten IT-Claims. Die Taschen öffnen sich noch immer demjenigen, der in der Lage ist, die getätigten Versprechungen zu (über)erfüllen. Cloud Computing ist der erneute Versuch, IT an ihren Ansprüchen zu messen: IT OnPromise!

Cetero Zensus

Wer sind wir – und wenn ja, wie viele? Fragen, mit denen sich die Philosophie seit drei Jahrtausenden befasst, sollen mit der heute beginnenden Volkszählung zumindest für Deutschland beantwortet werden. Auch wenn der erkenntnistheoretische Durchdringungsgrad gering sein mag, einen Erkenntnisgewinn versprechen sich die Statistischen Bundes- und Landesämter doch. Und ein Lehrstück über das Volksgemüt ist die Befragung ebenfalls: Im Unterschied zum Zensus des Jahres 1987 regt sich nämlich kaum Widerstand gegen die Ausleuchtung der Deutschen. Die Desensibilisierung durch die Sozialen Netzwerke, die Ausplaudern und Ausplündern von privaten Nichtigkeiten zum Volkssport werden ließen, hat längst gegriffen. Und auch wenn dann bei Sony auch noch personenbezogene und (fast noch schrecklicher) kontenbezogene Daten flöten gehen, bleibt der Aufschrei aus. Der  Wutbürger ist längst abgestumpft gegen Datenklau und Aushorchung. Phishing for Complement als Kavaliersdelikt.

Wohlgemerkt: der Vergleich zwischen Volkszählung und Datenspionage bezieht sich nicht auf den Akt selbst – hier muss man genau unterscheiden zwischen Recht und Unrecht. Erstaunlich aber ist, dass der passive Umgang mit Informationen über die eigenen Lebensumstände immer laxer wird. Die Wachheit gegenüber der Selbstauskunft und Selbstaushorchung nimmt, so scheint es, kontinuierlich ab. Informationelle Selbstbestimmung ist ja nicht nur ein Recht des Individuums auf Datenunversehrtheit, das nachträglich eingeklagt werden kann, sondern auch eine Selbstverpflichtung, sorgfältig mit schützenswerten Informationen umzugehen.

1987, als die Bürgerproteste gegen die Volkszählung ein Mobilisierungspotenzial entfachten, das gut und gerne mit dem der Stuttgarter Wutbürger verglichen werden kann, herrschte die Vorstellung vor, dass einmal erfasste Daten in weltweit vernetzten Großrechnern verschoben und rasterfahndend ausgewertet werden können. Heute, wo die Rechnerwelten in der Tat weltweit vernetzt sind, geht dieses Gespenst kaum noch um. Seit vernetzte Computer ubiquitär und nicht mehr elitär sind, wird fälschlicherweise angenommen, auch das Datensammeln sei Allgemeingut – ein Volkssport sozusagen. Tatsächlich aber ist der Nutzen große Datenerhebungen immer noch hermetisch. Das erklärt die hochpreisigen Verkäufe, die sich mit Bankendaten erzielen lassen.

Der Nutzen, der sich aus dem Zensus 2011 erzielen lässt, wird ohnehin unter Wert verkauft: die EU verlange alle zehn Jahre neue Daten, der Länderfinanzausgleich lasse sich gerechter berechnen, die Wirtschaft könne gezielter investieren, der Staat genauer planen. Um diese hehren Ziele zu erreichen, werden in den kommenden Wochen rund 700 Millionen Euro für Werbung, Internetportale (www.zensus2011.de), Informationskampagnen und schließlich für die rund 80.000 Interviewer (7,50 €uro pro ausgefüllten Fragebogen) in die Hand genommen. Die Kosten werden gedeckelt, weil tatsächlich nur eine Stichprobe von 8 Millionen Menschen befragt wird. Hinzu kommen rund 17,5 Millionen Immobilienbesitzer (inklusive der rund 33.000 Immobilienunternehmen). Der Rest sind statistische Grundrechenarten und Datenbankabgleiche.

Und dann? Erste Ergebnisse werden im kommenden Jahr vorliegen, das vorläufige amtliche Endergebnis ist für 2013 angekündigt – ein Zeithorizont, der irgendwie nicht so ganz in die Zeit des Instant Messaging und der Suchmaschinen zu passen scheint. Von den Sozialen Netzwerken ist man inzwischen höhere Wachstumsraten und schnellere Antwortzeiten gewohnt – allerdings auch weniger Sorgfalt.

Und da wirkt der Datenklau bei Sony wie ein Warnzeichen zum Auftakt des Zensus 2011: Je weniger man sich auf die Sorgfalt anderer verlassen kann, umso weniger auskunftsfreudig sollte man sein. Die Bundesregierung will hier zukünftig mit einer „Stiftung Datenschutz“ aufklären und aufwecken. Jetzt wäre die Zeit dafür…