Das IoT ist tot, es lebe die IoT!

Der Mörder ist mal wieder ein Gartner-Analyst: Das Internet of Things (IoT) – oder Internet der Dinge – ist noch gar nicht richtig geboren, da ist es auch schon wieder tot. Das Internet der Dinge benennt nämlich nur die Infrastruktur; viel wichtiger aber ist, was man damit macht. Information of Things (IoT) – also die Information über die Dinge – sind das entscheidende Momentum bei der Digitalisierung der Welt.

Und in der volldigitalisierten Welt sind Informationen immer und überall und über alles. Die Gartner Group, die soeben ihre jährliche Synode zu Glaubensfragen der Informationswirtschaft in Orlando, Florida, abgehalten hat, sieht uns alle allmählich im Cyberspace angekommen, also in der Matrix oder wie es auf Gartner-Sprech heißt: Digital Mesh.

Der Begriff ist gefährlich, denn er erinnert nicht nur an Mischmasch, sondern steht im Englischen sowohl für Netz oder Netzwerk als auch für das Sieb, dem ja bekanntlich das Vergessen sprichwörtlich ist. Doch in der Gartner-Interpretation ist der Mischmasch aus unterschiedlichen persönlichen Endgeräten, die sich untereinander synchronisieren, eine der Herausforderungen der kommenden Jahre. Sie wird die CIOs in Atem halten, die dafür sorgen müssen, dass die PCs, Smartphones, Tablets, Scanner, Netzdrucker oder Handhabungsautomaten auf dem gleichen Informationsstand sind. Es ist auch die Herausforderung für Information-Broker, die dafür sorgen werden, dass jedermann auf jedem Endgerät nur die Informationen erhält, die ihn oder sie in der speziellen Situation auch benötigt. Also: Wer ein Handy privat und eins dienstlich mit sich führt, möchte auf dem einen nur Privates auf dem anderen nur Dienstliches haben – und was so dazwischen ist, auf beiden. Umgebungsbewusste Endgeräte oder „ambient user devices“ nennen wir das von jetzt an im Gartner-Idiom.

Aber damit nicht genug: Wir erhalten nicht nur situationsbedingt die Informationen, die uns in der entsprechenden Lebenslage erreichen sollen. Wir bekommen auch noch kontextspezifische Hintergrundinformationen mitgeliefert. Hier helfen nicht einfach nur Suchmaschinen – das ist ja sowas von out! -, sondern semantisch optimierte Datenbanken, die Wortfelder und Themengebiete ebenso auswerten können wie Grafiken und Bilder. Im Ergebnis sollen wir Wissen statt Daten erhalten.

Dazu brauchen wir natürlich nicht einfach nur das Internet, wie wir es kennen. Wir brauchen neuronale Netze, die die lernenden Suchmaschinen dabei unterstützen werden, zu erkennen, was die Welt (wenn auch nicht im Innersten!) zusammenhält – und vor allem, wie man in ihr navigiert. So wird es über kurz oder lang weiterentwickelte Varianten von Cortana (Microsoft) oder Siri (Apple) geben, jenen kontextsensitiven Spracheingabesystemen, die uns heute zwar kaum mehr sagen können als das Wetter von morgen, übermorgen aber schon den Zusammenhang zwischen Historischem und Dialektischem Materialismus (oder etwas ähnlich Kompliziertem) erklären. Und natürlich werden die gleichen Netze auch dafür verwendet, Fahrzeuge autonom über unser Straßennetz zu steuern und Drohnen ins Krisengebiet einzufliegen.

Gartner, was habt ihr genommen? Alles, was in Orlando als zehn Voraussagen für das Jahr 2016 verkündet wurde, wird kommen – nur nicht 2016! Soeben haben wir in Deutschland die ersten Teilautobahnen für Testfahrten mit autonomen Lastwagen freigegeben. Soeben hat der Mittelstand erkannt, welche Möglichkeiten hinter Industrie 4.0 stecken. Und soeben haben wir damit angefangen, unsere betriebswirtschaftlichen Lösungen auf die Datenflut des Internets der Dinge vorzubereiten. Und damit werden wir auch 2016 noch vollauf beschäftigt bleiben.

Bitte gebt uns etwas Zeit zum Luftholen, liebe Freunde von der Gartner Group. Es reicht nicht, Visionen zu haben. Man muss auch in der Lage sein, sie zu verwirklichen. Bislang hat die Arbeitsteilung ganz gut geklappt. Gartner hatte die Visionen, die Informationswirtschaft hat sie realisiert. Aber jetzt geht es einfach zu schnell.

Das Internet der Dinge ist noch lange nicht tot. Denn zunächst brauchen wir die Infrastruktur, ehe wir uns auf sie verlassen können. Und dann haben wir die Informationen über die Dinge und können uns damit beschäftigen, was wir damit anfangen. Es hilft nichts, wenn die Digitalisierung der Welt schneller voranschreitet als die Umgestaltung der Welt. Wir brauchen Zeit. Aber ich fürchte, bis dahin gibt es wieder eine Gartner-Synode oder gar IT-Konklave und der weiße Rauch wird aus dem Convention Center in Orlando aufsteigen und uns signalisieren: Visio est mortuus. Habemus novum visionem. – Die Vision ist tot, wir haben eine neue.

 

VW: Virtuelle Welten

Dass man auch zu schnell bloggen kann, hat die vergangene Woche bewiesen, als die Abgas-Manipulationen bei Volkswagen noch als Verdacht im Raum standen, bei Erscheinen des Blogs aber schon längst vom Wolfsburger Konzern eingestanden worden waren. Zwar geben auch die drohenden Milliardenstrafen keinen Anlass, daran zu zweifeln, dass Volkswagen wie auch die anderen Automobilhersteller mit der Digitalisierung unseres Lebens – ob nun in der industriellen Produktion oder im total vernetzten Leben – den „Erfolg wagen“ werden und alle Chancen für den Wettlauf um die Zukunft haben. Aber die Gegenwart ist für den deutschen Automobilbau und die Marke „Made in Germany“ doch deutlich düsterer. Soviel dazu.

Aber wie steht es um die Reputation der Software-Industrie? Welches Zutrauen dürfen wir in von Menschen veranlasstem und erstelltem Code haben, der unser Leben beeinflusst? Welche Sicherheit haben wir, dass Analysen, die sich auf Algorithmen stützen, auch tatsächlich stimmen?

Dass also nach dem VW-GAU die Zukunft ganz allgemein nicht mehr ganz so strahlend erscheint, liegt an diesem schleichenden Verdacht über den Realitätsbezug virtueller Welten – und von einem Algorithmus wiedergegebene Wirklichkeiten sind immer virtuell. Sie sind bereits interpretiert – und wie wir jetzt sehen können, mitunter auch manipuliert.

Denn was die – immerhin schon satte zehn Jahre alte – Software am Auspuff eines VW Diesel vortäuschen konnte, kann vom Grundsatz her jede Analysesoftware, wenn sie zugleich mit der Absicht konzipiert wurde, die wahren Ergebnisse im Sinne des Erfinders zu beeinflussen. Wenn also die Qualität eines Produkts während eines Tests im Sinne des Herstellers korrigiert werden kann, warum dann nicht auch während eines Fertigungsprozesses? Weniger Ausschuss? – Kein Problem, wir messen einfach unter bestimmten Bedingungen weniger genau!

Mehr Kranke? Kein Problem, wir messen einfach weniger genau und schreiben falsche Werte in die Gesundheitskarte!

Oder der umgekehrte Fall: bessere vermeintliche Wirkung der Therapie. Die EU hatte unlängst unzählige Medikamente vom Markt genommen, weil sich die für ihre Zulassung von einem indischen Unternehmen gefertigten klinischen Studien als gefälscht herausstellten. Wenn hier auch Datenmaterial per Hand manipuliert wurde, ist eine gefälschte Messmethode in ähnlich gelagerten Fällen doch durchaus denkbar.

Läuft der Reaktor heiß? Wer´s nicht weiß, dem wird’s nicht heiß.

Können wir wirklich sicher sein, dass die Überwachungsvereine und Qualitätsmanager tatsächlich jeden Test- und Versagensfall ausgeschlossen haben, wenn eine Software in den produktiven Betrieb geht?

Und selbst wenn: Die Börsencrashs der Vergangenheit haben gezeigt, dass auch Softwaresysteme, die genau das tun, was sie sollen, gerade dadurch, dass alle Broker auf ihre Empfehlungen vertrauen, die gleiche Aktion starten und damit den Crash in Millisekunden sogar noch beschleunigen. Nicht erst der derzeit anhängende Fall zum Schwarzen Montag wirft diese Frage auf.

Wir müssen in immer komplexeren Zusammenhängen denken und Entscheidungen treffen. Dies können wir meist nur, wenn uns Softwaresysteme dabei helfen, die Komplexität zu meistern sowie Zusammenhänge und Konsequenzen zu erkennen. Doch die Ergebnisse, die Softwaresysteme ausspucken, sind immer nur virtuelle Welten, also Abbilder der Wirklichkeit, die wir durch einen Filter sehen, den wir selbst geschaffen haben. Womit und zu welchem Zweck ist uns beim Benutzen dieser Software-Lupen nicht immer klar.

Die folgende Liste ist eine kleine Übersicht von softwareinduzierten Ausfällen und Fehlleistungen der letzten zwei Wochen:

25. September: Sparkassenautomaten lahmgelegt. Angeblicher Grund: Softwarefehler.

14. September: OB-Auszählung in Herne verzögert. Angeblicher Grund: Softwarefehler.

13. September: Falsche Elterngeldbescheide in Pankow verschickt. Angeblicher Grund: Softwarefehler.

Die Liste kann nur unter Vorbehalt gelten, denn ihr liegt eine Google-Auswertung zugrunde. Und ob die vollständig oder ungefiltert ist, dafür mag wohl niemand seine Hand ins Feuer legen.

Der VW-GAU ist nicht allein ein Sündenfall der Automobilindustrie. Er zeigt vielmehr auf, wie anfällig unsere digitale, unsere virtuelle Welt für Manipulationen sein kann. Wir müssen gewarnt sein, sonst stinkt nicht nur der Abgas-Skandal zum Himmel.

 

Nicht hilfreich

„Nicht hilfreich“ ist eine extrem dehnbare Formulierung – von unbrauchbar über unnötig oder überflüssig bis zum Vorwurf mangelnder Kooperation lässt sich alles hineininterpretieren. Etwas Positives ist dabei jedoch kaum zu erwarten. Im Berliner Politik-Sprech aber hat „nicht hilfreich“ eine geradezu vernichtende Bedeutung – vor allem, wenn diese Formulierung von der Kanzlerin kommt. Dann darf man sich als Urheber einer „nicht hilfreichen“ Maßnahme oder Äußerung durchaus durch das Kanzleramt  abgekanzelt fühlen.

Nun hat Angela Merkel möglicherweise nicht als deutsche Bundeskanzlerin gesprochen, als sie am Wochenende auf den Veranstaltungen „#cnight“ und „#CDUdigital“ die vom Bundesfinanzministerium zur Diskussion gestellten Pläne zur Besteuerung von Risikokapital als „nicht hilfreich“ bezeichnete. Die Pläne, Erlöse aus Streubesitz auch dann sofort zu besteuern, wenn sie reinvestiert werden, hatten mächtig für Aufregung in der Startup-Szene gesorgt. Denn die bisherige Praxis, die Besteuerung auszusetzen, solange der Erlös aus Risikokapital unmittelbar in weitere Engagements fließt, ist ein wichtiger Motivator für Venture Capitalists, sich immer und immer wieder in der Gründerszene zu engagieren. Deshalb hatte es bei Vertretern der Kapitalbeteiligungsgesellschaften und aus den Reihen der Netzwirtschaft wortreichen Widerstand gegeben. Die Internet-Startups – ohnehin mit dem Bloggen schnell bei der Hand – hatten über ihre Kanäle einen wahren Shitstorm erhoben. Motto: Wer in Deutschland Innovationen und neue Firmengründungen will, darf nicht die Elemente, die zur Belebung der Gründerszene dienen, mutwillig eliminieren. Florian Noell, Vorsitzender des Bundesverbands Deutsche Startups erkannte in den Plänen eine „Verunsicherung der Gründerszene“, was innerhalb des Berliner Politik-Sprech so viel heißt wie „nicht hilfreich“. Auch der Bonnblog hat sich dieser Argumentation angeschlossen.

Und auch die Kanzlerin scheint diesen Argumentationsgang für durchaus hilfreich zu halten. Sie stellte in ihrer Rede exakt den gleichen Zusammenhang zwischen Anreizen zur Risikokapitalisierung und der Innovationsförderung durch Startups her. Denn, so machte sie klar, in Deutschland müsse nun mal von Zeit zu Zeit etwas produziert werden, für das sich Abnehmer im Ausland interessierten. Das sei nur durch einen Mix aus etablierter Wirtschaft (brick and mortar) und der Internetwirtschaft (click and portal) möglich. Die Vertreter des Bundesverbands Deutscher Kapitalbeteiligungsgesellschaften und des Bundesverbands digitale Wirtschaft, die ausweislich der CDU-Homepage beide zu den Unterstützern der Veranstaltung gehört hatten, werden es mit Freude zur Kenntnis genommen haben.

Die Kuh scheint in der Tat vom Eis zu sein, wenn nicht sogar bereits erlegt. Die Kanzlerin sprach von diesen Plänen bereits in der Vergangenheitsform – so als hätte das Bundesfinanzministerium das Diskussionspapier bereits stillschweigend kassiert. Der „Tötungsvorgang“, so der O-Ton der Kanzlerin, sei bereits eingeleitet. Stattdessen soll das Startup-Gesetz nachgebessert werden. Deutschland braucht die „Digital Natives“, die mit dem Internet aufgewachsen sind, als Jungunternehmen, um, wie die Kanzlerin warnte, nicht als verlängerte Werkbank der Digitalkonzerne aus den USA und Asien zu enden. Das wäre in der Tat „nicht hilfreich“.

Komplizierte Compliance

Die Geschichte ist so klebrig wie eine viel genutzte Türklinke.

“Der Spiegel“ und „Fakt“ hatten Einsicht in den Schriftverkehr zwischen dem Top-Management der SAP und einem internen Prüfer – und berichteten darüber. Das ist die Aufgabe der Medien.

Der Prüfer war mit einem internen Audit rund um die Entwicklung der InMemory-Datenbank Hana befasst, hatte Missstände festgestellt und dem SAP Vorstand berichtet. Das ist die Aufgabe der Prüfer.

Das SAP Management ist der Sache nachgegangen, hat mehr Details und vor allem Beweise verlangt und sich in einem jahrelangen, sich allmählich verhärtenden Dialog mit dem Prüfer auseinandergesetzt. Das ist die Aufgabe des Managements. Ob es diese Aufgabe gut gelöst hat, sei einmal dahingestellt.

Der Mann, der im „Spiegel“ Sebastian Miller ist, ist kein Whistle Blower vom Schlage Edward Snowdens. Der hatte als Motiv für seine NSA-Enthüllungen höhere, ja hehre Ziele und dafür persönliche Verfolgung und Einschränkungen der Bewegungsfreiheit in Kauf genommen. „Sebastian Miller“ hat – ob willentlich und wissentlich ist unklar – über seinen Vater und Anwalt Millionenforderungen an seinen Arbeitgeber gestellt. Das Wort Erpressung steht im Raum.

Und SAP, dessen Gegenwart und Zukunft am weiteren wirtschaftlichen Erfolg der Hana-Architektur hängt? Zunächst einmal gilt die Unschuldsvermutung, auf die jede Rechtsperson – und eben auch Unternehmen – ein Recht hat. Das gilt erst recht, nachdem SAP die unselige Geschichte um die eingestandenen fünf Terabyte heruntergeladener Dokumentationen von Oracle und PeopleSoft schiedlich-friedlich beigelegt hatte. Und konkrete Beweise für eine Verletzung von Urheberrechten Dritter – im aktuellen Fall werden IBM, Oracle, RIM und Teradata genannt – scheinen bislang ohnehin nicht vorzuliegen.

Doch der Weg zur blütenweißen Compliance-Weste ist ohnehin ein schmaler Grat, den einzuhalten ständige Aufsicht über Projekte, Prozesse und Personal verlangt. Wo liegt die Grenze zwischen Inspiration und Konspiration, wenn zwei Technologiefirmen – wie im Falle von Teradata und SAP – über einen optimierten Datenaustausch zwischen zwei Datenbank-Architekturen diskutieren und dabei Schnittstellen, Technologien und Techniken offenlegen? Können Verschwiegenheitsverpflichtungen Mitarbeiter wirklich davor bewahren, eine fremde Idee aufzugreifen und so in die eigene Gedankenwelt zu übernehmen, dass kaum noch zu erkennen ist, wessen geistiges Eigentum hier tatsächlich berührt worden war?

Compliance ist kompliziert – deshalb müssen alle Beteiligten hellwach sein und selbstkritisch das eigene Verhalten prüfen, Regeln aufstellen und ihre Einhaltung überwachen. Aber Compliance ist auch deshalb kompliziert, weil die Grenze zwischen legal und legitim von niemandem vorgezeichnet werden kann. Und Urheberrechtsverletzungen sind in einer digitalisierten Welt noch komplizierter. Dies gilt erst recht, seit im Software-Markt Trivial-Patente für den noch so kleinen Code vergeben werden. Zwischen Kapieren und Kopieren ist da kaum noch eine sichere Demarkationslinie zu ziehen. Das Plagiat beginnt bei falsch zitierten Quellen und endet nicht beim Auskundschaften fremden Datenmaterials.

So wenig konkret die Anschuldigungen sein mögen – so konkret ist der Schaden, den ein Unternehmen aus diesen Vorwürfen ziehen kann. Im aktuellen Fall hat der Prüfer selbst den kumulierten Schaden für die SAP, der sich aus Schadensersatzzahlungen, Strafen und Wertverlust ergeben könnte, auf satte 35 Milliarden Euro beziffert. Ein Horrorszenario für jedes Unternehmen. Der aktuelle SAP-Kurs gibt bereits nach.

Der Mann, der im „Spiegel“ Sebastian Miller ist, hat jetzt schon Geschichte geschrieben. Ob diese Geschichte einmal unter seinem Klarnamen geschrieben werden wird, ist fast schon unerheblich. Es ist die Geschichte, wie kompliziert Compliance ist – und wie leicht ein Vorwurf zur Vorverurteilung werden kann. Das Gerücht ist nun mal schneller als das Gericht.