Executive Order

Für Jack Ryan wäre es einfach nur eine weitere unfassbare Katastrophe. Tom Clancys fiktiver US-Präsident, der nach der Vernichtung des kompletten Kabinetts und des Kongresses, allein gegen den nationalen Feind steht und per Executive Order regieren muss, wäre der richtige Mann für einen künftigen Cyberkrieg. Vor dem sehen sich die Vereinigten Staaten nur unzureichend geschützt. Doch Maßnahmen, die zu mehr Schutz führen könnten, versinken derzeit im Schlamm des US-Wahlkampfs.

Die USA – und viele andere Nationen auch – sehen ihre Infrastruktur gefährdet: das ohnehin überlastete Stromnetz, die Gas- und Ölleitungen, die Telefonverbindungen oder die New Yorker Börse – alles das könnte Ziel eines Hackerangriffs sein. Vielleicht, so die Sorgen der amerikanischen Heimatschutzbehörde, sind die Vorbereitungen schon im Gange. Die Sicherheitsmaßnahmen hingegen stecken in der Vergangenheit fest. Beklagt wird, dass Behörden nach technischen Vorgaben arbeiten und Produkte spezifizieren, deren Sicherheitsstand deutlich hinter den Möglichkeiten der modernen Hacker-Terroristen liegen dürfte. So werden beispielsweise Firewalls als Sicherheitsstandard gepriesen, während Hacker heute die geschützten Ports mit ein paar Fingerübungen umgehen können.

Abhilfe schaffen sollte der Cybersecurity Act, der Unternehmen und Organisationen auf ein neues Sicherheitsniveau einschwören sollte. Doch die Obama-Initiative scheiterte letzte Woche an der republikanischen Mehrheit im Senat. Die Sicherheitsnovelle geriet in der Tat von allen Seiten unter Beschuss: den Republikanern waren die Eingriffe in die Entscheidungsfreiheit der Unternehmen zu hoch, den Liberalen gingen die Angriffe auf die persönliche Privatsphäre zu weit.

Jetzt will US-Präsident Obama die ultimative Trumpfkarte ziehen und das Sicherheitsgesetz per „Executive Order“ durchsetzen. Damit könnte er zumindest die amerikanischen Behörden auf eine neue Verteidigungslinie im Krieg der Computerwelten einschwören. Einen Einfluss auf Corporate America hätte ein solches Machtwort freilich nicht.

Anders als in Tom Clancys Roman sind Executive Orders kein ganz großes Ding. Es steht weniger für einsame Entscheidungen als für ein Machtmittel, mit dem unmittelbar durchregiert werden kann. Der wohl bekannteste Ukas erschien nach dem 11. September 2011, um den Umgang mit ausländischen Terroristen zu verschärfen.

In dieser Tradition könnte sich das geplante Obama-Machtwort einordnen. Denn die amerikanischen Sicherheitsbehörden fürchten einen schlafenden Löwen, den sie selbst durch ihre offenkundige Beteiligung an der Entwicklung und dem Einsatz von Stuxnet im Iran geweckt haben. Der Zentrifugen-Wurm hat der Welt nicht nur aufgezeigt, was heute technisch möglich ist. Er hat auch verdeutlicht, welche moralischen Zäune zwischen Staaten eingerissen werden. In den USA wird befürchtet, dass sich künftige Gewalt nicht vor Botschaften, sondern in Netzwerken manifestiert.

Was freilich für staatliche Einrichtungen gilt, muss auch für Unternehmen und andere Organisationen gelten: Die Sicherheitsvorkehrungen setzen in der Regel die Erkenntnisse von gestern um – doch der technische Fortschritt geht weiter. Auch Stuxnet ist längst nicht mehr der letzte Stand der Technik. Aktuelle Umfragen zeigen zudem, dass für IT-Leiter die ungeklärten Sicherheitsfragen nach wie vor das wichtigste Argument gegen ein Engagement in der Cloud darstellen. Da hilft dann auch keine Executive Order.

Ein Atlas für Smart Logistics

Deutschland hat viele Zentren – anders als beispielsweise Frankreich oder Großbritannien. Wegen des besonders stark vertretenen Mittelstands gibt es hierzulande besonders viele Marktteilnehmer. Und wegen der guten Web-Infrastruktur greifen auch immer mehr Menschen auf die Möglichkeit zurück, Waren online zu bestellen. Drei Faktoren, die Deutschland zum Logistikland Nummer 1 zumindest in Europa machen. Denn wenn viele Teilnehmer an vielen Standorten häufig beliefert werden müssen, dann ist logistische Effizienz und Planungssicherheit gefordert.

Die Mittellage in Europa hat Deutschland zur ersten Logistikadresse gemacht. Aber der Spitzenplatz ist in Gefahr. Im August beklagte der Bundesverband Großhandel, Außenhandel, Dienstleistungen (BGA), dass der Weltmeistertitel in der Logistikdisziplin verloren geht, während Hongkong, Singapur und Finnland nun einen Podiumsplatz erobert haben. Gerade die Mängel im Güterverkehr hätten sich inzwischen zur Wachstumsbremse ausgewachsen, klagt der Interessensverband.

In diese Klage haben jetzt auch Professor Henning Kagermann, ehemaliger Vorstandsvorsitzender der SAP und Leiter der Nationalen Plattform Elektromobilität, sowie Prof. Michael ten Hompel, Leiter des Fraunhofer Instituts für Materialfluss und Logistik, auf dem Zukunftskongress Logistik in Dortmund eingestimmt. In 13 Handlungsempfehlungen stellten beide eine Mobilitätskarte für Deutschland in den Mittelpunkt ihrer Forderungen, mit deren Hilfe Investitionen besser koordiniert und zwischen Personal- und Güterverkehr abgestimmt werden können.

Vor allem die Entwicklung des World Wide Web setzt die Logistik in praktisch allen Lebensbereichen vor immer neue Aufgaben und Massenprobleme. In der Arbeitswelt, im Konsumverhalten der privaten Verbraucher und angesichts immer stärker ausgelebter Mobilität stehen Planung und Lenkung von Verkehrsströmen unter permanentem Optimierungsdruck. Der Ausbau der Verkehrsinfrastruktur halte damit ebenso wenig Schritt wie die Weiterentwicklung von Methoden bei der Optimierung von Waren- und Verkehrsflüssen.

In der Tat mutet es vorsintflutlich an, wenn langfristig ausgelegte Verkehrsplanungen getrennt für den Personen- und den Güterverkehr angesetzt würden. Das wäre etwa so, als würden im Internet zwei unterschiedliche Ausbaupläne für die Verbreitung privater und dienstlicher Mails existieren. Tatsächlich sorgt aber ein Anstieg auf der einen Seite zu einem Engpass auf der anderen. In der Planung aber wird dies derzeit nicht, oder zumindest kaum, berücksichtigt.

Der jetzt vorgeschlagene Logistik- und Mobilitätsatlas soll hingegen Daten liefern, die Auskunft über Qualität, Zuverlässigkeit, Effizienz und Nachhaltigkeit von Mobilitätsleistungen geben. „Die Logistik muss sich zu einer Hightech-Branche entwickeln, um im globalen Wettbewerb bestehen zu können“, sagte Henning Kagermann am Rande des Zukunftskongresses Logistik in Dortmund.

Ziel der Logistikforschung muss es sein, die ständig steigende Komplexität von Lieferprozessen im Zeitalter des Internethandels beherrschbar zu machen, um daraus Effizienz- und Wettbewerbsvorteile zu generieren“, ergänzte Projektleiter ten Hompel. Er sieht die Zukunft im Einsatz kombinierter Logistik- und Business-Software, Cloud-basierter Dienste und kollaborativer Geschäftsprozesse – kurz Smart-Logistics.

Europas Schutzschirm

Samsung und Apple, Google und Microsoft – der Wettbewerb um die besten Plätze im mobilen Internet wird mit harten Bandagen ausgetragen. Nicht nur am Markt, sondern mehr und mehr auch vor Gericht stehen sich die Rivalen gegenüber, um Positionskämpfe auf der Basis von Patenten und Produktideen auszufechten. Das ist aufreibend und kostentreibend – letzteres zumindest für jene, die vor Gericht unterliegen…

Microsoft hat derzeit zumindest einen Gegner mehr als die anderen: denn Microsoft hat noch immer mit den Auswirkungen des Antitrust-Verfahrens von 2009 zu kämpfen. Damals, so monierten die Europäischen Wettbewerbshüter, hatten Windows-Anwender keine Wahl, mit welchem Browser sie im Internet surfen wollten. Die enge Verknüpfung von Windows und Internet Explorer verschaffe Microsoft einen ungebührlichen Wettbewerbsvorteil.

Die Einigungsformel von damals, die bei der Installation von Windows einen Auswahlbildschirm für alle marktgängigen Browser vorsah, scheint allerdings in Vergessenheit geraten zu sein. Zumindest bei Microsoft: 28 Millionen europäische PC-Benutzer, so klagte jetzt EU-Wettbewerbskommissar, Joaquin Almunia, haben seit dem Release von Windows 7, Service Pack 1, diesen „Browser Ballot“ nicht mehr zu sehen bekommen.

Microsoft hatte den Fehler nicht nur eingestanden, sondern zugleich versichert, dass bis 2014 wieder alle Windows-Anwender den Auswahlbildschirm erhalten sollen – auch  dann, wenn sie Windows 8 installieren wollen. Da aber beginnt das Problem: Während der Internet Explorer 10 sowohl in der klassischen Benutzeroberfläche als auch unter der „Kachel-Version“ der in der letzten Woche vorgestellten Surface-Tablets läuft, beklagen Wettbewerber, dass sie bislang keine Möglichkeit hatten, ihren Browser entsprechend anzupassen.

Ist das jetzt Marktvorsprung oder Monopol? In einer Zeit, in der „runde Ecken“ zum einklagbaren Wettbewerbsvorteil werden, könnte eine optimale Integration zwischen Betriebssystem und Browser ähnlich bewertet werden. Immerhin ist das Zusammenspiel zwischen Systemsoftware und Internet-Zugang das entscheidende Feature eines mobilen Internet-Endgeräts. Das sollte dann auch für Windows 8 gelten.

Denn davon will Microsoft-Chef Steve Ballmer binnen Jahresfrist bis zu 400 Millionen Devices produziert sehen. Auf diese stattliche Summe sollen sich Smartphones wie Nokia Lumia und Samsungs ATIV sowie die Desktops, Laptops, Tablets und Hybridgeräte kumulieren. Mehr als ein Viertel davon sollten in Europa Käufer finden. Ihnen soll und muss Microsoft nun wieder die Wahl lassen – auch wenn sie unter der Touch-Oberfläche nur eine theoretische ist.

Gleichzeitig kündigte Microsoft an, künftig für Entwickler eine standardisierte Plattform anzubieten, mit deren Hilfe schnell und umfassend Anwendungswelten und Apps für die Windows 8-Umgebung geschaffen werden sollen. Dass hier auch gleichzeitig eine Wahlfreiheit für den Browser als Zielsystem gegeben werden muss, ist kaum anzunehmen, solange die volle Funktionalität der Touch-Oberfläche unter Windows 8 nur mit dem Internet Explorer 10 gegeben zu sein scheint. Es wäre dann nicht das Monopol, sondern die Anziehungskraft einer Marktmacht, die die Browser-Entscheidung beeinflusst.

Dennoch ist Microsoft nicht aus dem Schneider. EU-Kommissar Almunia hat bereits angekündigt, dass er Sanktionen gegen Redmond untersucht. Die könnten fällig werden, auch wenn jetzt der Browser Schutzschirm wieder aufpoppt. Die Höchststrafe wären zehn Prozent des globalen Umsatzes: also bis zu 5,7 Milliarden Euro.

Qualität – ISST – Zukunft

So vergeht die Zeit: Vor 20 Jahren wurde Windows 3.1 freigegeben – die Version, die letztlich den Durchbruch für die Microsoft-Oberfläche brachte. Sie war aber auch der Durchbruch für zahllose Programmierer, die mit Tools und Töölchen, mit Programmen und Progrämmchen die Welt des Personal Computings bereicherten – oder auch verseuchten. Denn noch nie hatte die wunderbare Welt der Software eine solche Entwicklungsexplosion erlebt wie zu Beginn der neunziger Jahre. Und noch nie war so viel lausiger Code geschrieben worden…

„Software ist wie Bananen – sie reift beim Kunden“ – dieser bitterböse Satz fasst die Erfahrungen der damaligen Zeit zusammen. Sicher – auch heute ist fehlerfreie Software ein Ideal, das wir – wie alle Ideale – nicht erreichen. Interessanterweise gibt es auch immer noch kein fehlerfreies Buch – obwohl wir seit 3000 Jahren über Schriftsprache und seit 500 Jahren über den Buchdruck verfügen.

Vor 20 Jahren wurde auch das Fraunhofer Institut für Software- und Systemtechnik gegründet – und zu seinem Jubiläum sei ihm und seinem Institutsleiter, Prof. Dr. Jakob Rehof, herzlich gratuliert. Es ist irgendwie selbsterklärend, dass der ehemalige Qualitätsmanager bei Microsoft dieses Institut 2006 übernommen hat, das sich für mehr Softwarequalität einsetzt…

Anfang der neunziger Jahre – das war auch die Zeit der großen Software-Architekturen. Ich erinnere mich gut an IBMs San Francisco Initiative, die ein weltweites Konsortium von Softwarehäusern zusammenschmiedete, um ein für alle Anwendungsfälle gültiges Application-Framework zu entwickeln. Die Initiative traf sich stets in der Stadt am Golden Gate – mit ebenso gejetlagten australischen wie europäischen Teilnehmern. Heraus kam ein Architektur-Ungetüm, das zwar alle Eventualitäten bis zum japanischen Kaiserkalender einschloss, aber im praktischen Einsatz eher die Erwartungen nicht erfüllen konnte. Mega-Architekturen haben damals praktisch alle globalen Anbieter entwickelt – mit im Vergleich zum Aufwand äußerst überschaubarem Erfolg. Denn die Ökonomie der Softwarewelt entwickelte sich stets dynamischer als die Architekturen, die ihr Ordnung geben sollten.

In dieser Zeit war das ISST angetreten, um mehr Qualität in die mittelständische Softwarewelt zu bringen. Getreu dem Fraunhofer-Prinzip, Grundlagenforschung mit Wirtschaftsförderung zu verbinden, entwickelten die Forscher in Dortmund und Berlin mittelstandstaugliche Konzepte, wie mit ingenieurmäßigen Methoden mehr Qualität für Anwendungen und Systeme herauszuschlagen ist. Aus der Softwarebranche wurde eine Softwareindustrie. Sie hat – gerade am Standort Deutschland – wichtige Exportartikel hervorgebracht: wenn „Made in Germany“ unveränderte hochwertige Automobile und Maschinen bedeutet, dann auch, weil in ihnen programmierte Intelligenz schlummert, die Komfort und Sicherheit garantieren.

Jetzt – in der Ära des „Web 3.1“ – stehen wir vor der gleichen Herausforderung: Mit Apps und Services aus der Cloud, deren Herkunft und Qualitätsniveau vom Anwender nicht eingeschätzt werden kann, stehen wir wieder in einer Pionierphase, wie sie Anfang der neunziger Jahre bestand. Der Bedarf an Architekten, die uns Hilfestellung dabei geben, qualitätsorientierte Software zu schreiben, ist unverändert hoch. Das mobile Web fordert unabhängige Qualitätswahrer – und mit dem Internet der Dinge, das die Zahl der möglichen Anwendungen und Dienste noch vervielfachen wird, ist der Druck auf Qualität noch wesentlich höher. Was würde geschehen, wenn Millionen Maschinen nach einer Pfeife tanzten, die nicht gestimmt ist? Wir brauchen Normen für funktionssichere Software, die von unabhängigen Forschern erarbeitet werden. Das ISST unsere Zukunft.