Spekulative Aushorchung

„Kernschmelze“ und „Gespenst“ sind wahrlich nicht zu niedrig gegriffene Schlagworte für das möglicherweise größte anzunehmende Unbehagen der Informationswirtschaft. Wir wissen nicht einmal, wie viele Milliarden Prozessoren mit den jetzt vorgefundenen Sicherheitslücken weltweit im Einsatz sind. Die Chipproduktion seit 1995 – also seit mehr als 20 Jahren – ist sozusagen kontaminiert.

Das Einfallstor, durch das nach Ansicht der Sicherheitsforscher bislang noch kein Angriffsversuch unternommen wurde, ist eine im Grunde äußerst wünschenswerte Einrichtung: „Speculative Execution“ – zu deutsch: „Spekulative Ausführung“ – ist eigentlich ein Klassiker der Prozessorbeschleunigung. Der Chip mutmaßt, welche Daten als nächstes benötigt werden, und lädt sie schon mal runter. Dabei sind dann auch verschlüsselte oder geschützte Daten auf der Hardwareebene unverschlüsselt verfügbar. Meltdown macht sich das zunutze, indem der Prozessor aufgefordert wird, die eigenen Daten sozusagen spekulativ auszuhorchen. Durch Software kann dieser Prozess weder bemerkt noch unterbunden werden.

Eigentlich. Doch seit Monaten arbeiten die großen Anbieter von Betriebssystemen und Geräten an einer softwareseitigen Lösung. Sie sollte eigentlich am 9. Januar – also am Dienstag – weltweit als Update bereitgestellt und in den Data Centern der größten Cloud-Anbieter installiert werden. Doch eine derart weltumspannende Reparatur ließ sich wohl nicht mehr länger verheimlichen. In den USA tauchten erste Berichte von hektischen Update-Aktivitäten auf, die Spekulationen über ein anstehendes IT-Großereignis schürten. Dass es so groß und so niederschmetternd für eine ganze Industrie, ja für unsere komplette Art zu leben, zu arbeiten, zu kommunizieren sein würde – das hatte wohl niemand ahnen können.

Außer jenen Anbietern – darunter Microsoft, Google und Amazon –, deren IT-Ökosphäre durch die Sicherheitslücke in größte Gefahr geraten würde. Seit Juni letzten Jahres – heißt es – arbeiten die Hersteller an einem Software-Update, dass diese Lücke zwar nicht endgültig schließt, aber doch wenigstens schwerer nutzbar macht. Endgültige Sicherheit wird wohl nur ein kompletter Austausch der Hardware bringen. Aber wie soll das gelingen?

Wer jetzt an Dieselgate denkt, ist kein Schelm. Ohne die Möglichkeit der schnellen Hilfe durch ein Software-Update stünde die Welt an einem Abgrund – denn Milliarden Prozessoren kann man nicht einfach mal so eben austauschen. Allein sie zu produzieren, würde die Produktionskapazitäten aller Chiphersteller aufbrauchen. Sie auszutauschen ist in vielen Fällen ebenfalls nicht möglich – wer weiß schon, wo er welchen Chip im Einsatz und am Netz hat.

Da ist es fast ein Segen, dass die Dematerialisierung unserer Produktwelten so weit fortgeschritten ist, dass die notwendigen ersten Sicherheitsmaßnahmen über ein Software-Update erfolgen können. Und es ist zugleich ein Segen, dass inzwischen Hunderttausende Unternehmen ihre Anwendungen nicht mehr im betriebseigenen Rechenzentrum, sondern in der Cloud haben. Dort – und das ist durchaus ein Wettbewerbsvorteil – haben die großen Anbieter wie Microsoft, Google und Amazon längst die Nase vorn. Sie wurden bereits früh durch die Hackerforscher informiert – denn nur sie können es sich leisten, diese extrem aufwändigen Forschungsarbeiten auch zu finanzieren.

Wie komplex das Software-Update ist, zeigt sich daran, dass beispielsweise Microsoft davor warnt, das Update erst auszuführen, wenn auch die Antivirus-Hersteller wiederum ihre Updates bereitgestellt haben. Denn die bestehenden Schutzsoftware-Versionen werden aktiv, wenn nicht unterstützte Aufrufe in den Speicher des Kernels getätigt werden. Erste Antivirus-Anbieter haben allerdings schon reagiert und ebenfalls Updates zur Verfügung gestellt.

Andere Anbieter ziehen jetzt in einem zweiten Schritt nach. Und Millionen von Unternehmen, die ihre Lösungen unverändert im eigenen Betrieb hosten, werden in den kommenden Wochen folgen. Oder nichts tun. So unfassbar das erscheinen mag, aber die Zahl der Menschen, die auch nach Bekanntwerden einer Sicherheitslücke nur schulterzuckend beiseite gehen, ist immer noch erschreckend hoch.

Oh, dabei fällt mir ein: Ich sollte jetzt meinen PC runterfahren und dann das neue Sicherheitsupdate hochladen. Oder gleich alle Daten und Anwendungen einem seriösen Cloud-Anbieter anvertrauen. Und morgen kaufe ich einen neuen Computer – mit bugfreien Prozessoren gegen spekulatives Aushorchen.

Aber erst morgen…

 

Digitalien – Geteiltes Land

Eine Studie der Management-Schule WHU hat jetzt gezeigt, dass selbst unter den Unternehmen in Deutschland, die unter starkem Modernisierungsdruck stehen, die Formulierung einer ganzheitlichen Digitalstrategie die Ausnahme ist. Lediglich 20 Prozent der Befragten sehen sich so weit. Die Hälfte der Unternehmen hat immerhin die Zuständigkeiten für eine Strategie der digitalen Innovationen und Geschäftsmodelle benannt. Ebenfalls die Hälfte sieht sich immer noch zu schlecht über die Themen und Technologien der digitalen Innovation informiert. Und ebenfalls 50 Prozent – vermutlich die gleiche Hälfte – versteht das Thema Digitalisierung vor allem als Angriffspunkt für weitere Rationalisierungsschritte und zur Kostenersparnis.

Deutschland, geteiltes Digitalland. Dieser Eindruck drängt sich nicht nur bei der Befragung von Unternehmen und Managern auf. Auch die Versorgung mit der geeigneten Infrastruktur sorgt hierzulande für ein geteiltes Bild. Die einen – stadtnahen Nutzer – verfügen über große Bandbreiten im Internetverkehr. Die anderen – ländlichen Bewohner – müssen noch immer ihr Handy aus dem Fenster halten, wenn sie einen vernünftigen Empfang haben wollen. Hier wiederholt sich die Erfahrung aus der Einführung der Elektrizität: Das Land teilt sich in diejenigen, die über das Licht der Informationstechnik verfügen, und diejenigen, für die das nicht gilt. Die im Dunkeln sieht man nicht, sang Bertolt Brecht (in einem etwas anderen Zusammenhang).

Dass die Beurteilung der digitalen Gaben auch in der Bevölkerung in zwei Lager – aus Befürwortern und Gegnern – teilt, muss da nicht überraschen. Die Beratungsfirma PricewaterhouseCoopers hat jetzt Bundesbürger in einer repräsentativen Befragung nach ihrer Einschätzung der künstlichen Intelligenz befragt und ebenfalls ein in der Hälfte gespaltenes Land vorgefunden. Dass künstliche Intelligenz bei der Bewältigung der drängendsten und komplexesten Fragen der Menschheit – wie dem Klimawandel, demographischen Wandel oder medizinischen Herausforderungen, aber auch Schutz vor Cybercrime – helfen könnte, glaubt jeweils ziemlich exakt die Hälfte der Befragten.

Im Prinzip nehmen sogar neun von zehn Befragten an, dass KI in irgendeiner Form dabei helfen kann, bestehende Probleme zu meistern. Aber das bedeutet noch lange nicht, dass KI-Forschung und KI-Systeme positiv konnotiert sind. 51 Prozent finden, dass KI negative Emotionen auslöse. Und dass künstlich intelligente Systeme künftig Arbeitsplätze vernichten werden, davon sind sogar zwei Drittel der Befragten überzeugt.

Die Umfragen zeigen eine klassische Umbruchsituation, wie sie nur mit der industriellen Revolution verglichen werden kann. Rund um die Dampfmaschine, die Eisenbahn und die Elektrifizierung haben sich seinerzeit viele absurde Mythen etabliert – wie die, dass der Mensch für die hohen Geschwindigkeiten nicht geschaffen sei. Tatsächlich zeigt sich auch heute, dass das Wissen über die Möglichkeiten und Limitierungen der künstlichen Intelligenz durchaus auch Anleihen aus dem Märchenland nimmt. Zwar haben nur sechs Prozent der Bevölkerung den Begriff „künstliche Intelligenz“ noch nie gehört. Doch drei von fünf Bundesbürgern können nicht erklären, worum es sich tatsächlich dabei handelt.

Wir brauchen eine neue Epoche der Aufklärung, in der wir den Menschen nicht nur auf die naturwissenschaftlichen Füße stellen, sondern auch seinen Kopf auf eine informationstechnisch-kognitive Zukunft ausrichten. So wie auch die nächste Bundesregierung den Breitbandausbau auf ihre Fahnen schreiben und die nächsten Fördermilliarden für digitale Projekte bereitstellen wird, muss sie auch beim Bildungsausbau in Deutschland kräftig nachlegen. Derzeit – auch das ist ein aktuelles Ergebnis – fehlen jährlich zwölf Milliarden Euro, wie das Institut der deutschen Wirtschaft in seinem Bildungsmonitor berechnet. Vom Kindergarten bis zur Hochschule besteht durchgehender Investitionsbedarf, um den Herausforderungen des demographischen wie des digitalen Wandels zu begegnen.

Denn das wissen die Bundesbürger über künstliche Intelligenz immerhin: Sie wird komplexere, kreativere, vernetztere, ganzheitlichere Arbeitsplätze schaffen und die Kärrnerarbeit den Maschinen überlassen. Nur zehn Prozent der Befragten glauben, dass künstliche Intelligenz Kreativität hervorbringt. Allerdings traut jeder Vierte der Technologie zu, im Jahr 2025 einen Nummer-Eins-Hit zu schreiben.

Oder sollte sich ereignen, was bereits mit dem Smartphone bei der Verbreitung des mobilen Internets zu beobachten war. Seit Jahren sind es nämlich die Internet-Giganten aus dem Silicon Valley, die dabei helfen, digitale Fertigkeiten einzustudieren. Ihr Erfolgsgeheimnis ist Convenience. Was leicht fällt, wird auch akzeptiert, wenn nicht gar geliebt. Es wäre nicht unwahrscheinlich, wenn dieser „Bildungsauftrag“ auch bei den aktuellen Digitaltechnologien durch Google, Amazon und Apple erfüllt wird. Denn schon ein Drittel der befragten Bundesbürger will zuhause einen digitalen Assistenten haben. Ebenso viele wollen sich durch künstliche Intelligenz bei der Steuererklärung helfen lassen. Und 28 Prozent wollen lieber mit einem KI-System als im Volkshochschulunterricht eine neue Sprache lernen.

Und nicht zuletzt: Den Papierkram im Job würden 22 Prozent doch ganz gerne einem digitalen Assistenten überlassen. Geteiltes Leid ist eben halbes Leid. Auch in Digitalien.

 

So what?

Expertise entsteht aus Experimenten! Der im Grunde richtige Lehrsatz scheint zugleich das Credo der Bildungsexperten zu sein, die ständig an neuen Modellen arbeiten. Kaum hat eine Schulreform erste Ergebnisse gezeigt, wird sie durch die nächste bereits abgelöst. Aber es braucht nun mal Zeit, aus Fakten Wissen und aus Wissen Bildung wachsen zu lassen. Da ist es denn auch nur folgerichtig, dass mehr und mehr Bundesländer wieder zum neunjährigen Gymnasium zurückkehren.

Dass Bildung Zeit braucht, müssen auch die Schulungsexperten der künstlichen Intelligenz und des maschinellen Lernens erkennen. Je komplexer die Aufgabenstellung ist, desto langwieriger ist der Aufbau einer Computing-Umgebung für deren Bewältigung. Inzwischen zeigt sich, dass beispielsweise der schlagzeilenträchtige Sieg von IBMs Watson bei der Quizshow Jeopardy! doch ein relativ leichtes Unterfangen war im Vergleich zu den immensen Aufgaben, mit denen IBMs Auftraggeber die Plattform für das Cognitive Computing betrauen wollen. Neben schönen Erfolgen mehren sich inzwischen Nachrichten über abgebrochene oder gar fehlgeschlagene Projekte.

Um Maschinenstürmern gleich den Wind aus den Segeln zu nehmen: Cognitive Computing und Deep Learning erzeugen keine Bildung – die bleibt uns Menschen vorbehalten. Aber diese und andere Formen der künstlichen Intelligenz revolutionieren die Verfügbarkeit von allokiertem Wissen und die Fähigkeit, aus Daten Informationen zu generieren und in großen Datenmengen Muster zu erkennen, aus denen wiederum Schlussfolgerungen gezogen werden können, die uns bei der Entscheidungsfindung unterstützen.

Das hat inzwischen einen unermesslichen Nutzwert. KI-gestützte Systeme erkennen in Netzwerken auffällige Verhaltensmuster, die auf einen Hackerangriff schließen lassen, und ergreifen Abwehrmaßnahmen. Das Potential allein ist immens: Wie der Hightech-Verband Bitkom jetzt mitteilt, ist allein in den vergangenen zwei Jahren rund die Hälfte der deutschen Unternehmen Ziel eines Angriffs geworden. Der dabei entstandene Schaden summiert sich in den zurückliegenden 24 Monaten auf 53 Milliarden Euro. Und dabei wird die Malware immer komplexer, so dass Virenscanner ohne Zuhilfenahme künstlicher Intelligenz versagen. IBM hat jetzt ihr Wissen um Systeme und Netze aus 30 Jahren Projektgeschichte in einen Datenpool geleitet, aus dem Watson schöpfen soll. Die Datenbank unter dem Namen IBM Data Lake soll bei der Automatisierung der Systemadministration helfen und Hackern das Leben schwer machen.

Ein weiteres Paradebeispiel ist das Scannen von Millionen Seiten an Fachliteratur, die mit Hilfe der Fähigkeiten von IBMs Watson, natürliche Sprache auf ihren Inhalt hin zu analysieren und sich bei der Entschlüsselung der Semantik auch nicht durch syntaktische Sprachfallen wie doppelte Verneinung beirren zu lassen, ausgewertet werden. Ebenso sind KI-Systeme hervorragend geeignet, in Bildern typische Muster zu erkennen und damit Abweichungen von der Norm zu identifizieren. Beide Methoden helfen heute Ärzten und Wissenschaftlern in nahezu allen Disziplinen bei der Forschungsarbeit und der Diagnose von Krankheiten. Wenn auf diese Weise auch nur ein Menschenleben gerettet werden konnte, haben sich die Investitionen bereits gelohnt.

Und die Investitionen sind in der Tat immens: IBM allein hat einen zweistelligen Milliardenbetrag in die Entwicklung der Technologie hinter Watson gesteckt und dabei auch zahlreiche Firmenübernahmen gewagt. Aber die Marktchancen sind keineswegs geringer: Im Jahr 2025 sollen Unternehmenslösungen im Wert von 31 Milliarden Dollar verkauft werden. Darin ist die damit verbundene Wertschöpfung noch gar nicht berücksichtigt. Sie dürfte ein Vielfaches betragen.

Kein Wunder also, dass sich die Konkurrenz um die vordersten Plätze rangelt. Nach Einschätzung von Gartner ist IBMs Watson-Plattform die am weitesten entwickelte, doch Anbieter wie GE Digital, Microsoft, PTC und Amazon Web Services folgen auf dem Fuß. Und Internetgiganten wie Google und Facebook entwickeln eigene KI-Plattformen für den Eigenbedarf. Wie IBM wollen sie vor allem die eigenen Datenmengen gewinnbringend auswerten.

Dabei steckt die KI-Forschung auch 50 Jahre nach ihrer Begründung durch Marvin Minsky eigentlich noch in der Trial-and-Error-Phase – also am Beginn der Bildungskarriere. So verfolgen Cognitive Computing oder Deep Learning unterschiedliche Konzepte des Wissensausbaus und der Analyse, was sie keineswegs zu universell einsetzbaren Hochbegabten macht. Sie verfügen eher über singuläre Fähigkeiten, die sie für bestimmte Aufgaben optimal erscheinen lässt, für andere wie3derum nicht. Das ist eine typische Erkenntnis bei komplexen Unternehmenslösungen: Auch ERP-Systeme lassen sich nicht ohne weiteres heute im Maschinenbau und morgen in der Medizin einsetzen. Sie folgen kontextspezifischen Best Practices und keinen universellen Begabungen.

Das muss nun auch das Bildungssystem rund um die künstliche Intelligenz erkennen. IBMs Watson ist ebenso wenig ein Universalgenie wie es die KI-Angebote der Konkurrenten sind. Dass Googles KI-Ansatz den Weltmeister im Go-Spiel besiegt, bedeutet nicht, dass es jedes Spiel beherrschen kann. Aber es kann fahren (im autonomen Google-Fahrzeug) und antworten (über Android-Smartphones).

IBM wiederum versucht nun, Watsons Fähigkeiten zur Mustererkennung für die Prozesssteuerung im Internet der Dinge zu nutzen. Das wäre ein weiterer Riesenmarkt. Und der wäre auch nötig, denn bislang dürfte Watson trotz lukrativster Verträge mit Fortune-500-Unternehmen kaum mehr eingespielt haben als die Kapitalkosten. Mit IoT könnte sich jedoch ein niedrigschwelliger Bildungssektor anbieten, für den man nicht gerade das KI-Abitur benötigt.

Denn für IBM verrinnt die Zeit. Nicht nur wächst die Konkurrenz. Nach 21. Quartalen mit Umsatzrückgang schmilzt auch die Marktbedeutung. Gut, dass die jüngsten Anstrengungen zur Verschlankung die Kosten so weit senken, dass unverändert Gewinn ausgewiesen werden kann. Sonst heißt es für IBMs Watson in wenigen Quartalen wirklich nur noch: „So what?“

 

Triple A für Sicherheit

CDU und SPD beschäftigen nach Recherchen der Wochenzeitung „Die Zeit“ jeweils lediglich drei Mitarbeiter, um die parteiinternen IT-Systeme, die naturgemäß hochgradig dezentral strukturiert sind, vor Cyber-Attacken zu schützen. Beim Bundesamt für Sicherheit in der Informationstechnik wurde die Zahl der Mitarbeiter immerhin auf 600 aufgestockt. Doch was ist das schon angesichts von 3700 Fällen, die „in die tägliche Lagebesprechung eingebracht“ wurden.

Ganz anders hört sich die Planzahl von Bundesverteidigungsministerin Ursula von der Leyen an, die neben Marine, Luftwaffe und Heer nun eine vierte Säule „Cyber“ aufstellt, in der 13500 Soldaten Deutschland vor Angriffen aus dem Web-All schützen sollen. Wie schwer es übrigens ist, Fachkräfte im Kampf gegen Cyber-Crime und Cyber-War zu bekommen, beweist die Tatsache, dass die Bundeswehr auf ihre traditionellen Einstellungskriterien verzichtet: Gegen Hacker dürfen auch übergewichtige Couch-Potatoes antreten…

Zehntausende Verteidiger, die von ein paar Dutzend Angreifern in Atem gehalten werden: das klingt nach asynchroner Kriegsführung, nach Guerilla-Taktik und – ein naheliegendes Wort in diesen Tagen – Terror! Dabei entwickelt sich diese kriegerische Auseinandersetzung zwischen Hackern und Hütern zu einem Hochgeschwindigkeits-Gefecht, das ohnehin kaum noch von Menschenhand geführt werden kann. Es geht immer nur um größtmögliche Reaktionsschnelle, mit der das Zeitfenster zwischen Entdeckung eines Sicherheitslochs und Schließung der Lücke so klein wie möglich gehalten werden soll. Deshalb werden immer mehr computerisierte Abwehrmethoden entwickelt, die die Angriffe nicht nur verteidigen sollen, sondern bereits vorhersagen und vorzeitig Maßnahmen ergreifen werden. Schon 2017 wird „Triple A Security“ zu einem der ganz großen Dinger auf der Agenda der IT-Verantwortlichen. Die drei As stehen dabei für Automation, Analytics und Artificial Intelligence.

Bereits heutige Virenscanner erledigen die Abwehr bekannter Viren weitgehend selbständig. Es bedarf jedoch zumeist immer noch des menschlichen Eingriffs, wenn es darum geht, neue Sicherheitsupdates auch tatsächlich zu aktivieren. Bei dem Angriff auf die rund 900.000 WLan-Router der Deutschen Telekom war zu erkennen, dass zu viel Zeit vergeht, bis erstens die neue Software verfügbar war und zweitens auch von den Privatkunden genutzt wurde. Automatisierung soll dieses Zeitfenster nun so klein halten wie möglich, um Hackern nur eine kurze Zeitspanne zu überlassen, in der sie die neuen Lücken nutzen können.

Aber besser noch ist gar keine Zeitspanne zwischen Entdeckung und Bereinigung. Dazu werden mehr und mehr Analysewerkzeuge angeboten, die den Verkehr im Netzwerk und zwischen Endgeräten beobachten und auf Anomalien hin untersuchen. So kann frühzeitig festgestellt werden, dass Abweichungen im Netzverkehr auf das Wirken von Schadsoftware und den Eingriff von außen hindeuten. Gegenmaßnahmen werden also noch schneller ergriffen.

Mit Hilfe lernender Systeme ist es im nächsten Schritt möglich, nicht nur das Verhalten des Netzwerkes, sondern das individuelle Verhalten von Anwendern zu beobachten. Weicht das von der normalen Nutzung ab, schlägt das System Alarm. Lernende Systeme sind dabei in der Lage festzustellen, was ein User üblicherweise tut, und lernen mit jedem Klick dazu. Gleichzeitig sind sie in der Lage, auf der Basis von Nachrichten über neue Angriffe Muster für den eigenen Schutz zu erkennen.

IBMs Watson beispielsweise ist inzwischen auch in der Cyberabwehr aktiv. Das System beobachtet den Verkehr im Netz auf der Suche nach Schadsoftware, „abonniert“ NewsFeeds zu aktuellen Angriffen und entwickelt auf dieser Basis Abwehrstrategien. Dazu gehört auch die automatische Fortschreibung von „weißen Listen“, also die Festlegung, welcher Anwender auf welche Daten und Systemfeatures zugreifen darf.

Mehr Schutz bedeutet freilich immer auch mehr Verlust an Freiheit. Wenn Watson oder andere KI-Systeme das Anwenderverhalten beobachten, könnte man auch sicherstellen, dass nicht im Büro privat gesurft wird, dass keine auffällig großen Dateien versendet werden oder der Zugriff auf nicht freigegebene Anwendungen ersucht wird. Triple A Security bedeutet eben auch Triple A Kontrolle: Ausspähen, Aussperren und Ausmustern.