Eine Enquete-Kommission für KI

„Computer, Computer – was man will, das tut er“. So lautete der Kabarett-Song aus den technologie-feindlichen achtziger Jahren. Damals traute man Computern alles zu – vor allem, dass sie sich eigenständig untereinander vernetzen und Informationen austauschen. Die Dystopien von damals sind heute längst Konzept, wenn nicht Realität im digitalen Wandel.

In der Tat geht es inzwischen um die Frage, ob ein Computer alles tun darf, was er tun kann.

Zuletzt hat diese Frage Microsofts Chief Executive Officer Satya Nadella auf der Entwickler-Konferenz Build in Seattle aufgeworfen. Und das ausgerechnet zu Beginn einer Produkt-Show, die ein wahres Feuerwerk an KI-gestützten Funktionen für die Azure-Plattform war. Microsoft kündigte dabei ein gutes halbes Dutzend an Software Development Kits für die Development Kids in den Unternehmen an, mit denen Sprachfunktionen, visuelle Erkennung, Mustererkennung oder Gestensteuerung ohne großen Aufwand mit herkömmlichen Anwendungen verknüpft werden können. Richtig eingesetzt, können klassische Unternehmenslösungen wie Enterprise Resource Planning, Warenwirtschaft oder Finanzanwendungen damit teilautonom operieren. Zusätzliche KI-Funktionen geben dem Internet der Dinge neue KI-Fähigkeiten oder lassen Drohnen mit neuen Fähigkeiten durch Abwasserkanäle fliegen.

Zwar lässt Satya Nadella keinen Zweifel daran, dass Microsoft einer der großen und marktführenden Anbieter für künstliche Intelligenz sein will und baut deshalb nicht nur die Azure-Plattform als Cloud-Umgebung für KI-Services aus, sondern schafft mit Microsoft Edge auch die Umgebung für KI-Lösungen, die wieder näher an das eigentliche Endgerät rückt. Aber gleichzeitig gibt er zu bedenken: „Wir müssen uns nicht nur fragen, was Computer tun können, wir müssen uns auch fragen, was Computer tun dürfen.“

Um sich Microsoft-intern diese Frage immer wieder zu stellen, hat Nadella eine Ethik-Kommission ins Leben gerufen, die aus unterschiedlichen Abteilungen und mit Menschen aus stark diversifizierten Lebensläufen zusammengesetzt ist. Sie sollen in Zweifelsfragen die Diskussion darüber führen, was künstliche Intelligenz darf und was nicht.

Und gleichzeitig zielt Microsoft darauf, den Einsatz von künstlicher Intelligenz weiter zu demokratisieren – will sagen: je mehr Entwickler Zugriff auf Entwicklungswerkzeuge für KI-Funktionen haben, desto wahrscheinlicher ist es, dass mit den neuen Computer-Fähigkeiten keine elitären, zentralistischen oder gar despotischen Zwecke verfolgt werden. Aber ist das so? Die Software Development Kits, mit denen Microsoft auf der Build die Entwickler in Verzückung versetzte, sind allenfalls der Anfang einer KI-Offensive, mit der Microsoft den größten Anteil am immer größer werdenden KI-Kuchen gewinnen will.

Die unausgesprochene Warnung, mit der Satya Nadella die Entwickler-Gemeinde für „KI at your fingertips“ gewinnen will, lautet dabei: Wir können die Entwicklung von künstlicher Intelligenz nicht den bisherigen Marktführern – wie etwa Google, Facebook oder Amazon – überlassen. Und erst recht nicht den staatlich geförderten und beeinflussten chinesischen Internet-Giganten vom Schlage Tencent und Alibaba.

KI – also künstliche Intelligenz – ist so wichtig wie UI, nämlich die User Experience. Das Wortspiel von Satya Nadella hat es in sich. Denn so, wie die Marktführerschaft der Internet-Anbieter nicht nur durch die angebotenen Web-Funktionen, sondern vor allem durch leicht verständliche, intuitiv benutzbare Nutzungsmöglichkeiten entschieden wurde, so wird auch der Einsatz von künstlicher Intelligenz eine Frage des Ease of Use, der Einfachheit des Umgangs mit der neuen Technologie. Ein Roboter, der Gesten versteht, ein Computer, der auf gesprochene Sprache reagiert, eine Datenbank, die mit kognitiven Mitteln in unendlichen Daten stöbert – all das vereinfacht unseren Umgang mit dem Computer.

Dafür braucht nicht nur Microsoft eine Ethik-Kommission. Jede Organisation wird sich eine eigene Enquete-Kommission zulegen müssen – in der Politik, in der Wirtschaft und in der Gesellschaft. Denn künstliche Intelligenz wird immer nur das tun dürfen, was sie soll – und nicht mehr.

PS: Das Bild zeigt Johnny Depp als Dr. Will Carter, der in eine künstlich intelligente Welt abtaucht.

 

Who, the fuck, is Ellis?

Man könnte angesichts der Innovationsflut, die gegenwärtig auf uns niederbricht, beinahe verzagen. Mobile Computing ist noch kaum bewältigt. Cloud Computing ebenso wenig. Und gleichzeitig kommen mit dem digitalen Wandel und der vierten industriellen Revolution zwei Technologiewellen auf uns zu, die mindestens eine Dekade lang Investitionen und Innovationen beherrschen werden. Doch die alles überragende Tsunami-Welle, die auf uns zu rollt, türmt sich mit den Möglichkeiten der künstlichen Intelligenz auf. Sie wird weit ins Land vordringen und unser Leben von Grund auf verändern.

1200 Milliarden Dollar werden nach Schätzungen der Gartner Group allein im laufenden Jahr in KI-Systeme und –Services investiert. Ein internationaler Wettlauf um die führende Position ist unter den Technologie-Giganten ausgebrochen. Und schon scheint es so zu sein, dass die Karten längst verteilt sind. Die größten KI-Anbieter kommen entweder aus den USA und heißen Google, Microsoft und IBM oder sie kommen aus China – wie zum Beispiel Alibaba oder Tencent. Große europäische Anbieter oder gar Deutsche kommen erst unter „ferner liefen“.

Das gilt inzwischen bereits für die gesamte Wertschöpfungskette rund um künstliche Intelligenz. Dort, wo KI-Systeme genutzt werden, entstehen Umsatz-Sprünge durch Predictive Analytics, Kommunikationsvorteile durch Sprachsteuerung, Effektivitätsgewinne durch Automatisierung, Erkenntnisgewinne durch Cognitive Computing und ein Mehr an Flexibilität durch Machine Learning oder Deep Learning. Google, Amazon und Facebook in den USA und wieder Alibaba und Tencent in China sind die größten Nutznießer aus der KI-Nutzung.

Das gleiche Bild ergibt sich bei der Grundlagenforschung rund um künstliche Intelligenz. Es sind nicht mehr nur Stanford und Harvard, die weltweit die schlauesten Forscher an sich ziehen. Im gesamten Silicon Valley tobt ein Krieg um die Köpfe, der längst dazu geführt hat, dass europäische Wissenschaftler den Weg über den Atlantik antreten, um auch auf diesem Gebiet auf optimale Arbeitsbedingungen für Grundlagenforschung und die Entwicklung neuer Algorithmen zu stoßen. In China gibt es längst eine staatliche verordnete Konzentration auf Forschungsgebiete für KI. Dabei ist keineswegs mehr sichergestellt, dass die Forschungsergebnisse – wie Jahrhunderte lang üblich – der Wissenschaftsgemeinde frei zugänglich gemacht werden. Gerade die staatlichen chinesischen Konzerne und die Internet-Giganten aus den USA haben die Wettbewerbsvorteile durch Geheimhaltung für sich erkannt.

Denn KI-Forschung ebenso wie die gewerbliche Nutzung von künstlicher Intelligenz benötigt einen der wertvollsten Rohstoffe, die die Menschheit überhaupt hervorbringen kann: die Daten über unser Handeln und Wandeln. Sie sind die Voraussetzung dafür, dass KI-Systeme zu Erkenntnissen und Entscheidungsvorlagen gelangen, die dem menschlichen Geist auch auf den zweiten Blick verborgen bleiben. Der nächste Handelskrieg zwischen den Kontinenten wird nicht um Stahl geführt, sondern wegen der Daten, die die internationalen Konzerne weltweit eintreiben und auswerten.

Sowohl bei der Finanzierung als auch bei der Erhebung von Daten als Grundlage für KI-Forschung sind die Europäer ins Hintertreffen geraten. Längst erheben sich deshalb Stimmen aus der Wissenschaftsgemeinde, die eine gemeinsame europäische Initiative fordern. Vorbild solle dabei das vor 65 Jahren gegründete Großforschungslabor für Kernphysik CERN werden. Nur im Zusammenschluss der 22 Mitgliedstaaten war eine Kraftanstrengung möglich, wie sie der Bau des Large Hadron Colliders darstellt, mit dem schließlich der Nachweis des Higgs-Teilchens und damit ein historischer Meilenstein in der Quantenphysik gelang. Einen Namen hat die Initiative schon: European Laboratory for Learning and Intelligent Systems – kurz: Ellis. Von der Gründungsidee des CERNs bis zur Grundsteinlegung des ersten Labors bei Genf vergingen drei Jahre. Kaum zu glauben, dass es der europäischen Union gelingen könnte, Ellis innerhalb von nur drei Jahren aus dem Boden zu stampfen. In der KI-Forschung bedeuten drei Jahre eine Ewigkeit. Wir werden uns wohl ewig fragen müssen: Who, the fuck, is Ellis, wenn wir die europäische Krankheit, die Bräsigkeit, nicht ablegen. Sonst werden wir dem abgefahrenen KI-Zug hinterherwinken…

 

Oder gibt es Hoffnung? Ich hatte die Ehre, auf dem 49. Monetären Workshop in Frankfurt, zu dem sich hochkarätige Banker und Finanzexperten trafen, meine Thesen zur KI-Entwicklung vorzutragen. Ich gewann dabei durchaus den Eindruck, dass die Finanzwelt den Ernst der Lage erkennt. Wer meine Thesen nachlesen möchte, braucht nur hier zu klicken.

Cloud ist nicht Cloud

In der galaktischen Enzyklopädie „The Hitchhiker´s Guide to the Galaxy“ steht der lebenskluge Rat: „Traue keinem Wesen, von dem du nicht weißt, womit es denkt…“

Gut, also gilt es auf der Erde – immerhin ein Teil dieser Galaxie – zu fragen: Womit denken Alexa, Cortana oder Siri? Wo denkt sich Amazon unsere Kaufempfehlungen aus? Was denkt das Google-Auto, wenn es abbiegt? Wer trifft wo die Entscheidungen im Internet der Dinge?

Zugegeben, Dinge sind keine Wesen. Sie werden durch künstliche Intelligenz zwar vielleicht wesenhaft – aber das ist auch alles. Wo und womit sie kalkulieren und wer die Algorithmen dafür bereitstellt – diese Fragen gewinnen von Tag zu Tag an Bedeutung. Um das zu verstehen, bedarf es offensichtlich erst eines Großskandals wie den um die massenhafte Ausspähung von Facebook-Accounts durch Cambridge Analytica und der mutmaßlichen Weiterverwertung der Beute für die Präsidentenwahl in den USA und das Brexit-Referendum in Großbritannien.

Denn künstliche Intelligenz ist als „Gott der kleinen Dinge“ offensichtlich so unterschwellig, dass sie von ihren Nutzern gar nicht als solche wahrgenommen wird. Nicht einmal jeder sechste Deutsche will laut einer jetzt veröffentlichten Studie bemerkt haben, im letzten Jahr mit künstlicher Intelligenz in Berührung gekommen zu sein. Allein die Verkaufszahlen der Smartphones mit ihren KI-Funktionen in der Spracherkennung und den Einkaufs-Apps bei Amazon bis Zalando weisen darauf hin, dass mehr als die Hälfte der Bevölkerung mehrfach wöchentlich KI-Erfahrungen gemacht haben müsste.

Das ist das Phänomen der zweiten Welle des Cloud Computings: Wir greifen über benutzerfreundliche Schnittstellen auf Funktionen zurück, deren Funktionsweise, ja sogar deren Existenz uns nicht bewusst ist. Denn die Cloud ist schon lange nicht mehr nur das externe Rechenzentrum, in das Unternehmen ihre IT auslagern, um mehr Flexibilität und weniger Kosten zu erzielen. Die zweite Welle der Cloud liefert eine Plattform für Funktionen, die wir mobil und „on the fly“ nutzen, ohne dafür die Rechenleistung mit uns herumschleppen zu müssen. Online-Shopping, Spracherkennung, (teil-)autonomes oder vernetztes Fahren, Security Features, smart Data, predictive Analytics – all das nutzen wir, ohne es uns recht bewusst zu machen. Das freundliche Application Programming Interface liefert uns den Service frei Haus.

Das ist so gut und so schlecht wie die Absichten, die damit verfolgt werden. Deshalb baut die zweite Welle des Cloud Computings immer stärker auf die wichtigste Währung im Internet, mit der sich nicht über Blockchain spekulieren lässt: Vertrauen. Es geht nicht mehr um die Frage, wem man Anwendungen und Daten anvertraut. Es geht inzwischen um die Frage, wem man (Vor-) Entscheidungen anvertrauen möchte.

Für Unternehmen und Organisationen wird es somit immer wichtiger, diese zweite Welle des Cloud Computings für sich zu nutzen. Denn Cloud-Services mit künstlicher Intelligenz bieten nicht nur mehr Kundenkomfort, sie binden durch eine positive Customer Experience ihre Kunden immer stärker an die Plattform, der sie sich anvertraut haben. Für Markenanbieter wird das zu einem wettbewerbsentscheidenden Imagefaktor. Die „Freude am Fahren“ oder der „Vorsprung durch Technik“ wird nicht mehr durch die Motorleistung des Fahrzeugs erfahrbar, sondern durch die Serviceleistungen des vernetzten Automobils. Die Eigenschaften eines Haushaltsgeräts definieren sich nicht mehr aus seiner Hardware, sondern aus der Plattform heraus, vom dem es seine Software-Updates bezieht. Und der Online-Einkauf bei der Modemarke des Vertrauens definiert sich nicht mehr ausschließlich über Produkt und Preis, sondern über die Customer Experience.

Doch schon erscheint die dritte Cloud-Welle am KI-Horizont. Durch sie werden die Services nicht mehr nur den Kunden zur Verfügung gestellt, sondern den Dingen selbst, die untereinander vernetzt sind, Daten austauschen und koordiniert agieren. Fahrzeuge teilen sich Störungen im Verkehrsablauf mit, Lieferdienste optimieren die letzte Meile, Maschinen verzahnen die Wertschöpfungskette.

Unternehmen und Organisationen sollten ihre Digitalstrategie möglichst schnell auf diese zweite und dritte Welle des Cloud Computings ausrichten und dabei sich selbst und den Kunden in den Mittelpunkt stellen. Sonst weiß man bald wirklich nicht mehr, womit das Ding da draußen denkt…

 

 

Sparen wäre falsch

Er wisse genau, welche Rede er halten müsste, um den Saal zum Toben zu bringen. Leider werden wir nie erfahren, was Jens Spahn seinen neuen Kollegen im Bundesgesundheitsministerium gesagt hätte. Aber wir können es ja mal probieren:

Jens Spahn hätte zum Beispiel sagen können, dass die 8000 Pflegekräfte, die die große Koalition fest eingeplant hat, nur ein erster Anfang sind. Dass also die Zahl der Arbeitsplätze im Pflegebereich stärker dem tatsächlichen Bedarf angepasst werden soll. Angesichts der heute gängigen Praxis, dass Pflegedienste bereits Kündigungen aussprechen, weil sie den zusätzlichen Anforderungen nicht mehr genüge tun können, wäre das ein Satz, der nicht nur den Saal zum Toben gebracht hätte. Vielleicht hätte der Bundesgesundheitsminister auch gesagt, dass die Digitalisierung im Pflegebereich stärker Einzug nehmen soll – zum Beispiel durch Pflegeroboter, die die Mitarbeiter vor körperlicher Überforderung bewahren.

Vielleicht hätte Jens Spahn auch gesagt, dass es nun mit der Entwicklung einer patientenzentrierten, standardisierten, elektronischen Gesundheitsakte ernst werden soll. Ihr Ziel, nämlich die Schaffung eines einfachen, barrierefreien Zugangs für jeden Patienten zu seinen eigenen Gesundheitsdaten, würde die therapeutische Partnerschaft mit dem ärztlichem Fachpersonal stärken. Bisher blieb dieser Plan immer nur in den Anfängen stecken.

Dabei könnte sie wie schon die ebenfalls steckengebliebene Gesundheitskarte unmittelbar Leben retten. Denn je schneller im Notfall die ärztlichen Helfer Klarheit über Vorerkrankungen und Medikamentenversorgung erhalten, desto konkreter können sie eingreifen.

Dazu ist es allerdings auch Voraussetzung, dass die Deutschen sich aus sicheren Quellen über medizinische Themen, Gesundheitsfragen und Vorsorge informieren können. Immer häufiger vertrauen sich Patienten lieber „Doktor Google“ an und versorgen sich bei Doc Morris oder anderen Online-Apotheken mit dem schnell wirkenden Schmerzmittel, das es rezeptfrei over the counter gibt. Die seriöse Beratung wird dagegen einer Diskussion um die Zwei-Klassen-Gesellschaft geopfert.

Der Bundesgesundheitsminister hätte also in seiner ungehaltenen Rede eine Online-Plattform ankündigen können, die ein umfassendes und gut vernetztes Informationsangebot bereit hält. So würde nicht nur die Gesundheitskompetenz in der Gesellschaft verbessert. Die Informationsplattform könnte auch zu mehr Transparenz bei den wahren Kostentreibern im Gesundheitswesen beitragen. Der Nutzen von Therapiepfaden und die dabei verursachten -kosten sind heute doch nur Experten verständlich.

Dabei muss nicht nur ein rechtssicherer Rahmen für Patienteninformationen geschaffen werden, sondern auch für die Apparate und Anwendungen, in denen diese Patientendaten entstehen. Damit ist zugleich die Basis für eine Digitalstrategie im Gesundheitswesen geschaffen, die es Kliniken und Ärztegemeinschaften erlaubt, fach- und therapieübergreifend neue Technologien zu nutzen. Vor allem der Einsatz der künstlichen Intelligenz zur Analyse und Diagnose, sowie zur Wahl der richtigen Therapie und schließlich zu ihrer Überwachung könnte ein Schwerpunkt der Rede von Jens Spahn gewesen sein.

Dazu braucht es neue Formen der Kooperation zwischen den etablierten Trägern der Gesundheitsversorgung und Newcomern wie den Internet-Giganten und Startups der digitalen Wirtschaft. Der Bundesgesundheitsminister hätte darüber reden können, wie traditionelle Medizin und Digitales zu einem neuen Gesundheitswesen 4.0 zusammen geschmiedet werden. Fitness-Tracker, Smart Watches, Gesundheits-Apps und Online-Plattformen gibt es bereits zu Hauf. Aber die Hürden, die überwunden werden müssen, damit alle diese Systeme auch zum Wohle des Patienten zusammenarbeiten können, sind hoch. Aber sie wären die richtige Herausforderung für einen zupackenden Politiker vom Schlage eines Jens Spahn.

Zugegeben – das alles kostet Geld. Und weil das so ist, hat der Bundesgesundheitsminister diese Rede auch nicht gehalten. Aber sparen wäre jetzt das falsche.