190916 Gefahr

Gefahr für Leib und Leben vermeiden

Die Deutschen sind mal wieder tief gespalten: die einen können die Segnungen von künstlicher Intelligenz kaum erwarten, die anderen können kaum erwarten, mit ihren Warnungen Recht zu behalten. Tatsächlich oszilliert die Diskussion um den zukünftigen Einsatz von KI-Systemen in hoher Frequenz zwischen Angst und Hoffnung. Die Angst vor Arbeitsplatzverlust, Bevormundung und niedergerissenen ethischen Leitplanken steht der Hoffnung auf völlig neue Geschäftsmodelle, Automation und Autonomie sowie neue kreativer Arbeitsplätze gegenüber. Eines ist dabei sicher: KI-Systeme werden nicht nur unsere Zukunft bestimmen, sondern tun dies auch schon längst in der Gegenwart.

Damit diese KI-Zukunft – zumindest in Deutschland – aber nicht allein nach den Regeln des Marktes gestaltet wird, wonach produziert wird, was nachgefragt wird, sondern nach hochstrebenden ethischen Normen und gesellschaftlichen Verhaltensregeln, haben Bundesregierung und Bundestag eine KI-Enquete eingesetzt, die sich in insgesamt sechs Arbeitsgruppen mit den gesellschaftlichen Auswirkungen der Technologie befasst. Löblich ist dabei, dass die Experten und Parlamentarier künstliche Intelligenz nicht als gegebenes Technologie-Phänomen betrachten, sondern sich überhaupt erst einmal mit der Frage befasst haben, wie KI-Systeme entstehen oder welche technischen Normen gefordert sind, um KI-Software untereinander interoperabel und offen zu gestalten. Auch die Frage, wie man ethische Leitplanken konstruiert, wird derzeit ventiliert – etwa durch Leitsätze oder durch Guidelines, wie sie zum Beispiel schon bei der Entwicklung von Computerprogrammen für die Life Science Industrien weltweit einheitlich vorgegeben wurden. Über Leitsätze zur Abwägung von KI-Entscheidungen, das hat schon die Diskussion um autonomes Fahren bewiesen, ist kaum ein gesellschaftlicher Konsens herzustellen – wie allein die beiden Beispiele „Ein getötetes Kind ist schlimmer als ein getöteter Rentner“ oder „100 Verletzte sind besser als ein Toter“ deutlich machen. Mit dem GAMP aber – den „Good Automated Manufacturing Practices“ der Pharma- und Food-Industrie – gibt es durchaus ein Vorbild, wie ethische und gesellschaftliche Verhaltensmaßregeln in Entwicklungsvorgaben, Prozeduren und Maßnahmen gegossen werden können, deren Einhaltung von unabhängigen Gutachtern kontinuierlich überwacht werden. Ein „GAIP“ – also die „Good Artificial Intelligence Practices“ – nach diesem Vorbild könnte eine ganze Industrie verantwortungsvoll und mit Blick auf die „Sicherheit von Leib und Leben“ ausrichten. KI-Software müsste dann vor ihrer Nutzung im konkreten Einsatzfall verifiziert und validiert werden. Nach Genehmigung würde ihre Compliance durch regelmäßige Audits und Inspektionen bei den Anwender-Organisationen überprüft werden. Bei Nicht-Einhaltung der Regeln droht – wie in der Pharma-Industrie – der Verlust der Herstellerlaubnis beziehungsweise der Nutzungserlaubnis.

Es scheint tatsächlich, dass einige Vertreter aus der Expertengruppe in diese Richtung argumentieren. Doch „nichts Genaues weiß man nicht“, denn die Arbeitsgruppen der Enquete tagen hinter verschlossenen Türen. Verteidigt wird dieses in einer Demokratie durchaus anrüchige Verfahren mit dem Wunsch der Enquete-Mitglieder, frei und offen diskutieren zu können, ohne Sorge zu haben, das einmal vor laufenden Kameras Gesagte nicht mehr zurücknehmen zu können. Derzeit wird immerhin darüber gestritten, ob die bislang gefassten Beschlüsse im Oktober veröffentlicht werden sollen.

Möglicherweise will die Enquete-Kommission aber auch erst einen Abschlussbericht im Jahr 2020 vorlegen. Das würde unweigerlich zur Folge haben, dass die öffentliche Diskussion erst danach einsetzt und die vorgeschlagenen Inhalte noch einmal durchdiskutiert würden. Wenn sie dann überhaupt noch interessieren. Denn die designierte EU-Kommissionspräsidentin Ursula von der Leyen hat schon angekündigt, auf europäischer Ebene ein Papier zur KI-Ethik vorzulegen. Das dürfte dann schon Anfang 2020 vorliegen. Und bis dahin haben die großen Internet-Giganten in den USA und China längst weitere Milliarden in die Weiterentwicklung ihrer KI-Systeme investiert. Sie warten sicher nicht auf die Ergebnisse der Enquete.

Derweil gewinnen die Mahner angesichts der jüngsten Enthüllungen Oberwasser, dass tatsächlich bei den KI-gestützten Sprachassistenten doch mehr menschliche Hilfe und Mithörer am Werke sind als bislang zugegeben. Das Wort von der „Fauxtomation“, der fehlerhaften Automation, macht bereits die Runde. Zwar hat dies alles das Geschmäckle von Abhörmaßnahmen und Spionage – doch irgendwie ist es auch tröstlich, dass nach wie vor Menschen darüber wachen, dass „keine Gefahr für Leib und Leben“ entsteht. Oder?

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert