230605 Scholz

Was es braucht: Ein Regelwerk für die Menschheit

Sensation im WDR2! Bundeskanzler Olaf Scholz hatte sich zu einem Besuch im Studio angesagt und erklärte launig die Streitlage in der Ampel-Regierung. Zudem las er flüssig aus Antoine de Saint-Exupérys Meisterwerk „Der kleine Prinz“ vor: „Ich sprang auf die Füße, als hätte mich der Blitz getroffen. Ich rieb mir die Augen und schaute ganz genau hin. Da entdeckte ich einen kleinen, außergewöhnlichen Mann, der mich ernst betrachtete.“ Wer Lust hat, kann das hier bis zum 8. Juni in der Mediathek nachhören: https://www1.wdr.de/nachrichten/deepfakes-100.html

Doch die eigentliche Sensation war eine ganz andere: Olaf Scholz war natürlich nicht im Studio; er wurde auch nicht aus Berlin zugeschaltet. Ein WDR-Sprecher hatte die Sätze eingelesen und durch eine KI mit Originaltönen des Kanzlers so moduliert, dass Scholz kaum noch von seinem Imitator zu unterscheiden wäre. Wer Olaf Scholz genau kennt, weiß, dass er nicht so schnell spricht wie in der Aufnahme. Und – mit Verlaub – auch nicht so spritzig-witzig formuliert. Dass man die Fälschung als solche erkennen konnte, war durchaus beabsichtigt, denn die WDR-Redaktion wollte auf die Gefahren von Künstlicher Intelligenz aufmerksam machen.

Deepfakes nennt man künstlich erzeugte Bilder, Video- oder Audio-Aufnahmen, die von echten Dokumenten kaum noch zu unterscheiden sind. Was zunächst lustig wirkte – wie die Aufnahme des Papstes in einer Rapper-Daunenjacke – könnte aber tatsächlich zu einer neuen Welle von Straftaten führen. Der berühmte Enkeltrick, bei dem ältere Leute um viel Geld geprellt werden, weil sie einem vermeintlich nahen Verwandten aus der Patsche helfen wollen, könnte künftig mit Telefonstimmen, die tatsächlich so klingen wie die Enkelin oder der Sohn, noch besser gelingen.

Solche Beispiele werden derzeit gerne herbeigerufen, um die Gefahren von Künstlicher Intelligenz aufzuzeigen. Schnell ist dann das Argument zur Hand, dass eines Tages Künstliche Intelligenz „erwachen“ und der Menschheit einen Platz in der zweiten Reihe zuweisen könnte. Allerdings: hinter den angeführten Beispielen steht nie die außer Kontrolle geratene Eigeninitiative eines KI-Systems, sondern die kriminelle Absicht eines Menschen. Man mag mir den Vergleich verzeihen, aber er ist frappierend: Niemand möchte Lastwagen verbieten, nur weil Terroristen damit bereits mehrfach in Menschenmengen gefahren sind.

Anders wäre es, wenn dieser Lastwagen ebenfalls „erwachen“ und als autonomes Fahrzeug außer Kontrolle geraten würde. Aber dieses „Erwachen“ ist derzeit absolut hypothetisch. Wenn wir also Regularien und ethische Leitplanken für KI-Systeme brauchen, dann brauchen wir sie vor allem für den Umgang mit diesen lernenden Maschinen. Was wir ihnen beibringen, welche Daten wir ihnen als Weltbild vermitteln, welche Algorithmen wir ihnen zugrunde legen – das ist es, worüber wir reden müssen. Wir müssen nicht über ein Regelwerk für KI reden, sondern über ein Regelwerk für die Menschheit.

Kriegen wir das hin? Es gibt Grund zum Pessimismus. Weder bei der friedlichen Nutzung von Kernkraft, noch bei der Beschränkung von Atomwaffen haben wir global einheitliche Regeln, denen sich alle verbunden fühlen. Nicht einmal bei der Umweltverschmutzung und dem drohenden Klimawandel gelingt es uns, gemeinsame Standards zur Senkung des CO2-Ausstoßes zu vereinbaren, geschweige denn einzuhalten. Und schon gar nicht bei der Wahrung von Menschenwürde und Menschenrechten kommen wir auf ein gemeinsames Niveau.

Dafür entwickeln wir viel Phantasie, was alles mit KI schief laufen könnte. Deepfakes sind da nur ein Beispiel. Die Unterstützung von Hackerangriffen, die Manipulation von Wahlen und Börsenkursen durch verfälschte oder behauptete Tatsachen, die Benachteiligung von Bevölkerungsgruppen durch vorurteilende Bewertungssysteme: all das kann durch Künstliche Intelligenz schneller, schlimmer und schadenbringender erdacht werden – allerdings von Menschen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert