Es ist wie in der Kindheit: Kaum macht eine Sache so richtig Spaß – wird sie verboten. Offenes Feuer zum Beispiel: Haben wir als Kinder nicht gerne mal ein bisschen gezündelt? Heute darf man nicht mal sein eigenes Osterfeuer haben, ohne es offiziell anzumelden und es dann als öffentliche Veranstaltung zu deklarieren. Haben wir nicht Cowboy und Indianer gespielt und uns an Karneval als solche verkleidet? Heute ist das eine kulturelle Aneignung. Haben wir nicht auch gerne heimlich geraucht? Heute muss man dafür das Restaurant verlassen. Und wenn das so weiter geht, werden künftig auch die Karnivoren neben den Rauchern draußen vor der Tür stehen, weil sich die Veganer und Vegetarier beziehungsweise Veganerinnen und Vegetarierinnen durch den Anblick gestört fühlen könnten.
Und jetzt haben die Italiener – kaum dass wir nach fünf Monaten das neue Spielzeug richtig kennengelernt haben – den Zugang zum KI-gestützen Sprachassistenten ChatGPT gesperrt. Dabei geht es der Meloni-Regierung gar nicht um die Unwägbarkeiten der Künstlichen Intelligenz selbst, sondern darum, dass ChatGPT oder andere Lösungen, die eigene Texte aus der Kenntnis großer Datenmengen erzeugen, möglicherweise gegen den Datenschutz verstoßen. Es geht also wieder einmal nicht darum, dass eine Technologie sich bereits als schädlich erweist, sondern lediglich darum, dass sie sich als schädlich erweisen könnte.
Man muss diese Argumentation einmal auf das Auto anlegen – das unter diesen scharfen Urteilen wahrscheinlich niemals eine größere Verbreitung erlangt hätte. Denn Autos könnten Menschen töten oder verletzen – ja, es geschieht bereits in Zigtausend bedauerlichen Fällen Jahr für Jahr. Wir würden weiter reiten oder in Kutschen fahren – und unser wichtigstes Umweltproblem bestünde darin, dass sich niemand findet, der den lästigen Pferdekot von den Straßen räumt.
Die deutschen Datenschützer in der „Taskforce KI“ haben sich die italienische Sichtweise bereits zu eigen gemacht und fürchten um die Einhaltung der Datenschutz-Grundverordnung. Dabei gibt es in Deutschland noch nicht einmal eine Beschwerde wegen eines möglichen Verstoßes. Auch hier reicht der bloße Anfangsverdacht. In Kanada ist man bereits so weit, eine „mutmaßliche Aneignung personenbezogener Daten ohne Zustimmung“ zum Anlass zu nehmen, den Zugang zu ChatGPT zu sperren.
Doch – so lautet der nicht ganz von der Hand zu weisende Vorwurf – die Daten und Texte, mit denen ChatGPT vorab trainiert wurde, seien für Nutzer und Betroffene intransparent. Wäre also die Auswahl der Texte, auf denen das mathematische Sprachmodell von ChatGPT fußt, politisch links- oder rechtslastig, wäre es diskriminierend gegenüber Gruppierungen oder ließe Werke zu unseren moralischen und ethischen Werten völlig unberücksichtigt, so wäre auch der Output des Sprachassistenten politisch einseitig, diskriminierend oder wenig werteorientiert.
Doch liegt in dieser Kritik bereits die Lösung – und das nächste Problem. Es gibt nicht die allein seligmachende Text- und Datenbasis, in der der globale Konsens über alle Kulturen, Kontinente, Kontroversen und Kontraste gelingt. Aber so wie Firmen auf ihrer eigenen Datenbasis aufsetzen, könnten professionelle Nutzer von KI-gestützten Sprachassistenten eine Datenbasis nach eigenem Gusto zugrunde legen. Eine chinesische KI-Lösung bewertet die Dinge also in der Tradition eines Konfuzius (oder Kon-fu-tse), eine angloamerikanische Version dagegen eher utilitaristisch.
KI-Systeme stecken also in dem gleichen Dilemma aus Wahrnehmung und Wirklichkeit, in dem jeder Mensch steckt, der sich in seiner Echoblase bewegt. Wahr ist, was wahrgenommen wird. Wirklich ist, was wirkt. Kreationalisten, die fest an den wörtlichen Wahrheitsgehalt der Schöpfungsgeschichte glauben, würden die Texte einer KI, die auch Fachbücher zur Evolution kennt, als Teufelswerk ablehnen. Russische Kriegstreiber im Kreml könnten mit von einer KI generierten Analyse des Ukrainekriegs wahrscheinlich nicht einverstanden sein, wenn das System auch die „westliche Propaganda“ mit in den Datenbestand aufgenommen hat.
Strenger sehen das die Autoren rund um Elon Musk, die in einem offenen Brief ein sechsmonatiges Moratorium fordern, um gemeinsam Leitplanken für die Erstellung und Nutzung von KI-Systemen zu schaffen. In nur sechs Monaten? Die Diskussion um KI ist bereits mehr als 60 Jahre alt! Und wer sollte diesen technologischen Waffenstillstand überprüfen? Wer sollte sicherstellen, dass niemand sich einen unrechtmäßigen Wettbewerbsvorteil dadurch erwirbt, dass heimlich doch weitergeforscht wird. Und nicht zuletzt: In welchem Weltforum sollte man sich auf die KI-Prinzipien einigen? Noch nie konnte eine technologische Revolution durch demokratische Abstimmungsverfahren kanalisiert werden. Warum sollte es ausgerechnet jetzt klappen, wo die Welt ohnehin in so ziemlich jeder globalen Frage uneins ist?
Technologie-Verbote wirken immer hilflos. Und sie führen auch meist zu seltsamen Auswüchsen – wie zum Beispiel dem Fahnenschwenker, der Anfang des 19. Jahrhunderts einer Dampflok vorausgehen sollte, um Anrainer des Schienenstrangs zu warnen. Statt sich mit Verboten zu beschäftigen, sollten wir uns beim Gestalten Mühe geben. Man sollte ein KI-Verbot verbieten. Aber vielleicht verbietet es sich von selbst.