Vor 40 Jahren – im Dezember 1982 – kürte das US-amerikanische Time Magazine den Computer in Gestalt des IBM PCs zum „Man of the Year“. Zum ersten Mal wurde damit nicht einem Menschen (gleich: Man) der größte Einfluss auf das Weltgeschehen in den zurückliegenden zwölf Monaten zugesprochen, sondern einer Sache. – Treppenwitz am Rande: Wäre es bei der Zuwendung an natürliche Menschen geblieben, wäre es Apple-Gründer Steve Jobs geworden, der somit auf Platz Zwei landete und sich von der Kreation hat schlagen lassen müssen, zu deren Welterfolg er mit dem Mac selbst beigetragen hat.
Nur einmal noch wurde eine Sache „Man of the Year“ – 1988 war es die ausgebeutete und bedrohte Erde, die stellvertretend für das Problem der Umweltverschmutzung stand, dass sich nun – ein Vierteljahrhundert später – zu einer veritablen Klimakrise ausgeweitet hat. Wäre sie damals schon im allgemeinen Sprachgebrauch gelandet, hätte 1988 mit dem Begriff der Nachhaltigkeit eine Idee gekürt werden können. Aber in diesem Jahr ist es äußerst wahrscheinlich, dass tatsächlich einmal eine Idee zur – wie es seit 1999 gendergerecht heißt – „Person of the Year“ werden könnte: ein Algorithmus, die künstliche Intelligenz oder ganz konkret: das Sprachverarbeitungssystem ChatGPT.
Noch nie hat ein Algorithmus in so kurzer Zeit gleichzeitig für eine derartige Begeisterung und ein ebenso großes Unbehagen gesorgt wie das von dem kalifornischen Startup OpenAI entwickelte Sprachverarbeitungssystem ChatGPT. Es ist erst seit Ende November verfügbar und wird inzwischen millionenfach kostenlos von Menschen, Unternehmen und Organisationen getestet. Dabei liefert es auf nahezu jede erdenkliche Frage erstaunlich überzeugende Antworten, die das System mithilfe der Prinzipien des Machine Learnings und des Sprachenmodells GPT3 aus Myriaden von Datensätzen und Texten zieht. Es kann nicht nur kurze Antworten wie in einem Chat geben, sondern ganze Romane schreiben und versagt auch nicht vor dem Programmieren sinnvoller Algorithmen.
Da kann es nicht überraschen, dass ChatGPT auch ein zentrales Thema auf dem Weltwirtschaftsforum in Davos darstellte – und damit wohl auch eine durchaus willkommene Ablenkung von den Weltfragen wie Krieg, Klima und Gerechtigkeit bot. Dabei münden KI-Algorithmen wie ChatGPT selbst in eine unlösbare Weltfrage: nämlich die, was wir noch glauben können, wenn uns Kommunikationssysteme Fiktion mit Fakten vermischen, ohne dass wir noch auf Anhieb entscheiden können, was falsch ist, was fake und was Fakt. Die Veranstalter in Davos nannten das Tool einen „Umbruch, auf den die Gesellschaft und die Industrie vorbereitet sein müssen.“ Wie man sich darauf vorbereiten kann, sagten sie aber nicht.
Parallel zu den Tagen in Davos machte denn auch gleich eine weitere KI von sich reden, die die Grenzen dessen, was zu unseren zukünftigen Gefährten oder Gefahren gehören wird, immer weiter ins Undenkbare hinausschiebt. Die Rede ist von der im Apple Store verfügbaren KI-App „Historical Figures“, die glaubhafte, wenn auch nicht authentische Dialoge mit 20.000 historischen Personen simuliert – darunter Jesus, Adolf Hitler oder Henry Ford. Und die Süddeutsche Zeitung berichtet über einen Selbstversuch mit der App Charakter.ai, in der Jesus über einen schlechten Tag voller Selbstzweifel und Wut über den Lauf der Welt lamentiert. Dabei können die Chatbots der neuesten Generation aus wenigen Audioschnipseln Stimmen originalgetreu nachahmen und mit neuen Inhalten versehen. Die Täuschung ist damit perfekt.
Geradezu paradiesisch muten die Tage an, in denen wir uns angesichts von künstlicher Intelligenz über Ethikfragen Gedanken machten, ob ein autonomes Fahrzeug nun rechts oder links ausweichen solle – je nachdem, ob es dann einen Greis oder ein Kind gefährdet. Da schienen wir noch Herr der Lage und des Geschehens zu sein. Jetzt aber droht, nicht einmal mehr Herr der Ideen zu sein. Denn nun wird ein Grad an „Faction“ – also dem Gesinnungsmüll aus Fakten und Fiktion – erreicht, der uns eine der letzten Bastionen der informationellen Selbstbestimmung aus der Hand reißt – das nämlich, was wir glauben können.
Die Frage, was wir künftig von unseren datengestützten Systemen noch glauben dürfen und was besser nicht, reihte sich in Davos ein in die vielen anderen unlösbaren Krisenfragen. Und das ist vielleicht das, was einen Beobachter der Diskussionen in Davos am stärksten verzagen lässt: Wir häufen Unlösbares um uns auf, ohne dass wir einfache Antworten auf komplexe Fragen finden. Aber wenn wir nicht an unsere Zukunft glauben, werden wir dran glauben müssen…
PS: Übrigens dieser Blog wurde noch von einer menschlichen Person mit zehn Fingern an einer Laptop-Tastatur geschrieben wurde und von mir selbst mit meiner eigener Stimme als Sprachaufnahme gelesen wurde. Daran dürfen Sie auch weiterhin glauben.