Um das gleich klarzustellen: dieser Text wurde von einem Menschen verfasst. Weder Siri, noch Cortana oder Alexa haben mir dabei geholfen. Auch Samantha oder Nessa waren nicht beteiligt. Nessa? So hieß das digitale Abbild von „Vanessa“ im Tatort von gestern, der gewissermaßen den szenischen Auftakt für die Diskussion über eine Arbeitswelt von morgen gab, in der Anne Will Sachverstand von Sascha Lobo bis Bernhard Rohleder vom bitkom über die Computer- und Roboterwelt der Zukunft einholte.
Es hat den Anschein, als sollten Chatbots – also kleine Programme, die menschliche anmutende Interaktion (oder zumindest Kommunikation) vortäuschen – eine imaginär gezogene rote Linie überschritten haben. Während die Übernahme physischer Tätigkeiten durch Roboter bereits für viele fragwürdig genug ist, scheint die Automatisierung von kreativen oder assoziativen, in jedem Fall aber scheinbar intellektuellen Aufgaben für die meisten nicht hinnehmbar zu sein. Eliza, das erste Sprachkommunikation simulierende Computerprogramm des KI-Pioniers Marvin Minsky, ist zwar genau 40 Jahre alt, hat aber offenbar noch nichts von seiner verstörenden Wirkung verloren.
Doch sind Entwicklungen in der Tat verstörend, wie sie sich in der jüngsten Vergangenheit in der Ukrainekrise, bei der Brexit-Debatte oder jetzt im US-amerikanischen Wahlkampf zeigen: Hier haben sogenannte Social Bots massenhaft Meinungsbeiträge, zustimmende oder ablehnende Stimmungsäußerungen auf Twitter und Co. verbreitet – und damit offenbar steuernd in die Meinungsbildung der Menschen eingegriffen. Forscher der Universität Oxford zählten nach der letzten „Presidential Debate“ in Las Vegas zwar 1,8 Millionen positive Tweets für Donald Trump – immerhin dreimal so viele wie für Hillary Clinton –, aber ein Drittel der Meinungsäußerungen gingen auf die Aktionen von Social Bots zurück, die auf den Hashtag „#TrumpWon“ reagiert hatten. Auch bei Clinton war nach Ansicht der britischen Forscher jeder fünfte Text ein Fake. Facebook nannte auf Anfrage die Zahl von 15 Millionen Accounts, die vermutlich für Bots in dem sozialen Netzwerk eingerichtet worden seien.
Da kann es nicht überraschen, dass Bundeskanzlerin Angela Merkel im Angesicht der kommenden Bundestagswahl vor diesen Auswüchsen warnt. „Wollen wir mal zwischen den Parteien darüber sprechen, ob wir gemeinsam dagegen kämpfen?“, hatte sie auf dem Deutschlandtag der Jungen Union in die Kameras gefragt. Vertreter von CDU, SPD, Grünen und Linken reagiert prompt – über die etablierten Medien – und erklärten, keine Avatare für Deutschland einzusetzen. Die AfD hingegen gab zu verstehen, dass man hier keine Hemmungen habe.
Wie groß das Beeinflussungspotential sein könnte, hat Simon Hegelich von der Technischen Universität München im Auftrag der CDU-nahen Konrad-Adenauer-Stiftung ermittelt. Zwar gaben 95 Prozent der Befragten an, sich von Meinungsäußerungen in den sozialen Medien nicht beeinflussen zu lassen – also auch nicht von Beiträgen, die von Menschen aus Fleisch und Blut gepostet werden. Aber die Vorstellung, dass sich fünf Prozent der Wähler von einem Algorithmus beeinflussen lassen könnten, der auf Hashtags wie „#Merkelmussweg“ oder „#Schwarzrotgoldistbuntgenug“ reagiert, ist schon irritierend.
Dabei sind Bots oder Chatbots wahrscheinlich die nächste Generation von Apps, mit denen es möglich wird, Konversation als wichtigste Schnittstelle zwischen Menschen und Maschinen zu etablieren. Cortana oder Siri sind – so simpel sie heute noch funktionieren – die Prototypen von „Conversation as a Service“, die nicht dafür gedacht sind, Menschen über ihre gefühlte Einsamkeit hinwegzutäuschen, sondern Suchanfragen an die Cloud und daraus folgende Dienstleistungen zu eröffnen. Heutige Online-Systeme funktionieren einfach besser, wenn sie in der Lage sind, aus einer Spracheingabe angemessene Aktionen auszulösen wie die Bereitstellung von Informationen, die Reservierung von Restaurants und Hotels, Planung von Reisen oder Terminierung von Meetings. Längst hat der Wettlauf zwischen den IT-Konzernen darüber begonnen, Plattformen für die Erstellung von Bots als zukünftige Benutzeroberfläche bereitzustellen.
Bots als kleine Helferlein in einer digitalisierten und automatisierten Welt sind an sich kein Teufelswerk. Dazu werden sie – wie immer – erst durch den Einsatz der Menschen. Und genau hier müssen wir unterscheiden lernen – und Standards setzen, die einen Missbrauch verhindern. Dazu braucht es erst einmal eine öffentliche und offene Debatte über Risiken und Nebenwirkungen der digitalen Transformation. Man sei möglicherweise dabei, ein historisches Dokument zu produzieren, warnte Christian Lindner, derzeit als Fraktionsvorsitzender der FDP im nordrhein-westfälischen Landtag in Warteposition für höhere Aufgaben. In 30 Jahren würden sich die Menschen der nahen Zukunft die Debatte bei Anne Will reinziehen, um sich über die sonderbaren Ängste der Menschen des Jahres 2016 schlapp zu lachen, die vor den Auswirkungen der Digitalisierung und Automatisierung großer Teile unseres Lebens zurückschreckten.
Da mag es beruhigend wirken, dass die ARD als Begleitung ihrer Themenwelt über die Arbeit von morgen einen „Job-Futuromat“ ins Web gestellt hat, den man danach befragen kann, welche Auswirkungen die Digitalisierung auf das eigene Jobprofil haben könnte. Unternehmensberatern wird darin die Auskunft erteilt, dass der Job zu 13 Prozent durch digitale Systeme automatisiert werden kann. Publizisten sind demnach zu 100 Prozent unersetzbar. Was für ein Glück – den Bonnblog gibt es also weiter von mir ganz alleine. Der eine oder andere gute unternehmerische Rat könnte allerdings dann doch von einem Bonnbot kommen.