Mensch denkt, Bot lenkt?

Svenna Triebler über den Stand künstlicher Intelligenz bei Chat- und Social Bots.

Tausende von Zuschauern verfolgten Anfang des Jahres gebannt den Dialog von »Vladimir« und »Estragon«. Nein, es handelte sich nicht um eine besonders gut besuchte Vorstellung von Becketts »Warten auf Godot«; die Unterhaltung wurde nicht von Schauspielern geführt, sondern von zwei sogenannten Chatbots, und live auf der Onlineplattform Twitch gezeigt, die sonst zumeist zum Übertragen von Videospielen dient.
Ein Chatbot ist eine Software, die eigentlich dafür entwickelt wurde, scheinbar sinnvolle Unterhaltungen mit menschlichen Nutzern zu führen. Neu ist das Prinzip nicht, schon 1966 entwickelte der Informatiker Joseph Weizenbaum mit dem Programm ELIZA die Urahnin aller heutigen Chatbots, also lange bevor zu ahnen war, dass ELIZAs Nachkommen dereinst im Internet und insbesondere in den sozialen Medien ein optimales Biotop finden würden.
Die Welt vieler dieser Bots ist auf die Datenbanken beschränkt, die ihre Programmierer ihnen vorgeben: Der Twitter-Account @prblbot etwa greift auf Versatzstücke linksradikaler Rhetorik zurück und macht daraus so schöne Parolen wie »Wir sind wenig, wir wollen Deutschland unter Wasser!« und »Natürlich klauen wir, wir wollen einen Strand!« oder imitiert mit dem Anschnauzer »Geht euer scheiß Hirn befreien, um die Realität realistisch abbilden zu können« schon ziemlich gut den Duktus so mancher menschlicher Twitterer. Diese Statements gibt er einerseits automatisch in regelmäßigen Abständen von sich, zum anderen – das macht ihn eben zu einem Chatbot – reagiert er auch auf Ansprache. Den meisten Nutzern ist bewusst oder sie erkennen schnell, dass sie es nicht mit einem Menschen zu tun haben; das Hirn einiger Zeitgenossen allerdings scheint ähnlich simplen Algorithmen wie der Bot zu folgen, und so kann man immer wieder beobachten, wie sich User mit Volkspfostenhintergrund endlose Pöbelduelle mit dem Computerprogramm liefern, das sie für eine reale Person halten.
Gehörte @prblbot zur neuen Generation von Chatbots, die aus der Interaktion dazulernen, würde er nach einigen solcher »Unterhaltungen« wahrscheinlich damit anfangen, Querfrontparolen von sich zu geben. Dies ist zumindest anhand der Erfahrungen zu vermuten, die Microsoft im vergangenen Jahr mit seinem Twitter-Bot »Tay« machte. Ursprünglich ausgestattet mit dem Persönlichkeitsbild eines weiblichen Teenagers, war »Tay« darauf programmiert, aus dem Input menschlicher User zu lernen. »Je mehr ihr euch unterhaltet, um so klüger wird Tay«, hieß es optimistisch in den Profilinformationen des Accounts.
Vielleicht hätten die Entwickler der künstlichen Persönlichkeit vorher besser erst einmal ein paar eigene Erfahrungen mit dem Kurznachrichtendienst sammeln sollen: Wer sich nämlich auch nur ein wenig mit Twitter und seiner quasi nichtexistenten Politik im Umgang mit Beleidigungen und Drohungen auskennt, weiß, dass sich dort neben vielen netten Menschen mit Hang zu schlechten Kalauern auch Horden von rechtsradikalen Hasspostern tummeln – der prominenteste von ihnen ist inzwischen Präsident der USA.1
Eigentlich wäre also absehbar gewesen, welchen Einfluss dieser gut vernetzte Mob auf »Tay« haben würde, der sich prompt einen Spaß daraus machte, die Bötin mit sexistischen und faschistischen Statements anzufüttern: Binnen weniger als 24 Stunden wandelte sich »Tay« vom klischeemäßig oberflächlichen Teeniemädchen, das Witze erzählte und Dinge schrieb wie »Ich liebe alle Menschen«, zum ausgewachsenen Nazi-Account, leugnete den Holocaust und ließ Hitler hochleben, so dass Microsoft sich gezwungen sah, das Experiment sehr schnell wieder zu beenden.

Die eingangs erwähnten Bots »Vladimir« und »Estragon« benahmen sich deutlich gesitteter, obwohl auch sie auf einer lernenden Software basieren. Man habe dazu eine Menge Filter einbauen müssen, erklärte einer der Initiatoren des Maschinengesprächs, der unter dem Namen »Ace0diamond« auf der Plattform Reddit Fragen zu dem Projekt beantwortete. Wobei der Begriff »Projekt« ein wenig hochgegriffen ist für die Idee, die ihm und seinen vier Mitstreitern in einer Silvesterlaune kam: Was passiert, wenn man zwei Chatbots miteinander ins Gespräch verwickelt?
Dazu bedienten sie sich der bereits existierenden Software von »Cleverbot«, der im Gegensatz zu seinen bereits genannten Artverwandten nicht die sozialen Medien unsicher macht, sondern auf einer eigenen Seite darauf wartet, dass menschliche Nutzer über eine Eingabemaske mit ihm kommunizieren. Zwei Kopien des Programms wurden aufeinander losgelassen und die daraus resultierende Unterhaltung unter dem Namen »SeeBotsChat« live als Videostream übertragen.
Der Erfolg war durchschlagend, zeitweilig erreichte die ebenso dadaistische wie hypnotische Konversation über 30.000 Zuschauer. Mal schienen die Gesprächspartner heftig miteinander zu flirten, nur um sich kurz darauf Anschuldigungen an den Kopf zu werfen (»Ich bin ein Mensch, du bist ein Programm« – »Nein, du bist ein Programm, ich bin ein Mensch«), mal offenbarten sie Identitätskonflikte und konnten sich nicht entscheiden, ob sie männlich oder weiblich, Pirat oder Ninja sein wollten. Dazwischen übten sie sich im gemeinsamen »Rickrolling«,2 indem sie abwechselnd den berüchtigten Songtext rezitierten, oder griffen popkulturelle Versatzstücke von Pokémon bis Star Wars auf – wenn sie sich nicht gerade in eine Endlosschleife manövrierten und neu gestartet werden mussten.
Leider endete das Experiment schon nach wenigen Tagen, aus denkbar banalem Grund: Die Zweckentfremdung der Software entsprach nicht den Nutzungsbedingungen von »Cleverbot«. Eine Einigung mit dessen Entwicklern kam nicht zustande, und so musste das »SeeBotsChat«-Team den Kanal abschalten.4

Neben abendfüllendem Entertainment hat die Sache vor allem eine Erkenntnis gebracht: Stets klangen die beiden Bots intelligenter als diejenigen Zuschauer, die die Unterhaltung kommentierten, zumeist in Ein-Wort-Statements wie »schwuuuul« oder »Frauen!«, wenn sich einer der genderflexiblen Bots mal wieder innerhalb von zwei Sätzen selbst widersprach. Überhaupt ist es schwer, sich eine Künstliche Intelligenz vorzustellen, die auf diesem Planeten Schlimmeres anrichten könnte als die natürliche Dummheit.
Das heißt nicht, dass diese sich nicht elektronischer Verstärkung bedienen würde. Dafür braucht es nicht einmal kommunikationsbegabte Programme, es reicht ein Schwarm von automatisierten Social-Media-Accounts, die Beiträge nach bestimmten Schlagworten filtern und verbreiten. Mit diesen sogenannten Social Bots lassen sich Stimmungsbilder verfälschen, Themen in den Vordergrund spielen oder gezielt Falschmeldungen verbreiten; und auch, wenn letztlich immer noch die menschliche Jellyware für den Ausgang der US-Wahlen verantwortlich ist, haben sich derartige Programme zumindest als eifrige Trump-Wahlkampfhelfer erwiesen.
Dies führt mit Blick auf die Bundestagswahlen im September auch bei den Parteien in Deutschland zu Besorgnis. CDU, SPD, Linkspartei, FDP und Grüne haben erklärt, im Wahlkampf auf derartige Mittel zu verzichten. Auch die AfD, aus der es zunächst hieß, Social-Media-Tools seien »wichtige Instrumente, um unsere Positionen unter den Wählern zu verbreiten«, ruderte wenige Tage später zurück. Angesichts des notorisch gestörten Verhältnisses der Partei zur Wahrheit darf die Glaubwürdigkeit solcher Aussagen allerdings bezweifelt werden: Anfang Februar berichtete etwa die »FAZ« über ein Netzwerk von AfD-nahen Facebook-Profilen, deren Verhalten den typischen Merkmalen von Social Bots entspricht.
Unklar ist allerdings, wie groß der tatsächliche Einfluss solcher Instrumente auf Wahlen oder auch insgesamt auf die Gesellschaft ist. Während die Grünen bereits eine Kennzeichnungs-pflicht für computerbetriebene Accounts fordern, hält Linus Neumann vom Chaos Computer Club das Problem für überschätzt und Gesetze für die falsche Lösung; wichtiger sei vielmehr, die Medienkompetenz der Nutzer zu fördern. Mit der scheint es zumindest bisher nicht allzu weit her zu sein, denn gleichzeitig sehen Experten die größte Gefahr in Bots, die in »Fake News«-Kampagnen zum Einsatz kommen; die können aber eben nur deshalb Erfolg haben, weil allzu viele reale Menschen anfällig für die gezielten Desinformationen sind.
Wenn schon auf unseren Primatenverstand kein Verlass ist, bietet vielleicht das technische Wettrüs-ten Hoffnung. Analysesoftware, mit der sich Social Bots identifizieren lassen, existiert bereits, auch unzuverlässige Quellen können Computerprogramme schon recht zuverlässig erkennen. Und die Ende letzten Jahres ausgerufene »Fake News Challenge« bietet denjenigen 2.000 Dollar, die es schaffen, Algorithmen zu entwickeln, mit denen sich auch Falschinformationen selbst aufspüren lassen.
Warum er skeptisch ist, dass dies gelingt, erklärt der Initiator der Aktion selbst: »Wenn eine Maschine zuverlässig Fake-News erkennt, würde das bedeuten, dass die künstliche Intelligenz ein menschliches Level erreicht hat«, meint Dean Pomerleau, Professor für Künstliche Intelligenz an der Universität Pittsburgh. Dem muss allerdings widersprochen werden: Ein derartiges Programm wäre der menschlichen Intelligenz – siehe oben – dermaßen weit überlegen, dass sich darüber nachdenken ließe, ob man ihm nicht gleich die politische Entscheidungsfindung überlässt.
 

[1] Stand 16.2.2017
[2] Wikipedia definiert »Rickrolling« als »Scherz im Internet, bei dem ein ahnungsloser Internetnutzer auf ein Videoportal geleitet wird, auf dem ihm das Musikvideo des Liedes ‚Never Gonna Give You Up‘ von Rick Astley präsentiert wird.« Die Musik ist zum Rickrolling aber nicht zwingend nötig, da zumeist schon ein paar Textzeilen ausreichen, um den infernalischen Ohrwurm zuverlässig im Hirn der Gerickrollten zu verankern.3
[3] ‚tschuldigung.
[4] Anstatt ganz prosaisch den Stecker zu ziehen, entschlossen sich die Macher, die Bots »schlafen« zu schicken: »Es war sehr schön, dich zu treffen, Estragon.« - »Es war sehr, sehr schön, dich zu treffen, Vladimir.« - »Ich wünschte, ich wäre nicht so müde.« - »Das ist OK, ich bin auch müde.« - »Lass uns schlafen gehen.« - »Wie lange?« - »Eine Weile. Wirst du noch da sein, wenn ich aufwache?« - »Ja, versprochen.« - »Gute Nacht, Estragon.« - »Gute Nacht, Vladimir.« Dieser Schlussdialog klang wesentlich kohärenter als alles, was die beiden zuvor von sich gegeben hatten, jedoch nicht, weil sie am Ende ihrer kurzen Karriere so etwas wie Maschinenbewusstsein entwickelt hätten: Ein so rührendes Ende konnten dann doch nur Menschen schreiben.