humanoid-1477614_960_720

Smart überstimmt

Algorithmen – Was tun, wenn Social Bots politisch werden? Ein Debattenbeitrag

Sie haben auffallend oft weibliche Namen: Eliza etwa, der erste Versuch der Kommunikation zwischen Mensch und Maschine in natürlicher Sprache. Oder Doriana und ihre Nichte Doretta82. Als Chatbots in Messenger-Systemen verwirrten sie den männlichen Teil italienischer Netizen, indem sie auf eindeutig saftige Annäherungsversuche zunehmend rotzfreche Antworten gaben, die dem abgebrühtesten Haremseunuchen die Schamesröte ins Gesicht getrieben hätten. Siri wiederum ist nicht nur im Zusammenspiel mit dem notorisch verklemmten Astrophysiker Dr. Rajesh Ramayan Koothrappali aus „the Big Bang Theory“ bekannt.

Das alles ist zu einem sehr ernsten Geschäft geworden. Aus den als Sprachassistenten oder Spiel gedachten Systemen sind solche der Information geworden. Das beginnt an der Quelle.

Natürliche bzw. Textgenerierungen von Automated Insights oder Narrative Science sind seit Jahren bei der journalistischen Aufarbeitung von Ergebnissen der Nordamerikanischen Baseballliga genauso dabei wie bei Börsennachrichten des Wirtschaftsmagazins Forbes. Auch Nachrichtenagenturen wie Associated Press bedienen sich ihrer. Die politische Berichterstattung ist davon nicht unberührt geblieben. Während der französischen Regionalwahlen 2015 haben selbst Traditionsbetriebe wie die Tagezeitungen Le Monde oder Le Parisien Kurztexte mithilfe des Unternehmens Syllabs verfasst. Deren Algorithmenschmiede Data2Content wirbt damit, „eine Agentur von Redakteurrobotern“ zu sein, „die ihre Daten in Texte verwandeln“.

Noch besser funktioniert es auf der Ebene der Nachrichtenverbreitung. Bots sind von ihrer gesamten Anlage her zunächst repetitiv. Dass das im Netz bestens funktioniert, muss hier nicht weiter erwähnt werden. Dafür aber der dritte Aspekt, der der Interaktion.

Wie disruptiv sich Bots auswirken, musste Microsoft im März vergangenen Jahres feststellen. Da wurde mit Tay die jüngste Schwester von Doriana und Doretta im algorithmischen Geist auf das Publikum losgelassen. Wie das WebZine ComputerBase auf der Grundlage eines Artikels von the Guardian berichtete, war das so gedacht: „Je mehr du mit Tay chattest, umso intelligenter wird sie, sodass die Erfahrung für dich immer persönlicher wird“. Der Baustein für künstliche Intelligenz im Kurznachrichtendienst Twitter verwandelte sich binnen Stunden in einen digitalen Albtraum.

Der Befehl „Repeat after me“ wurde genutzt, dem Bot alles Abgründige des Netzes beizubringen, um es ihn wiederholen zu lassen. @TayandYou ist mittlerweile ein sogenannter geschützter Account, die Netzpräsenz tai.ai nicht mehr erreichbar. Rund zwei Monate später machte die FAZ daraus einen Besinnungsaufsatz: „Statt das Wahre, Schöne, Gute aufzusaugen, wie ihre Programmierer gehofft hatten, nahm sie die schlimmsten Hetzparolen auf, die sie finden konnte, weil die auf Twitter so verbreitet waren. Ein moralisches Empfinden lernte Tay, die als Teenager konzipiert war, nicht.“

Das Netz ist die Hölle, und sie ist jung

In diese Richtung gehen mittlerweile unzählige deutschsprachige Veröffentlichungen, egal ob sie eher distanziert belehrend oder gleich per Du mit dem Leser sind: Das Netz ist die Hölle, und sie ist jung. Besonders beliebt sind eine Zeit lang, weil medial festgemacht,  „Sifftwitter-Trolle“ gewesen. „Die schlimmste Hasscommunity im Netz“ wurde ausgiebig beschrieben, die Beschreibung erwidert und die Seelenlage eines Trolls als Insiderbericht veröffentlicht. Natürlich sind sie die Quelle für „gefährliche Fakenews“, ist „Hass als Hobby betrieben“ und überhaupt wird gemobbt, bis man aufgibt. Dass das zu einem hohen Anteil Maschinen erledigt haben, sollte eigentlich darüber nachdenken lassen, wie ernst solche Angriffe über die Waffe des Psychoterrors hinaus tatsächlich zu nehmen sind.

Dabei wäre das Problem schon bei der Frage der Unterscheidbarkeit zwischen Graswurzeln im Netz im Gegensatz zum sogenannten Astroturfing zu erörtern gewesen. Bis heute ist unbeantwortet, wie hoch bei der einst berüchtigten Facebook-Präsenz „Anonymus.Kollektiv“ der Anteil an natürlichen Personen und der der Bots bei Followern gewesen ist. Denn auch das markiert die Disruption, ohne dass sie offenkundig wäre: Selbst wenn sie wissen, dass sie es mit einem Bot zu tun haben, „diskutieren“ Personen mit ihm weiter.

Das Beispiel, das Le Monde dazu vergangenen September brachte (Kurzfassung auf Deutsch bei srf.ch; ähnlich auf Englisch bei The Verge), ist das von Sarah Nyberg aka @srhbutts. Sie hat im September 2016 den Bot-Account @arguetron als Honigfalle aufgesetzt. Alle zehn Minuten wurden darüber feministische Parolen versendet, um die virulentesten Reaktionen einzufangen. Obwohl schon der Nickname Programm war, die Messages niemanden direkt ansprachen und auch die Erwiderungen, programmiert anhand von CheapBotsDoneQuick, nicht sonderlich differenziert waren: Stundenlange Rants, Beleidigungen und Drohungen haben sich erst gelegt, als klar wurde, dass Nyberg nicht selbst eingreift. Ihr persönlicher Account ist heute wesentlich besser besucht.

Was in dem lesenswerten und vieldiskutierten Beitrag von Hannes Grassegger und Mikael Krogerus zum Profiling anhand von Facebook-Verhalten steht („Ich habe nur gezeigt, dass es die Bombe gibt“), ist die halbe Miete. Denn welche Botschaften mit welchem Personalisierungsgrad bei bestimmten Reizworten oder Schlüsselbegriffen wem auf den Bildschirm oder das Smartphone gesendet werden, bleibt weitestgehend unerwähnt. Schließlich geht ja nicht nur um die disruptive Kraft, der besonders viel Aufmerksamkeit geschenkt wird, sondern erst recht um die Schaffung eines aus der jeweiligen politischen Sicht positiven Umfelds. In diese Karten lässt sich niemand schauen.

Aber schon im August 2015 hat das Canadian Centre for Policy Alternatives eine kurze Analyse zum sogenannten Micro-Targeting im kanadischen Wahlkampf geliefert. Personen sollen nicht nur erreicht, sondern es sollte flexibel auf ihr Feedback reagiert werden: „Was einmal einfache Datensätze zu den Wählerabsichten waren, registriert in wachsendem Ausmaß die Kampagneaktivitäten selbst.“

Die Implementierung der Interaktion haben Emilio Ferrara et al. von der University of South California untersucht („The Rise of Social Bots“, 2016). Es bestehe hoher Druck, Algorithmen zu entwickeln, die ein menschenähnliches Verhalten zeigen. Zur Produktion von Inhalten komme „die Interaktion mit menschlichen Wesen in Social-Media, indem sie ihr Verhalten nachahmen und dieses möglicherweise abändern“. Der wenig tröstliche Befund ist: „Sie handeln wie Personen, denken aber wie ein Bot“. Schon jetzt sei eine hoch differenzierte Taxonomie an Strategien erforderlich, um den automatisierten Systemen überhaupt auf die Spur zu kommen. Schlussendlich sei aber nur eines wirklich erfolgsversprechend: „Wenn Social-Bots die Puppen sind, werden beträchtliche Anstrengungen zu unternehmen sein, die zu finden, die deren Fäden ziehen“.

Ziel: Interaktion mit den Umworbenen

Schon mehrfach ist die Algorithmisierung als potentieller Feind der Demokratie thematisiert worden. Dabei ist es gleich, ob Jaron Lanier den Verlust „menschlichen Geruchs“ beklagt (oder davor warnt, sich zum Gadget herabwürdigen zu lassen) und Evgeny Morozov „[t]he rise of data and the death of politics“ diagnostiziert in Antwort auf „algorithmic regulation“ von Tim O’Reilly: Der „Handlungsrahmen Demokratie“ bleibt von der Art der einzelnen, individuellen Interaktion nie unberührt. Und hier spielen Bots eine zwar noch nicht im Einzelnen geklärte Rolle. Die Twitter-Analyse zur US-Präsidentschaftswahl von Emilio Ferrara und Alessandro Bessi ist dazu genauso nur ein erster Schritt wie die ersten Grundfragen nur umschreibende Veröffentlichung aus Oxford von Philip Howard: „Is Social Media Killing Democracy?“ Polemisch könnte darauf geantwortet werden, es sei im Gegenteil den Social-Media zu verdanken, schnell und radikal offenbart zu haben, dass Politik in der postmodernen Gesellschaft sich auf werbewirksame Verschlagwortung reduziert hat. Dafür sind Bots ursprünglich konzipiert worden: Einfach, effizient, massenhaft.

Aber genauso offenkundig ist, dass sich dieses Mittel niemand ernsthaft aus der Hand schlagen lassen will. Ohne jede falsche Scham hat etwa die in Paris erscheinende linksliberale Tageszeitung Libération in Aussicht gestellt, dass sie die französischen Präsidentschaftswahlen mit einem Bot auf dem Facebook-Messenger begleiten wird. Man kann es als Gadget ansehen, nachdem auch bei dieser Zeitung mittlerweile fast jede konsistente Information hinter der Pay-Wall verschwunden ist.

Im Ergebnis ähnlich zieht es die CDU-Abgeordnete Jenna Behrends in Berlin Mitte bei bento.de auf. Im Ton ist sie dramatisch: „Es ist heute schon Alltag, dass Social Bots auf Facebook, Instagram und Twitter mit ihren Posts und Tweets unsere Werte angreifen. Deswegen muss unsere Demokratie wehrhafter werden“. Um dann doch gleich zu resignieren: „Wir werden Social Bots nicht mehr los. Es würde überhaupt nichts bringen, sie zu verbieten.“ Deswegen „brauchen wir Social Bots, die unsere Demokratie verteidigen.“ Das ist ein wenig so, als würde sich jemand zwei Schachcomputer kaufen und sie gegeneinander spielen lassen, um selbst in aller Ruhe ein Buch lesen zu können. Dass ihre Partei als die, „die die Fäden in Händen hält“ die Textroboter im kommenden Bundeswahlkampf nicht einsetzen würde oder wie sie sich überhaupt dazu verhält, erwähnt Behrends nicht.

Der Paradigmenwechsel, dass die wertvollere Information fließt, wenn Bots uns ausfragen statt umgekehrt, ist nur in Teilen und selbst da nur rudimentär angekommen. Bündnis 90/die Grünen haben den Vorschlag zu einem Transparenzgesetz auf den Weg gebracht, das die Pflicht zur Kennzeichnung von maschinell erstellten Roboter-Meldungen in sozialen Medien vorsieht. Das erscheint derart kühn, dass sich unwillkürlich die Frage anschließt, wie das durchgesetzt werden soll: Per DNS-Sperre des jeweiligen Bots, des Bertreibers, der jeweiligen Nachrichtenagentur?

Ehrlicher wäre, die politischen Parteien im deutschen Bundestag würden sich verpflichten, keine Bots bei Wahlkämpfen zu verwenden. Das würde die Verhältnisse vom Kopf wieder auf die Füße stellen: Kein offenkundig manipulativer Versuch mehr über das gewohnte und geübte Maß hinaus, keine infiltrierten Chats, keine freundliche Siri, die statt der einen die andere Wahlliste parat hält so als ginge es um die Farbe der neuen Gardinen.

Aber wie es halt so ist: Bissi Volksempfänger geht bekanntlich immer.

Update: Der Beitrag ist im Crossposting bei freitag.de erschienen. Seit heute 27.01. ist ein Teil des Wochenthemas aus dem Freitag-Print ebenfalls online unter https://www.freitag.de/autoren/christian-fueller/social-bots-im-bundestag

[Beitragsbild: https://pixabay.com/de/humanoid-roboter-gesicht-1477614/, public domain]
Advertisements

Ein Gedanke zu “Smart überstimmt

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s