23. November 2016

Schöne neue Propaganda

Der Fortschritt ist schon eine tolle Sache. Vor allem lässt er sich so schön ausdrücken: Man hängt einfach an ein Nomen „Zahl.0“ an (Web 2.0, Industrie 4.0 usw.) und schon hat man griffig und tweetbar klargestellt, dass etwas neu ist und – da vernetzt und automatisiert – vermeintlich intelligenter.

 

Aber zunehmend werden auch Dinge automatisiert, die weit weniger harmlos sind als ein smarter Kühlschrank, der Fotos des Kühlschrankinhalts ans Handy weiterleitet. Nämlich die Meinungsbildungsprozesse in den sozialen Medien.

 

Social Bots

 

Deren Automatisierung geschieht über so genannte Social Bots. Ein Bot an sich ist ein Computerprogramm, das autonom sich ständig wiederholende Aufgaben abarbeitet. Ein typisches Beispiel wären Chatbots; Programme, die auf einfache Anfragen standardisierte Antworten geben.

 

Man kennt diese Programme zum Beispiel von den Websites von DSL-Anbietern. Besucht man die Seite und surft eine Zeit lang ziellos umher, öffnet sich ein Pop-Up Fenster mit Fragen wie „Hallo, ich bin Marc von [Firma hier], wie kann ich dir helfen?“.

 

Gibt man nun in das Fenster einfache Fragen wie „Wo finde ich Kombi-Verträge?“ ein, leitet der Bot den User auf die entsprechende Seite weiter. Ein anderes Beispiel sind Crawler, also Programme, die für Suchmaschinen das Internet nach bestimmten Begriffen abgrasen und daraus dann Ergebnislisten generieren.

 

Aber es gibt auch schädliche Bots. Tauchen diese in sozialen Netzwerken wie zum Beispiel Twitter oder Facebook auf, können Sie die öffentliche Meinung (oder zumindest deren Wahrnehmung) dramatisch verzerren.

 

Bots im Wahlkampf

 

Der Präsidentschafts-Wahlkampf in den USA zeigt das auf erschreckend anschauliche Weise. So sollen unter den mehr als 12 Millionen Twitter-Followern von Donald Trump fast 40 % Fake-Accounts sein, viele davon Bots.

 

Sie generieren automatisiert einen hohen Traffic auf Trumps Twitter-Profil und verhalfen so zum Beispiel Hashtags, die Trumps Lager im Wahlkampf nützten, zu einer höheren Platzierung im Twitter-Ranking.

 

Da Bots (bzw. Bot-Netzwerke) Postings in sozialen Netzwerken mit deutlich höherer Frequenz absetzen können als menschliche Nutzer, können sie innerhalb kürzester Zeit Diskussionen geradezu überschwemmen.

 

So manipulieren sie Trends in sozialen Netzwerken oder tragen dazu bei, dass sich gemäßigte Personen aus Diskussionen zurückziehen, indem extreme Meinungen stark zunehmen. Social Bots sind also eine automatisierte Variante eines Troll-Netzwerks, wie es 2015 in Sankt Petersburg durch eine Aussteigerin aufflog.

 

Da sich ein Großteil der Wähler in Demokratien erst kurz vor einer Wahl für einen Kandidaten entscheidet, ist die Gefahr, dass die Wähler in diesem kurzen Zeitraum durch das Meinungs-Bombardement der Bots in ihrer Entscheidung beeinflusst werden, hoch.

 

Mit Hinblick auf die Bundestagswahl 2017 haben CDU, CSU, Grüne, Linkspartei und SPD einstimmig erklärt, auf den Einsatz von Social Bots im Wahlkampf zu verzichten. Lediglich die AfD hat angekündigt, diese einsetzen zu wollen.

 

PR-Bots

 

Auch im Bereich der Public Relations ist der Einsatz von Bots nicht unbekannt. Beim so genannten „Astroturfing“ (benannt nach einem Kunstrasen) wird über das Lancieren von Postings in Foren und anderen Medien die Entstehung einer Graswurzelbewegung vorgetäuscht, um ein PR-Ziel zu erreichen.

 

Die Deutsche Bahn, die Telekom und Microsoft sind alle schon bei dem Versuch erwischt worden, Diskussionen in ihrem Sinne zu manipulieren. Aber gefälschte Produktbewertungen oder automatisch generierte Likes für Produkte sind harmlos gegen die Aktivitäten von Geheimdiensten.

 

Wie aus Dokumenten des Whistleblowers Edward Snowden hervorgeht, unterhält der britische Geheimdienst GCHQ eine Abteilung namens Joint Threat Intelligence Research Group (JTIRG), die sich auf die Verbreitung von Propaganda im Internet spezialisiert hat.

 

Eine ihrer bevorzugten Methoden: das Streuen von Gerüchten in sozialen Netzwerken. Durch Weiterentwicklungen im Bereich der künstlichen Intelligenz wird es immer schwieriger, Programme von echten Nutzern zu unterscheiden.

 

Maßnahmen des Turing-Tests, wie zum Beispiel die Eingabe von Captchas (für den Menschen noch erkennbare, verzerrte Darstellung von Wörtern), bieten auch keine 100-prozentige Sicherheit mehr.

 

So ist es kein Wunder, dass die Konrad Adenauer Stiftung in einer Studie zu dem Schluss kommt „Das Beeinflussungspotenzial – der sogenannte Bot-Effekt – ist theoretisch sehr groß, lässt sich empirisch aber nur schwer nachweisen.“

 

Letzlich hilft nur eine Sensibilisierung der Öffentlichkeit (oder im Kleinen: des eigenen Bekanntenkreises) für die Existenz von Bots. Wird ihnen das Feld der kommunikation ohne Gegenwehr überlassen, ist die Demokratie in ernster Gefahr.

 

Oh brave new world, that has such programs in’t!


ein Kommentar zu “Schöne neue Propaganda”


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

vom Hoff Kommunikation Düsseldorf – Strategische Kommunikationsberatung für namhafte Unternehmen und Institutionen.