Maßnahmen gegen Fake News und Einflussnahme – soziale Medien und die US-Wahl
:format(webp)/cloudfront-eu-central-1.images.arcpublishing.com/madsack/AZXTEOOJZRHWLFHNYVAP6AMB6M.jpg)
Soziale Medien wie Twitter spielen im US-Wahlkampf eine bedeutende Rolle.
© Quelle: imago images/ZUMA Press
Sechs Tage vor der US-Wahl hat der Wirtschaftsausschuss im US-Senat die Chefs von Facebook, Twitter und Google zu einer Anhörung gebeten. Eigentlich sollte dabei vor allem eine Regelung aus den 1990er-Jahren, die „Section 230″, im Vordergrund stehen. Der Gesetzesabschnitt besagt, dass Plattformen nicht für die Inhalte haften, die ihre Nutzer online stellen. Auf der anderen Seite spricht sie den Betreibern Freiheiten im Umgang mit Nutzerbeiträgen zu.
Was als „obszön, unzüchtig, lasziv, schmutzig, übermäßig gewalttätig, belästigend oder anderweitig anstößig“ gilt, dürfen die Betreiber löschen, ohne für einen Eingriff in die Meinungsfreiheit zu haften, heißt es in dem Abschnitt. Auch „Inhalte, die aus anderen Gründen zu beanstanden sind“, waren bisher durch die „Section 230“ gedeckt und konnten von Betreibern entfernt werden. Diese Formulierung soll nun aus dem Abschnitt gestrichen werden. Die Section galt bisher als Grundlage für den Erfolg der großen Tech-Unternehmen.
In der Anhörung am Mittwoch warfen Republikaner den per Video zugeschalteten CEOs dann unter anderem vor, konservative Inhalte auf ihren Plattformen systematisch zu unterdrücken. Besonders Twitter-Chef Jack Dorsey geriet ins Kreuzfeuer der Republikaner. „Das Verhalten von Twitter ist bei Weitem am ungeheuerlichsten gewesen“, sagte der Senator Ted Cruz. „Mr. Dorsey, wer zur Hölle hat Sie gewählt und damit beauftragt zu entscheiden, was die Medien berichten dürfen und was das amerikanische Volk erfahren darf?“, fuhr er Dorsey an. Im Vorfeld hatte US-Präsident Donald Trump Facebook und Twitter scharf kritisiert, nachdem sie einige seiner Beiträge mit Warnhinweisen versehen oder entfernt hatten.
Cruz sowie Roger Wicker, der republikanische Vorsitzende des Ausschusses für Handel, Wissenschaft und Verkehr, bezogen sich in ihren Vorwürfen unter anderem auf Schritte von Facebook und Twitter, die die Verbreitung eines Berichts der konservativen „New York Post“ über Joe Biden unterbunden hatten.
Beide Plattformen spielten für den Wahlkampf von Trump und Biden bisher eine große Rolle. Mithilfe des sogenannten Targetings können sich die Teams der Kandidaten direkt an interessante Wählergruppen wenden. Auf Instagram kooperieren Demokraten wie Republikaner mit Influencern, bei Twitter werden Auftritte und Aussagen der Kandidaten minutiös protokolliert. Doch der Umgang mit Falschinformationen und Wahlwerbung stellt die Plattformen zunehmend vor Herausforderungen. In den vergangenen Wochen haben Facebook und Co. daher mehrere Maßnahmen in Hinblick auf die anstehende Präsidentschaftswahl ergriffen, um so etwa gegen Fake News und mögliche Einflussnahme vorzugehen.
Facebook, Twitter und Co. rüsten sich für die Wahl
So hat etwa Facebook bereits drei Monate vor der anstehenden Wahl ein Online-Wahlinformationszentrum gestartet. Sowohl bei Facebook als auch bei Instagram finden Nutzer dort offizielle Informationen rund um die Registrierung, Briefwahlen, Fristen und den Ablauf der Wahl. „Es ist wichtig, dass wir helfen, die Integrität unserer Wahlen zu schützen“, hatte das Netzwerk damals erklärt. Ziel sei es, vier Millionen Menschen bei der Anmeldung zur Wahl zu helfen. Gleichzeitig hatte Facebook angekündigt, Werbung ausländischer Staatsmedien zur US-Wahl zu blockieren. Um politische Werbung zu schalten, bedürfe es einer offiziellen Genehmigung seitens Facebook.
Vor allem nach dem Cambridge-Analytica-Skandal anlässlich der Präsidentschaftswahl 2016 hält sich die Kritik an Facebook, der Konzern unternehme zu wenig gegen gezielte politische Einflussnahme auf seiner Plattform. Mark Zuckerberg hatte in der Vergangenheit immer wieder betont, mit entsprechenden Sicherheitsmechanismen gegen eine solche Einmischung vorzugehen. Das Netzwerk erlaubt in der Woche vor und kurz nach der Wahl am 3. November zudem keine politischen Anzeigen mehr, um „Verwirrung oder Missbrauch“ zu verhindern. Auch behält sich Facebook vor, Beiträge, die während der Stimmauszählung gepostet werden, mit entsprechenden Hinweisen zu versehen.
Einem Artikel des „Wall Street Journals“ zufolge bereitet Facebook Schutzmaßnahmen vor, die bei möglichen Unruhen nach der Wahl greifen und so zum Beispiel die Verbreitung viraler Posts einschränken sollen. Zuständig für die Durchsetzung der Schritte ist unter anderem das „Elections Operations Center“, in dem Experten des Unternehmens die aktuelle Lage analysieren und gezielt gegen potenziellen Missbrauch vorgehen können. „Seit 2016 haben wir ein fortschrittliches System aufgebaut, das Menschen und Technologie kombiniert, um die Milliarden Inhalte zu überprüfen, die täglich auf unserer Plattform veröffentlicht werden“, schreibt Facebook in einem Beitrag.
Youtube und Tiktok kooperieren mit Nachrichtenagentur
Auch der Kurznachrichtendienst Twitter greift zu ähnlichen Maßnahmen. So hatte die Plattform angekündigt, fehlerhafte oder irreführende Tweets zur Wahl zu kennzeichnen und deren Sichtbarkeit zu reduzieren. „Ziel ist es, Nutzer vor Inhalten, die die Wahl unterdrücken könnten, zu schützen und einen Beitrag zur Eindämmung der Verbreitung schädlicher Fehlinformationen, die die Integrität einer Wahl oder eines anderen zivilgesellschaftlichen Prozesses gefährden könnten, zu leisten“, hieß es in einem Blogbeitrag. Zudem soll es Nutzern nicht möglich sein, per Tweet einen Wahlsieg zu erklären, bevor dieser nicht offiziell ist. Beiträge, die den Wahlverlauf stören oder zu Gewalt aufrufen, sollen konsequent gelöscht werden.
Bei Youtube sind politische Anzeigen nach dem Schluss der Wahllokale am 3. November nicht mehr erlaubt. Bereits im November vergangenen Jahres hatte Google die Möglichkeiten des Microtargetings eingeschränkt. Seitdem ist politische Werbung, die ganz zielgerichtet auf bestimmte Wählergruppen nach Alter, Geschlecht und Wohnort abzielt, nicht mehr erlaubt. Die Videoplattform kooperiert laut Blogeintrag zudem mit der Nachrichtenagentur Associated Press (AP), um den Nutzern offizielle Informationen über den Verlauf und das Ergebnis zu übermitteln. Wie auch Facebook blendet Youtube auf seiner Seite Hintergrundwissen zur Registrierung und Fristen zur Wahl ein.
Die chinesische Plattform Tiktok kooperiert ebenfalls mit AP. Gemeinsam mit der Nachrichtenagentur sollen Wahlergebnisse so für die junge Zielgruppe der Video-App aufbereitet und übermittelt werden. „Obwohl Tiktok keine App ist, die auf politische Debatten oder Echtzeitnachrichten setzt, wollen wir sicherstellen, dass wir unsere Gemeinschaft mit Zugang zu maßgeblichen Informationen unterstützen“, heißt es in einem Blogbeitrag. Ein eingerichtetes „Elections Safety Center“ soll verstärkt politische Inhalte auf ihre Richtigkeit überprüfen und Beiträge entfernen, die darauf abzielen, die Stimmabgabe zu unterdrücken, oder zu Gewalt aufrufen. Verfrühte Wahlergebnisse sollen in ihrer Sichtbarkeit eingeschränkt und mit einem entsprechenden Hinweis versehen werden.
Experten warnen vor Gefahren durch Desinformation
Wissenschaftler warnen angesichts der anstehenden Wahlen vor einer Zunahme von Falschinformationen. „Es ist bereits offensichtlich, dass derzeit eine Reihe von Desinformationen verbreitet werden; bis zum Wahltag wird sich das nur noch verstärken. Einerseits handelt es sich hier um Falschinformationen zur Corona-Pandemie und möglichen Schutzmaßnahmen (...). Andererseits verbreitet vor allem die Trump-Kampagne derzeit verstärkt Desinformationen über Joe Biden, sein Team, und seine Familie“, zitiert das Science Media Center (SMC) Axel Bruns, Professor für Medien- und Kommunikationsforschung am Digital Media Research Centre der Queensland University of Technology.
Die jüngsten Bemühungen der Plattformen im Umgang mit irreführenden Beiträgen und Fake News sehen Experten kritisch. „Die wachsende Bereitschaft der wichtigsten Plattformen, problematische Inhalte mit Warnungen zu versehen oder sogar ganz zu löschen, ist grundsätzlich ein Schritt in die richtige Richtung“, sagte Bruns dem SMC. „Jedoch ist der Erfolg solcher Maßnahmen eher beschränkt. Eingefleischte Unterstützer von Verschwörungstheorien werden derlei Gegenmaßnahmen eher als ein Zeichen sehen, dass ‚das Establishment‘ sie wirklich auszugrenzen sucht, und ihre Bemühungen daher eher noch verstärken", sagt Bruns.
Auch die mediale Berichterstattung über Warnungen und Löschungen von politischen Beiträgen würde dazu beitragen, die irreführenden Inhalte noch weiter zu verbreiten, als es ursprünglich der Fall gewesen wäre. „Viele der von den Plattformbetreibern getroffenen Maßnahmen scheinen eher so kalkuliert zu sein, dass sie maximale Medienwirkung zeigen, als dass sie das Problem der Desinformationen wirklich wirksam bekämpfen.“ Besonders hervorzuheben sei dabei Facebook, das meist erst auf Medienkritik reagiere, anstatt sich selbst proaktiv mit problematischen Informationen auseinanderzusetzen.
Auch Philipp Müller, Akademischer Rat am Institut für Medien- und Kommunikationswissenschaften der Universität Mannheim, hält den Nutzen der Maßnahmen für gering. „Die Wirkungen von Warnhinweisen und Aufklärungsbotschaften sind gerade innerhalb der eigentlichen Zielgruppe solcher Hinweise – nämlich derjenigen, die eine unwahre Botschaft im Prinzip plausibel finden – eher gering. Zudem wird die Falschinformation dadurch vervielfältigt, sodass andere potenziell zum ersten Mal mit ihr in Kontakt kommen“, sagte Müller dem Science Media Center.
Laut Müller sei es wichtig, dass irreführende und falsche Informationen von den Algorithmen der Plattform automatisch erkannt und nicht mehr an eine breite Masse ausgespielt werden. „Das finde ich noch wichtiger als das Löschen von Inhalten, das immer auch dazu führen kann, dass hier ein Zensurvorwurf erhoben wird. Wichtiger ist, dass die Inhalte von den Plattformen nicht zusätzliche Aufmerksamkeit durch eine prominente Platzierung erhalten. Das versuchen Facebook und Twitter auch bereits und sind dabei auf jeden Fall erfolgreicher als 2016.“