# taz.de -- Analyst über prorussische Desinformation: „Sowas haben wir noch nie gesehen“
       
       > Vor den EU-Wahlen haben Forscher:innen neue Methoden von
       > Desinformation dokumentiert. Der Analyst Saman Nazari erklärt, was man
       > dagegen tun kann.
       
 (IMG) Bild: Wie kann man Menschen, die unabhängige Medien für ein Problem halten, überhaupt mit Fakten erreichen?
       
       wochentaz: Herr Nazari, Sie und Ihre Kolleg:innen beobachten die
       Bedrohung durch [1][Desinformation] im Kontext der EU-Wahl. Gerade erst
       flog eine großangelegte Aktion prorussischer Akteure gegen westliche
       Faktenchecker:innen auf. Was hat es damit auf sich? 
       
       Saman Nazari: Kolleg:innen konnten zeigen, dass prorussische Akteure
       zwischen August 2023 und Mai 2024 über 800 Faktenchecker:innen und
       Nachrichtenredaktionen in westlichen Ländern wie Deutschland und Frankreich
       mit massenhaft gefälschten Anfragen geflutet haben. Dabei wurden auf
       [2][Plattformen wie Telegram] und X zuerst hunderte gefälschte Videos,
       Fotos und Artikel verbreitet. Die wurden an die Faktenchecker:innen
       geschickt, verbunden mit der Aufforderung, die Inhalte zu überprüfen. Das
       Ziel war, diese Organisationen lahmzulegen. So etwas haben wir noch nie
       gesehen.
       
       Es gibt Millionen von Social-Media-Kanälen – wie lassen sich solche
       Desinformationskampagnen überhaupt identifizieren? 
       
       Wir haben uns als Netzwerk aus 30 Organisationen zusammengeschlossen, um
       gemeinsam gegen die [3][Bedrohung durch Desinformation zu kämpfen]. Dazu
       setzen wir im Wesentlichen auf Software zur Überwachung von sozialen
       Medien. Solche Tools werden normalerweise von Unternehmen genutzt, um zu
       verfolgen, wie über ihre Marke gesprochen wird. Wir nutzen Kombinationen
       aus Suchwörtern, um Social-Media-Posts zu analysieren, die wir für relevant
       halten.
       
       Welche sind das zum Beispiel? 
       
       Beispielsweise Posts, die mit der EU-Klimapolitik zu tun haben. Da suchen
       wir nach Begriffen wie „EU Green Deal“ oder „CO2-Steuer“, in Verbindung mit
       negativ aufgeladenen Worten, die man nicht in normalen Publikationen finden
       würde – beispielsweise „dumm“, „fanatisch“, „ideologisch“, „Schwindel“ oder
       „gefährlich“. Und da findet sich einiges. Die Herausforderung ist,
       herauszufinden, welche Posts manipuliert sind und welche nicht.
       
       Gibt es auch Themenfelder außerhalb der Klimapolitik? 
       
       Die Ukraine, Gaza/Israel und natürlich die Immigration. Diese Themen waren
       schon immer da. Das Besondere ist, wie mit ihnen heute umgegangen wird.
       
       Was ist denn daran das Neue? 
       
       Es gibt neue Strategien der Manipulation. Beispielsweise versteckte
       politische Werbung. Grundsätzlich ist es legal und legitim, auf
       Social-Media-Plattformen politische Werbung zu schalten. Dafür gelten aber
       bestimmte Regeln: Sie muss unter anderem als solche gekennzeichnet und der
       Urheber muss klar erkennbar sein. Wird beides verschleiert, betrachten wir
       dies als manipulativ. Meta und die anderen Plattformen haben sich selbst
       verpflichtet, die politische Werbung zu regulieren. Es gibt aber Massen an
       politischen Werbeanzeigen, die eben nicht als solche erkennbar sind.
       
       Wie muss man sich das genau vorstellen? 
       
       Ein Beispiel sind von uns analysierte prorussische Facebook-Seiten, die
       Anzeigen mit manipulativen Inhalten und gefälschte Videos verbreiten. Darin
       wird beispielsweise behauptet, die Ukraine stecke hinter dem [4][Anschlag
       des islamistischen IS in Russland Ende März]. Eine Facebook-Seite konnte im
       Mai 400.000 Nutzer mit ihren Anzeigen erreichen. Sie wird von Konten im
       westafrikanischen Benin kontrolliert und die Facebook-Gebühren werden in
       kanadischen Dollar bezahlt. Sie zielt vor allem auf Frankreich und macht
       Werbung für das Rassemblement National.
       
       Das ist doch von der Redefreiheit gedeckt. 
       
       Natürlich. Wir sagen nicht, dass das nicht gesagt werden darf, auch wenn
       wir damit nicht übereinstimmen. Uns geht es um den manipulativen Charakter.
       Die Inhalte werden nicht als politische Werbung deklariert, es werden mit
       Absicht bestimmte technische Elemente versteckt, um der automatisierten
       Moderation durch Facebook zu entgehen.
       
       Gibt es auch Akteure, die offen auftreten und trotzdem manipulativ sind? 
       
       Es gibt beispielsweise Medien, die wegen der Nähe zum russischen Staat mit
       Sanktionen belegt werden, also etwa Russia Today und Sputnik sowie
       Journalist:innen dieser Sender. Deren Inhalte sind teils weiter auf
       Tiktok und Twitter verfügbar. Dabei hat die EU-Kommission klar entschieden,
       dass diese Medien in der EU nicht weiter verfügbar sein dürfen. Die
       Plattformen setzen die Sanktionen nicht um.
       
       Es klingt, als sei das Ganze vor allem ein Russland-Problem.
       
       Nein, nicht nur. Inländische Akteure sind ein großer Teil des Problems.
       Die rechtsextreme Schwedendemokraten-Partei etwa bezahlt Influencer dafür,
       dass sie ihre Talking points verbreiten und Feindseligkeit gegen
       Migrant:innen schüren – auch hier, ohne das zu kennzeichnen.
       
       Viele hoffen darauf, dass der kürzlich in Kraft getretene [5][Digital
       Services Act der EU] das Problem der Desinformation eindämmt. Hierbei
       werden die großen Plattformen zum eigenständigen sogenannten
       Risikomanagement verpflichtet. Hat die Neuregelung etwas gebracht? 
       
       Sicher ist jedenfalls, dass das Gesetz die Plattformen verpflichtet hat,
       Forscher:innen umfassende Analysemöglichkeiten einzuräumen. Das hat uns
       ganz neue Möglichkeiten gegeben, die Dynamiken von Desinformation zu
       beobachten und zu verstehen, und das ist eine Voraussetzung, um überhaupt
       über Gegenstrategien nachdenken zu können.
       
       Welche Gegenstrategien fallen Ihnen ein? 
       
       Vielleicht kann man von dem Blick lernen, den wir als Forscher:innen
       einnehmen. Wir beschäftigen uns stärker mit den Methoden von Desinformation
       statt mit den Inhalten. Dieser Ansatz könnte auch für die Aufklärung
       helfen. Wenn man den Leuten sagen kann: „Schaut her, hier ist ein anonymer
       Account aus Benin, der mit kanadischem Geld bezahlt wird und versucht, sich
       in die Debatte in Frankreich einzumischen – da stimmt doch was nicht“, dann
       ist das etwas völlig anderes als zu sagen, Macron oder die Ukraine zu
       attackieren sei falsch. Manipulatives Verhalten offenzulegen und auf
       Quellentransparenz zu drängen ist etwas, das auch Regierungen tun sollten.
       
       Wie soll diese Quellentransparenz praktisch aussehen? 
       
       Ich arbeite beispielsweise an einer Datenbank von Social-Media-Kanälen, die
       mit autoritären Staaten wie China verbunden sind, aber vorgeben,
       unabhängige Medien zu sein. Die Identifizierung jedes einzelnen Kanals
       kostet mich viele Stunden, wenn nicht sogar Tage Arbeit. Für den normalen
       Nachrichtenkonsumenten ist das unmöglich zu schaffen. In diesem
       schnelllebigen Informationsumfeld holen sie sich ihre Informationen einfach
       von dort und verinnerlichen, was gesagt wird. Man kann das alles nicht in
       den Griff bekommen, wenn man einfach sagt, dies und das sei nicht wahr.
       Wenn Menschen Konten folgen, die an autoritäre Staaten gebunden sind, muss
       man ihnen sagen: „Was ihr hier lest, kommt von einer ausländischen
       Regierung.“ Man muss ihnen die Möglichkeit geben, sich selbst eine Meinung
       zu bilden, wenn sie weiterlesen wollen.
       
       Es kommt aber nicht alles von ausländischen Regierungen, es gibt auch
       inländische Akteure, die destabilisierende, manipulative Informationen
       verbreiten, weil es ihrer eigenen Agenda nützt. 
       
       In der Tat. Und in der Summe sind die ein größeres Phänomen als jene, die
       etwa von Russland oder China gesteuert sind. Aber auch hier muss man
       versuchen, Transparenz herzustellen: Wer kommuniziert hier?
       
       Was ist mit Menschen, die sich bewusst dafür entscheiden, sich von
       rechtsextremen Medien oder Parteien informieren zu lassen? 
       
       Ein Ansatz ist das sogenannte „Pre-Bunking“ – das gezielte Aufzeigen
       anderer Perspektiven und faktenbasierter Informationen. Dabei geht es
       darum, proaktiv zu sein, anstatt nur zu reagieren. Also nicht nur zu
       versuchen, Desinformationen im Nachhinein zu widerlegen. Dies kann
       besonders in Krisenzeiten und bei Wahlen wichtig sein.
       
       7 Jun 2024
       
       ## LINKS
       
 (DIR) [1] /Desinformation/!t5593248
 (DIR) [2] /Desinformation-auf-Messengerdienst/!6001327
 (DIR) [3] /Russische-Desinformation/!6000119
 (DIR) [4] /Terroranschlag-in-Russland/!6000816
 (DIR) [5] /Digital-Markets-und-Digital-Services-Act/!5992274
       
       ## AUTOREN
       
 (DIR) Christian Jakob
       
       ## TAGS
       
 (DIR) Schwerpunkt Europawahl
 (DIR) Desinformation
 (DIR) Schwerpunkt Facebook
 (DIR) wochentaz
 (DIR) Zukunft
 (DIR) GNS
 (DIR) Wladimir Putin
 (DIR) Kolumne Der rechte Rand
 (DIR) Russland
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Putin vor ausländischen Journalisten: Inszenierung als Friedensengel
       
       Russlands Präsident Wladimir Putin droht dem Westen mit „asymmetrischer“
       Kriegführung. In Deutschland vertrete einzig die AfD vernünftige
       Positionen.
       
 (DIR) Online-Magazin hofiert Krah und Bystron: Die Dreckschleuder der Geschassten
       
       Das Online-Magazin „Deutschland Kurier“ bietet den verbrannten
       AfD-Kandidaten Maximilian Krah und Petr Bystron weiter eine Plattform für
       EU-Wahlkampf.
       
 (DIR) Medienfreiheit in Russland: Dekodieren nicht mehr erwünscht
       
       Russland stuft die deutschsprachige Medienplattform „dekoder“ als
       „unerwünschte Organisation“ ein. Die will weitermachen, aber es wird
       schwerer.