Im Sommer 2016 enthüllten US-Geheimdienstberichte, dass Russland aktiv in die US-Präsidentschaftswahl eingreift — über Social-Media-Manipulation, gestohlene E-Mails, gefälschte Konten, koordinierte Desinformationskampagnen. Viele Westeuropäer reagierten mit einer Mischung aus Ungläubigkeit und Belustigung: Das sei amerikanische Paranoia. Das sei übertrieben.
Neun Jahre später ist die Evidenz eindeutig: EU DisinfoLab, RAND Corporation, EU East StratCom Task Force und dutzende unabhängige Forschungseinrichtungen haben die Mechanismen dokumentiert. Russland führt einen Informationskrieg — planmäßig, ressourcenstark, und mit erschreckender Effizienz. Dieser Artikel erklärt, wie er funktioniert.
I. Das Modell: Seed — Multiply — Harvest
Russische Desinformationsoperationen folgen einem erkennbaren dreigliedrigen Muster, das wir als Seed–Multiply–Harvest beschreiben können:
Phase 1: Seed (Aussäen)
Eine falsche oder verzerrte Behauptung wird in den Informationsraum eingebracht. Das kann auf vielen Wegen geschehen: über anonyme Telegram-Kanäle, über gefälschte „Bürger"-Accounts auf Twitter/X, über koordinierte Posts auf russischsprachigen Foren, oder — raffinierter — über scheinbar seriöse Seiten, die wie legitime Nachrichtenportale aussehen.
Der Inhalt wird bewusst so gewählt, dass er polarisiert, bestehende Spaltungslinien vertieft oder an latente Ängste anknüpft. Nicht jede Falschinformation ist dabei plump erfunden — viele Operationen mischen echte Fakten mit falschen Schlussfolgerungen oder aus dem Kontext gerissenen Zitaten. Das macht sie schwerer zu identifizieren.
Phase 2: Multiply (Vervielfältigen)
Die eingesäte Behauptung wird über Netzwerke koordiniert verbreitet. Botnetze — Netzwerke von tausenden automatisierten Fake-Accounts — retweeten, teilen, kommentieren. Echte Menschen, die die Inhalte glauben oder interessant finden, teilen sie freiwillig weiter — der Algorithmus tut den Rest.
Entscheidend ist die kritische Masse: Wenn eine Behauptung oft genug geteilt wird, nimmt der Algorithmus an, sie sei relevant, und pusht sie weiter. Was in einem russischen Trollfarm begann, landet im Mainstream-Feed eines österreichischen Pensionisten.
Phase 3: Harvest (Ernten)
Die Wirkung entfaltet sich: Vertrauen in Institutionen sinkt, gesellschaftliche Debatten werden vergiftet, politische Entscheidungen werden beeinflusst. Das Ziel ist selten, dass jemand eine spezifische Falschinformation glaubt — das Ziel ist, dass niemand mehr irgendetwas glaubt. Epistemisches Chaos ist das Endziel: Eine Gesellschaft, die nicht mehr in der Lage ist, zwischen wahr und falsch zu unterscheiden, kann keine kohärente politische Reaktion auf externe Bedrohungen organisieren.
II. Die Internet Research Agency — Trollfarmen im Industrie-Maßstab
Die Internet Research Agency (IRA) mit Sitz in St. Petersburg ist die bekannteste russische Informationsoperationseinheit. Sie wurde 2013 gegründet und steht in enger Verbindung mit dem Oligarchen Jewgeni Prigoschin — demselben, der die Wagner-Gruppe aufbaute und 2023 beim mysteriösen Flugzeugabsturz ums Leben kam.
In ihrer Hochphase 2016–2018 beschäftigte die IRA nach US-Gerichtsakten Hunderte von Mitarbeitern, hatte ein Budget von mehreren Millionen Dollar pro Monat, und betrieb Tausende von Fake-Accounts auf Facebook, Instagram, Twitter und YouTube. Die Mitarbeiter arbeiteten in Schichten, hatten Quoten (Posts pro Tag, Interaktionen pro Stunde), Accounts mit langer Geschichte und authentisch wirkendem Profil.
Besonders effektiv war die IRA bei der Ansprache spezifischer Communitys in den USA: Sie betrieb Accounts, die sich als amerikanische Bürgerrechtsbewegungen, als christliche Konservative, als Wahlkampf-Supporter ausgaben — und spielte Gruppen bewusst gegeneinander aus. Das US-Justizministerium klagte 13 russische Staatsbürger und drei Unternehmen an; niemand erschien vor Gericht.
III. Operation Doppelganger — der Medienkloner
Operation Doppelganger ist die bislang dokumentiert größte russische Desinformationsoperation in Europa. Sie wurde 2022 von der EU DisinfoLab und dem französischen Unternehmen Graphika öffentlich gemacht und läuft — in abgewandelter Form — bis heute.
Das Muster ist raffiniert: Operatoren registrieren Domains, die nahezu identisch mit echten Medien sind — nicht foxnews.com, sondern foxnews.com.de oder foxnew5.com. Die Seiten sehen exakt wie das Original aus: Layout, Logo, Schriftart, Farbgebung. Nur der Inhalt ist manipuliert.
Geklont wurden unter anderem:
- Fox News (foxnews1.com, foxnews.com.de u.v.m.)
- Washington Post (washingtonpost.pm)
- Le Monde (le-monde.fr.com)
- Der Spiegel (spiegel-online.de — verschiedene Varianten)
- Bild, FAZ, Die Zeit
- Mehr als 60 westliche Medienmarken insgesamt
Auf diesen Klonseiten wurden dann Artikel veröffentlicht: Gefälschte Interviews mit echten Politikern, erfundene Berichte über ukrainische Kriegsverbrechen, Artikel die westliche Unterstützung für die Ukraine als gescheitert darstellen. Diese Artikel wurden dann über Botnetze und koordinierte Accounts verbreitet — oft als Screenshot, damit der gefälschte URL nicht sichtbar war.
Die EU hat 2023 Sanktionen gegen die hinter Doppelganger stehenden russischen Unternehmen verhängt. Die Operation ist deshalb nicht gestoppt worden — sie hat sich angepasst.
IV. Operation Ghostwriter — Identitätsdiebstahl für Politiker
Operation Ghostwriter, ursprünglich dem belarussisch-russischen Nachrichtendienst UNC1151 zugeschrieben, verfolgt einen anderen Ansatz: statt gefälschter Medienmarken werden echte Identitäten übernommen.
Konkret: Hacker kompromittieren die Social-Media-Konten oder Websites von echten Politikern, Journalisten und Aktivisten und posten darüber gefälschte Statements. Ein polnischer General, dem falsches Zitat zu NATO-Stationierung untergeschoben wird. Ein litauischer Außenminister, dessen gehackter Account angeblich zu Widerstand gegen westliche Sanktionen aufruft.
Der Vorteil dieser Methode: Das Vertrauen, das eine reale Person aufgebaut hat, wird ausgenutzt. Für Sekunden — oder Stunden, bis der Hack bemerkt wird — ist das gefälschte Statement „echt". Screenshots kursieren. Auch nach dem Widerruf bleibt ein Rest Unsicherheit: „Haben sie das wirklich nicht gesagt?"
V. Das EU DisinfoLab — Europas Gegenstrategie
Das EU DisinfoLab ist eine Brüsseler NGO, die sich auf die Untersuchung von Desinformationsnetzwerken spezialisiert hat. Ihre Berichte — darunter die aufsehenerregende „Indian Chronicles"-Studie 2020 über ein 15 Jahre altes pro-Pakistan-Desinformationsnetz — gehören zu den methodisch saubersten Dokumentationen moderner Informationsoperationen.
Parallel betreibt der Europäische Auswärtige Dienst (EAD) die East StratCom Task Force, die täglich russische Desinformationsnarrative auf der Plattform EUvsDisinfo.eu dokumentiert. Seit 2015 wurden dort mehr als 16.000 Desinformationsfälle katalogisiert.
Das Problem: Dokumentation allein ist kein Schutz. Die Desinformation verbreitet sich schneller als die Richtigstellung. Studien zeigen, dass Falschinformationen auf Twitter sechs Mal schneller verbreitet werden als korrekte Informationen — und eine emotionale Reaktion (Empörung, Angst) erzeugen, die eine rationale Gegendarstellung nicht überschreiben kann.
VI. Österreich als Ziel
Österreich ist kein peripheres Ziel russischer Informationsoperationen — es ist ein bevorzugtes. Die Gründe sind struktureller Natur:
- Neutralitätspolitik: Österreich ist das einzige EU-Mitglied mit einem verfassungsrechtlich verankerten Neutralitätsstatus. Russische Narrative, die die Ukraine als aggressiven Provokateur und die NATO als imperialistische Macht darstellen, finden in einer neutralitätsbewussten Öffentlichkeit fruchtbareren Boden als anderswo.
- Wirtschaftsbeziehungen: Österreich hatte traditionell intensive Wirtschaftsbeziehungen mit Russland (Energie, Immobilien, Bankenwesen). Dieses Netz schafft Interessen und Akteure, die eine pro-russische Meinungskorrektur begrüßen.
- Politische Nähe: Die FPÖ — seit Jänner 2025 in der Regierung — unterhält nachgewiesene institutionelle Verbindungen zur russischen Regierungspartei „Einiges Russland". Der 2016 unterzeichnete Kooperationsvertrag wurde nie aufgekündigt. Was das für die Rezeption russischer Informationsoperationen bedeutet, ist eine offene und zunehmend dringliche Frage.
- Mediensystem: Österreichs Mediensystem ist konzentriert (Fellner, Dichand, Styria) und anfällig für Agenda-Setting durch dominante Akteure. Desinformationsnarrative, die in einem Leitmedium landen, haben eine überproportionale Breitenwirkung.
VII. Wie erkenne ich Desinformation?
Eine praktische Checkliste — keine Garantie, aber ein Anfang:
- Quelle prüfen: Wer hat das veröffentlicht? Ist die Domain bekannt? Gibt es ein Impressum? Wann wurde die Website erstellt (Whois)?
- Emotionaler Trigger: Macht die Information sehr wütend, sehr ängstlich, sehr empört? Das ist ein Warnsignal — nicht weil Empörung falsch ist, sondern weil sie Urteilsvermögen einschränkt.
- Reverse Image Search: Bilder können alt sein, aus anderem Kontext stammen oder KI-generiert sein. Google Images, TinEye oder Yandex Images helfen.
- Quercheck: Berichten andere seriöse Medien dasselbe? Wenn eine Geschichte nur auf RT, Sputnik, Telegram-Kanälen oder suspekten Seiten kursiert — Vorsicht.
- Datum prüfen: Alte Bilder und Ereignisse werden regelmäßig als „aktuell" recycelt.
- Kontext prüfen: Ist ein Zitat vollständig? Wer spricht, wann, in welchem Zusammenhang?
Für Österreich sind APA Faktencheck und das EU-finanzierte EUvsDisinfo.eu gute Anlaufstellen.
VIII. Was Europa tut — und was nicht reicht
Die EU hat seit 2020 erhebliche regulatorische Schritte unternommen. Der Digital Services Act (DSA) verpflichtet große Plattformen (Meta, X, TikTok, YouTube) ab 2024 zur aktiven Bekämpfung von Desinformationsnetzwerken, zur Transparenz bei Algorithmen und zur Kooperation mit Behörden.
Russische Staatsmedien — RT, Sputnik — sind seit 2022 in der EU gesperrt. Das ist wirksam, aber unvollständig: Über VPN, Telegram und alternative Domains sind die Inhalte weiterhin zugänglich.
Was fehlt: Eine kohärente europäische Medienkompetenz-Strategie. Finnland gilt hier als Modell: Seit den 1990er Jahren ist Medienkompetenz im Pflichtlehrplan verankert — nicht als Sonderfach, sondern als Querschnittskompetenz in allen Fächern. Finnische Jugendliche schneiden in internationalen Vergleichen beim Erkennen von Desinformation deutlich besser ab als der EU-Durchschnitt.
Österreich hat 2023 eine Digitale Kompetenzinititive gestartet — mit begrenztem Budget, begrenzter Reichweite und ohne verpflichtenden Schulcurriculums-Anteil. Das ist nicht genug.
Quellenverzeichnis:
RAND Corporation: The Russian „Firehose of Falsehood" Propaganda Model (2016) ·
EU DisinfoLab: Operation Doppelganger (2022) ·
EUvsDisinfo.eu — EU East StratCom Task Force ·
Mandiant: UNC1151 / Operation Ghostwriter ·
EU DisinfoLab: Indian Chronicles (2020) ·
EU: Digital Services Act (DSA) ·
DSN (Österreich): Jahresberichte Verfassungsschutz ·
APA Faktencheck Österreich