Fake News, Deepfakes und Demokratie: Wie wir Desinformation im Netz erkennen – Ein Gespräch mit Louis Javas (KIT)

Fake News vs. Demokratie: Was Deepfakes mit unserer Gesellschaft machen – und was wir dagegen tun können

Teaser: Deepfakes, Clickbait, manipulierte „Pseudomedien"-Seiten: Desinformation verändert unseren digitalen Diskurs – und damit unsere Demokratie. KIT-Forscher Louis Javas erklärt, wie wir Fakes erkennen, warum Plattform-Algorithmen Meinung verzerren und welche Rolle EU-Gesetze wie der Digital Services Act und der AI Act spielen. Plus: Praktische Checks, mit denen du dich und andere schützt.

Einleitung

Desinformation ist kein Randphänomen – sie zielt darauf, Meinungen bewusst zu manipulieren. Besonders perfide: Deepfakes, also KI-erzeugte oder -veränderte Bilder, Videos, Audios in täuschender Qualität. Im Campusradio-Gespräch erklärt KIT-Forscher Louis Javas, wie sich Fälschungen verbreiten, warum Social-Media-Algorithmen das Problem verschärfen und welche Lösungen Politik, Wissenschaft und jede/r Einzelne beitragen können.

Was ist Desinformation – und was sind Deepfakes?

  • Desinformation: bewusste Täuschung mit politischem oder monetärem Ziel – anders als schlichtes Irren oder Missinformation ohne Absicht.
  • Deepfakes: künstlich generierte oder veränderte Bilder, Videos, Audios; Qualität inzwischen so hoch, dass sie oft nicht mit bloßem Auge erkennbar sind.
  • Hauptverbreitungsorte: soziale Netzwerke, alternative Portale, Blogs und unseriöse Webseiten.

Wie erkenne ich Fakes? Der 5W-Check und praktische Signale

  • 5W-Fragen: Wer? Woher? Wann? Warum? Wozu? – hilft, Quelle, Kontext und Absicht zu prüfen.
  • Kontext-Fallen: alte Bilder in neue Konflikte verschoben (z. B. Bürgerkriegsbilder anderswo wiederverwertet).
  • Tools: Rückwärtsbildsuche am Smartphone als schneller Reality-Check.
  • Visuelle Hinweise: Physik-Fehler (Wasser, Wind), Schatten/Spiegelungen, Reflexe in Augen/Brillen – nützlich, aber nicht zukunftssicher, da Modelle besser werden.
  • Suchverhalten: Nicht nur auf Kurzantworten/AI-Snippets verlassen – aktiv Quellen öffnen und prüfen.

Wie Desinformationskampagnen funktionieren

  • „Doppelgänger"-Taktik: 1:1 kopierte Medienseiten (z. B. Spiegel/SZ) mit leicht veränderter Domain und propagandistischen Überschriften, die via Screenshots in Social Media „als echt" verbreitet werden.
  • Ziel: Wahrnehmung verzerren, dass extreme Narrative „Mehrheitsmeinung" seien.

Demokratie unter Druck – was wir wissen

  • Desinformation untergräbt Vertrauen in Medien (inkl. ÖRR und Lokaljournalismus) und wirkt negativ auf Meinungsbildung – exakte Wirkpfade sind komplex, aber die Tendenz ist klar.
  • Forschung nutzt Panels, Experimente (z. B. Reaktion auf KI- vs. echte Bilder) und multimodale Deepfake-Detection (Bild, Text, Audio, Video).

Plattform-Algorithmen als Verstärker

  • Algorithmen kuratieren, was wir sehen – beeinflussen damit unmittelbar Wahrnehmung und Meinung.
  • Datenzugang für Forschung ist zentral; manche Plattformen erschweren ihn deutlich (Beispiel: X nach Übernahme).
  • Reichweite relativieren: In Deutschland nutzen ca. 60% YouTube, aber nur etwa 10% X – Regulierung und Berichterstattung sollten die tatsächliche Relevanz pro Kanal berücksichtigen.

Was hilft? Drei Ebenen der Gegenmaßnahmen

1. Regulierung und Plattformverantwortung

  • Digital Services Act (DSA): Regeln zu algorithmischer Verstärkung, Datenzugang für Forschung, Transparenz- und Werbevorgaben für sehr große Plattformen.
  • AI Act: risikobasierte Bewertung und Transparenzpflichten für KI – relevant, wenn KI in Desinfo-Kampagnen eingesetzt wird.
  • Herausforderung: Durchsetzung in der EU und national – entscheidend für Wirkung.

2. Bildung, Medienkompetenz, Zivilgesellschaft

  • Lokaljournalismus stärken – nachweisbar wichtig für informierte Öffentlichkeit.
  • Unterstützung für Betroffene und Fact-Checking: Hate Aid, Das NETTZ, Correctiv, CeMAS.
  • Kompetenzlücke: Nur etwa 25% trauen sich zu, Deepfakes zu erkennen – Medienbildung ausbauen.

3. Individuelle Praxis

  • 5W-Check, Rückwärtsbildsuche, Quelle direkt prüfen (nicht nur Snippets).
  • Emotionen erkennen: Besonders empörende/angstbasierte Inhalte extra prüfen – typisches Manipulationsmuster.
  • Impressum checken, ungewöhnliche Domains misstrauisch prüfen („spiegel.to" statt „spiegel.de").

Blick nach vorn: 3 Trends der digitalen Öffentlichkeit

  • Fragmentierung: mehr Nischen- und Parallel-Plattformen, Filterblasen/Echokammern nehmen zu.
  • Autonomisierung: mehr KI-generierte Inhalte und Agenten – Interaktionen zunehmend nicht-menschlich.
  • Virtualisierung: immersive Räume (VR) verstärken psychologische Wirkung digitaler Inhalte.

Trotzdem gilt: Digitale Räume ermöglichen enorme zivilgesellschaftliche Organisation und Hilfe – es geht um Gestaltung, nicht Abschaltung.

Konkrete Checkliste: In 60 Sekunden weniger Fakes teilen

  1. Quelle öffnen, Impressum prüfen, Domain vergleichen.
  2. Rückwärtsbildsuche starten (Bild länger drücken/„Bild in Google suchen").
  3. Datum/Kontext checken: Taucht das Bild schon Jahre zuvor auf?
  4. Bilddetails scannen: Schatten, Spiegelungen, Augenreflexe – bei Unstimmigkeiten nicht teilen.
  5. Emotion drosseln: 10 Sekunden Pause vor dem Teilen – dann entscheiden.

Call-to-Action

  • Höre die ganze Folge „Nachgefragt – Fake News vs. Demokratie" beim Campusradio Karlsruhe und teile sie mit Freundinnen und Freunden.
  • Du willst Deepfakes selbst erkennen? Wir sammeln Tools und Workshops – melde dich für Updates.

Quellenhinweise

Dieser Artikel basiert auf der Podcast-Folge „Nachgefragt – Fake News vs. Demokratie" mit KIT-Forscher Louis Javas, Campusradio Karlsruhe.

Top ↑