Fake News, Deepfakes und Demokratie: Wie wir Desinformation im Netz erkennen – Ein Gespräch mit Louis Javas (KIT)
von Campusradio Karlsruhe ·

Fake News vs. Demokratie: Was Deepfakes mit unserer Gesellschaft machen – und was wir dagegen tun können
Teaser: Deepfakes, Clickbait, manipulierte „Pseudomedien"-Seiten: Desinformation verändert unseren digitalen Diskurs – und damit unsere Demokratie. KIT-Forscher Louis Javas erklärt, wie wir Fakes erkennen, warum Plattform-Algorithmen Meinung verzerren und welche Rolle EU-Gesetze wie der Digital Services Act und der AI Act spielen. Plus: Praktische Checks, mit denen du dich und andere schützt.
Einleitung
Desinformation ist kein Randphänomen – sie zielt darauf, Meinungen bewusst zu manipulieren. Besonders perfide: Deepfakes, also KI-erzeugte oder -veränderte Bilder, Videos, Audios in täuschender Qualität. Im Campusradio-Gespräch erklärt KIT-Forscher Louis Javas, wie sich Fälschungen verbreiten, warum Social-Media-Algorithmen das Problem verschärfen und welche Lösungen Politik, Wissenschaft und jede/r Einzelne beitragen können.
Was ist Desinformation – und was sind Deepfakes?
- Desinformation: bewusste Täuschung mit politischem oder monetärem Ziel – anders als schlichtes Irren oder Missinformation ohne Absicht.
- Deepfakes: künstlich generierte oder veränderte Bilder, Videos, Audios; Qualität inzwischen so hoch, dass sie oft nicht mit bloßem Auge erkennbar sind.
- Hauptverbreitungsorte: soziale Netzwerke, alternative Portale, Blogs und unseriöse Webseiten.
Wie erkenne ich Fakes? Der 5W-Check und praktische Signale
- 5W-Fragen: Wer? Woher? Wann? Warum? Wozu? – hilft, Quelle, Kontext und Absicht zu prüfen.
- Kontext-Fallen: alte Bilder in neue Konflikte verschoben (z. B. Bürgerkriegsbilder anderswo wiederverwertet).
- Tools: Rückwärtsbildsuche am Smartphone als schneller Reality-Check.
- Visuelle Hinweise: Physik-Fehler (Wasser, Wind), Schatten/Spiegelungen, Reflexe in Augen/Brillen – nützlich, aber nicht zukunftssicher, da Modelle besser werden.
- Suchverhalten: Nicht nur auf Kurzantworten/AI-Snippets verlassen – aktiv Quellen öffnen und prüfen.
Wie Desinformationskampagnen funktionieren
- „Doppelgänger"-Taktik: 1:1 kopierte Medienseiten (z. B. Spiegel/SZ) mit leicht veränderter Domain und propagandistischen Überschriften, die via Screenshots in Social Media „als echt" verbreitet werden.
- Ziel: Wahrnehmung verzerren, dass extreme Narrative „Mehrheitsmeinung" seien.
Demokratie unter Druck – was wir wissen
- Desinformation untergräbt Vertrauen in Medien (inkl. ÖRR und Lokaljournalismus) und wirkt negativ auf Meinungsbildung – exakte Wirkpfade sind komplex, aber die Tendenz ist klar.
- Forschung nutzt Panels, Experimente (z. B. Reaktion auf KI- vs. echte Bilder) und multimodale Deepfake-Detection (Bild, Text, Audio, Video).
Plattform-Algorithmen als Verstärker
- Algorithmen kuratieren, was wir sehen – beeinflussen damit unmittelbar Wahrnehmung und Meinung.
- Datenzugang für Forschung ist zentral; manche Plattformen erschweren ihn deutlich (Beispiel: X nach Übernahme).
- Reichweite relativieren: In Deutschland nutzen ca. 60% YouTube, aber nur etwa 10% X – Regulierung und Berichterstattung sollten die tatsächliche Relevanz pro Kanal berücksichtigen.
Was hilft? Drei Ebenen der Gegenmaßnahmen
1. Regulierung und Plattformverantwortung
- Digital Services Act (DSA): Regeln zu algorithmischer Verstärkung, Datenzugang für Forschung, Transparenz- und Werbevorgaben für sehr große Plattformen.
- AI Act: risikobasierte Bewertung und Transparenzpflichten für KI – relevant, wenn KI in Desinfo-Kampagnen eingesetzt wird.
- Herausforderung: Durchsetzung in der EU und national – entscheidend für Wirkung.
2. Bildung, Medienkompetenz, Zivilgesellschaft
- Lokaljournalismus stärken – nachweisbar wichtig für informierte Öffentlichkeit.
- Unterstützung für Betroffene und Fact-Checking: Hate Aid, Das NETTZ, Correctiv, CeMAS.
- Kompetenzlücke: Nur etwa 25% trauen sich zu, Deepfakes zu erkennen – Medienbildung ausbauen.
3. Individuelle Praxis
- 5W-Check, Rückwärtsbildsuche, Quelle direkt prüfen (nicht nur Snippets).
- Emotionen erkennen: Besonders empörende/angstbasierte Inhalte extra prüfen – typisches Manipulationsmuster.
- Impressum checken, ungewöhnliche Domains misstrauisch prüfen („spiegel.to" statt „spiegel.de").
Blick nach vorn: 3 Trends der digitalen Öffentlichkeit
- Fragmentierung: mehr Nischen- und Parallel-Plattformen, Filterblasen/Echokammern nehmen zu.
- Autonomisierung: mehr KI-generierte Inhalte und Agenten – Interaktionen zunehmend nicht-menschlich.
- Virtualisierung: immersive Räume (VR) verstärken psychologische Wirkung digitaler Inhalte.
Trotzdem gilt: Digitale Räume ermöglichen enorme zivilgesellschaftliche Organisation und Hilfe – es geht um Gestaltung, nicht Abschaltung.
Konkrete Checkliste: In 60 Sekunden weniger Fakes teilen
- Quelle öffnen, Impressum prüfen, Domain vergleichen.
- Rückwärtsbildsuche starten (Bild länger drücken/„Bild in Google suchen").
- Datum/Kontext checken: Taucht das Bild schon Jahre zuvor auf?
- Bilddetails scannen: Schatten, Spiegelungen, Augenreflexe – bei Unstimmigkeiten nicht teilen.
- Emotion drosseln: 10 Sekunden Pause vor dem Teilen – dann entscheiden.
Call-to-Action
- Höre die ganze Folge „Nachgefragt – Fake News vs. Demokratie" beim Campusradio Karlsruhe und teile sie mit Freundinnen und Freunden.
- Du willst Deepfakes selbst erkennen? Wir sammeln Tools und Workshops – melde dich für Updates.