Schnelle Propaganda, langsame Kuratierung: Kommen wir mit KI vor die Welle?
Propaganda verbreitet sich schnell, ihre Einordnung bleibt langsam – diese Asymmetrie analysieren Aljoscha Burchardt und Tim Polzehl. Ihr Fazit: Ziel sollte nicht Gegen-Propaganda sein, sondern skalierte und transparente Überzeugungsarbeit in attraktiven Formaten.
Im Editorial zu diesem Publikationszyklus heißt es: „Häufig sucht man die Lösung dann in technologischen Schnellschüssen: Fact-Checker sollen Propaganda aufspüren und markieren, Algorithmen Propagandainhalte in den Social-Media-Feeds herabstufen.” Der Hinweis auf Techno-Solutionismus ist berechtigt. Zugleich gilt: Künstliche Intelligenz ist derzeit ein Werkzeug, nicht mehr und nicht weniger. Sie steht sowohl denen zur Verfügung, die Propaganda erzeugen, als auch jenen, die sie aufdecken und etwas dagegenhalten wollen. Eine perfekte technische Lösung auf Knopfdruck gibt es nicht, schon gar nicht, wenn die Aufgabe nicht klar spezifiziert ist.
Fangen wir im Trüben an. Selbst wenn man Misinformation (ungewollt) oder Desinformation (gezielt) zuverlässig automatisiert erkennen und richtigstellen könnte, würde ein Teil der Konsumentinnen und Konsumenten unbeeindruckt bleiben. Menschen, die gefestigt in einer postfaktischen Blase leben, lassen sich durch Aufklärung kaum erreichen. Und selbst diejenigen, die im Diskurs noch erreichbar sind, unterliegen bekannten kognitiven Effekten: Priming sorgt dafür, dass etwas hängen bleibt. Wer einmal das Fake-Video gesehen hat, in dem Robert Habeck in Handschellen abgeführt wird, muss sich anstrengen, diesen Eindruck wieder zu überschreiben.
Kommen wir ins Hier und Jetzt. Die Propaganda-Welle ist schnell. In den Händen von Akteuren mit schädlicher Absicht ist KI beim Erzeugen und Verbreiten manipulativer Inhalte sehr wirksam. Unsere klassischen Gegenmaßnahmen, allen voran der Journalismus, sind tendenziell reaktiv und langsamer, weil Ressourcen fehlen. Realistisch kann KI hier helfen, indem sie Reaktionszeiten verkürzt und Routinen automatisiert – und so zumindest ein Waffengleichheit herstellen.
Wir arbeiten seit einigen Jahren eng mit Vertreterinnen und Vertretern der Medienbranche zusammen, unter anderem mit der dpa im Forschungsverbund „news polygraph“. Dort haben wir KI-gestützte Lösungen entwickelt, die Redaktionen in unterschiedlichen Situationen unterstützen. In investigativen Projekten verhindert die schiere Masse an Informationen – etwa in Großleaks wie den Panama Papers – eine herkömmliche Auswertung. In solchen Lagen gibt es oft nur noch eine eklektische, aus vielen Puzzleteilen zusammengesetzte Wahrheit.
Im Tagesgeschäft geht es häufig darum, Aussagen oder Bilder zu verifizieren, also Faktenchecks mit KI und anderen Technologien zu unterstützen. Dafür bauen wir für Medienhäuser Datenbanken mit leistungsfähiger Suche auf, damit bereits bekannte und verifizierte (oder falsifizierte) Meldungen und Narrative sofort gefunden werden und Doppelprüfungen entfallen.
Parallel entwickeln wir Tools zur Erkennung synthetischer Bilder und Audios. In wissenschaftlichen Tests erreichen automatische Verfahren derzeit Trefferquoten von bis zu 98 Prozent; in der Praxis muss man 15 bis 20 Prozentpunkte abziehen, weil Laborbedingungen fehlen. Das ist nützlich, reicht aber nicht aus. Denn Bilder kommen selten allein, sondern sind von Behauptungen und Verweisen begleitet, die den Täuschungseffekt oft erst erzeugen.
Ein Schlüsselbegriff ist daher Kontext. Häufiger als vollständig künstliche Inhalte finden wir echte Inhalte in falschen Zusammenhängen. Ein Foto eines tatsächlich zerbombten Gebäudes wird etwa mit der Behauptung versehen, die Aufnahme sei „von letzter Woche aus dem Iran“, obwohl sie „vom letzten Jahr aus Syrien“ stammt. Solche Kontexte zu entlarven ist aufwendig.
Um hier anzusetzen, haben wir mit unserem DFKI-Spin-off Gretchen AI ein KI-basiertes Cockpit entwickelt. Journalistinnen und Journalisten können dort Bilder und Behauptungen gemeinsam analysieren, frühere Versionen und Wiederverwendungen auffinden, mögliche Manipulationen markieren und Belege strukturiert dokumentieren. Das System verbindet eine Fakten-Datenbank, intelligente Recherche, automatische Fake-Erkennung und einen KI-Assistenten.
Daneben kommen weitere Technologien zum Einsatz. Netzwerkanalysen untersuchen die Dynamik sozialer Netze, identifizieren Bot-Cluster, Meinungsführerinnen und Meinungsführer sowie Regionen, aus denen bestimmte Narrative verstärkt stammen. Automatische Übersetzung und Speech-to-Text erleichtern die Arbeit in mehrsprachigen und multimodalen Kontexten. Agentensysteme können sich eigenständig durch komplexe Webseiten navigieren und wiederkehrende Prüfschritte automatisieren.
Unabhängig von Erkennungsraten, geeigneten Mensch-Maschine-Prozessen und konkreten Tools braucht es gesellschaftlich und regulatorisch klare Hebel. Zwischen Meinungsfreiheit und Schutz der Demokratie besteht ein Zielkonflikt, dem mehrjährige Gerichtsverfahren kaum gewachsen sind. Datenschutz ist essenziell, kann die Beweisführung aber erschweren. Zuständigkeiten sollten geklärt, Verfahren beschleunigt und Standards definiert werden. Auf Regierungsebene wird das Thema bearbeitet; man kann hoffen, dass es auch im neu gegründeten Ministerium für Digitalisierung und Staatsmodernisierung einen festen Platz findet.
Wie kommen wir als aufgeklärte, demokratische Gesellschaft vor die Welle? Reine Aufmerksamkeit genügt nicht. Mit derselben Energie, die manipulative Akteure in Propaganda stecken, ließe sich die Verbreitung gut belegter, demokratiefreundlicher Inhalte stärken. Politische Markenkommunikation kann funktionieren; Beispiele wie die gekonnt vermarkteten Auftritte von Heidi Reichinnek zeigen das. Ziel ist jedoch nicht Gegen-Propaganda, sondern skalierte und transparente Überzeugungsarbeit in attraktiven Formaten. KI kann Produktion, Zielgruppenansprache und Distribution unterstützen.
Ein Problem bleibt die Aufmerksamkeitsökonomie. Aufreger und Fakes mobilisieren aktuell schneller als kuratierte Inhalte. Daraus ließe sich eine politische Forderung ableiten, demokratiefreundliche Geschäftsmodelle finanziell zu stärken. Unterschiedliche Reaktionen wären absehbar. Ebenso stellt sich die Frage, ob der staatsferne, aber demokratieorientierte öffentlich-rechtliche Rundfunk in seinen operativen und Kontrollstrukturen über genügend technische Kompetenz verfügt, um auf der Höhe der Zeit mit Propaganda umzugehen.
Auch unternehmerische Selbstverpflichtungen können zur Eindämmung propagandistischer Risiken beitragen. Bei KI-erzeugten oder -distribuierten Inhalten stellt sich die Frage nach der Verantwortlichkeit der Plattformen im Verhältnis zu ihrer Rolle als Intermediäre. Selbstverpflichtungen zum Einsatz der bestmöglichen Erkennungstools – als Unterstützung für qualifizierte Teams – sowie Transparenz über Eingriffe, eine nachvollziehbare Archivierung politischer Inhalte und verlässliche Schnittstellen für Forschung könnten Vertrauen schaffen. Derzeit weisen Entwicklungen, zumindest in den USA, in die entgegengesetzte Richtung.
Propaganda wird schneller, weil ihre Produktion billig und skalierbar ist. Kuratierung bleibt langsamer, weil sie prüft und begründet. Den Abstand verringern wir nicht mit einem einzelnen Tool, sondern mit einer belastbaren Architektur. Dazu gehören schnelle und dokumentierte Prüfprozesse in Redaktionen, kontextsensitive Werkzeuge für die Recherche, transparente Überzeugungsarbeit demokratischer Akteure und überprüfbare Pflichten der Plattformen.
Künstliche Intelligenz ist dabei kein Heilsversprechen, sondern ein Verstärker in beide Richtungen. Entscheidend sind nicht Laborwerte, sondern Institutionen: klare Zuständigkeiten, verlässlicher Forschungszugang zu Plattformdaten, auditierbare Eingriffe und Anreize für verlässliche Informationsangebote. Wenn diese Hebel gesetzt und durchgehalten werden, wird schnelle Propaganda zum kalkulierbaren Risiko statt zum Taktgeber der öffentlichen Debatte.