Der Konflikt zwischen Iran und den USA hat eine neue Dimension erreicht: KI-generierte Videos, animierte Propaganda im Lego-Stil und algorithmisch produzierte Desinformation untergraben die Informationsintegrität in geopolitischen Krisen – mit weitreichenden Folgen für Unternehmen, Entscheider und die digitale Öffentlichkeit weltweit.
KI-generierte Propaganda: Wie der Iran-USA-Konflikt zum Testfeld für algorithmische Desinformation wird
Animierte Kriegspropaganda im Lego-Stil
Unter den auffälligsten Beispielen dieser neuen Informationskriegsführung finden sich KI-generierte Videos, die politische Figuren in stilisierter Animationsästhetik – unter anderem im Lego-Format – zeigen. Diese Clips verbreiten sich über soziale Netzwerke, weil sie durch ihren scheinbar harmlosen visuellen Charakter niedrigschwellig wirken und Moderationsalgorithmen häufig umgehen. Ihre Botschaften sind dennoch gezielt politisch: Demütigung des Gegners, Stärkung der eigenen Basis, Verunsicherung des Publikums über die Echtheit von Ereignissen.
Medienforscherinnen und -forscher sprechen in diesem Zusammenhang von sogenannter „Slopaganda” – einem Begriff, der minderwertig produzierte, aber massenhaft verteilte KI-Propaganda beschreibt.
Die geringe Produktionsqualität ist dabei kein Fehler, sondern kalkuliert: Sie senkt die Einstiegshürde für staatliche und nicht-staatliche Akteure erheblich und erschwert die Zuordnung zu konkreten Urhebern.
Geringe Produktionskosten, hohe Wirkung
Was diese Form der Desinformation von klassischer Staatspropaganda unterscheidet, ist der Ressourcenaufwand. Während traditionelle Informationskampagnen erhebliche redaktionelle und technische Infrastruktur erforderten, lassen sich heute innerhalb weniger Stunden überzeugende Kurzvideos, gefälschte Nachrichtenanker oder manipulierte Szenen aus vermeintlichen Konfliktzonen produzieren. Text-zu-Video-Modelle wie Sora oder vergleichbare Systeme demokratisieren diese Fähigkeit – nicht nur für staatliche Propagandaapparate, sondern auch für einzelne Akteure mit politischen Motiven.
Die iranischen und amerikanischen Beispiele zeigen zudem, dass diese Clips strategisch platziert werden: auf Plattformen mit schwachen Moderationskapazitäten für nicht-englische Inhalte, in geschlossenen Telegram-Gruppen oder über koordinierte Social-Media-Accounts, die organische Verbreitung simulieren.
Deepfakes als neue Eskalationsstufe
Jenseits von Satire und Meme-Kultur besteht die ernstere Gefahr in der gezielten Fabrikation von Ereignissen. Szenen aus angeblichen Militäroperationen, fiktive Erklärungen politischer Führungsfiguren oder manipulierte Aufnahmen aus Krisengebieten können – selbst bei schneller Richtigstellung – erheblichen Schaden anrichten.
Studien zeigen konsistent: Falschinformationen verbreiten sich deutlich schneller als deren Korrekturen – und die bloße Erstkonfrontation mit einer Falschbehauptung schwächt deren spätere Widerlegung ab.
Die technologische Entwicklung verschärft dieses Dilemma: Während Erkennungstools für KI-generierte Inhalte verbessert werden, schließen die Generierungsmodelle den Qualitätsabstand zu authentischem Material in immer kürzeren Entwicklungszyklen.
Einordnung für deutsche Unternehmen und Entscheider
Für Unternehmen mit internationaler Präsenz oder Lieferketten in geopolitisch exponierten Regionen ist diese Entwicklung unmittelbar relevant. Falschinformationen über Konfliktzonen können:
- Rohstoffmärkte beeinflussen
- Reputationsrisiken erzeugen
- Geschäftspartner verunsichern und Entscheidungsprozesse verzerren
Wer in Krisenregionen operiert, sollte Informationsquellen systematisch verifizieren und für interne Kommunikationsprozesse klare Protokolle zur Quellenprüfung etablieren.
Medienkompetenz ist längst keine rein gesellschaftliche Aufgabe mehr – sie wird zum Bestandteil unternehmerischer Resilienz.
Quelle: The Guardian – „Lego videos, Iran, Trump: AI video, meme propaganda and animation”

