Category: KI & Desinformation

  • KI-generierte Propaganda: Iran-USA-Konflikt als Testfeld für algorithmische Desinformation

    KI-generierte Propaganda: Iran-USA-Konflikt als Testfeld für algorithmische Desinformation

    Der Konflikt zwischen Iran und den USA hat eine neue Dimension erreicht: KI-generierte Videos, animierte Propaganda im Lego-Stil und algorithmisch produzierte Desinformation untergraben die Informationsintegrität in geopolitischen Krisen – mit weitreichenden Folgen für Unternehmen, Entscheider und die digitale Öffentlichkeit weltweit.

    KI-generierte Propaganda: Wie der Iran-USA-Konflikt zum Testfeld für algorithmische Desinformation wird

    Animierte Kriegspropaganda im Lego-Stil

    Unter den auffälligsten Beispielen dieser neuen Informationskriegsführung finden sich KI-generierte Videos, die politische Figuren in stilisierter Animationsästhetik – unter anderem im Lego-Format – zeigen. Diese Clips verbreiten sich über soziale Netzwerke, weil sie durch ihren scheinbar harmlosen visuellen Charakter niedrigschwellig wirken und Moderationsalgorithmen häufig umgehen. Ihre Botschaften sind dennoch gezielt politisch: Demütigung des Gegners, Stärkung der eigenen Basis, Verunsicherung des Publikums über die Echtheit von Ereignissen.

    Medienforscherinnen und -forscher sprechen in diesem Zusammenhang von sogenannter „Slopaganda” – einem Begriff, der minderwertig produzierte, aber massenhaft verteilte KI-Propaganda beschreibt.

    Die geringe Produktionsqualität ist dabei kein Fehler, sondern kalkuliert: Sie senkt die Einstiegshürde für staatliche und nicht-staatliche Akteure erheblich und erschwert die Zuordnung zu konkreten Urhebern.

    Geringe Produktionskosten, hohe Wirkung

    Was diese Form der Desinformation von klassischer Staatspropaganda unterscheidet, ist der Ressourcenaufwand. Während traditionelle Informationskampagnen erhebliche redaktionelle und technische Infrastruktur erforderten, lassen sich heute innerhalb weniger Stunden überzeugende Kurzvideos, gefälschte Nachrichtenanker oder manipulierte Szenen aus vermeintlichen Konfliktzonen produzieren. Text-zu-Video-Modelle wie Sora oder vergleichbare Systeme demokratisieren diese Fähigkeit – nicht nur für staatliche Propagandaapparate, sondern auch für einzelne Akteure mit politischen Motiven.

    Die iranischen und amerikanischen Beispiele zeigen zudem, dass diese Clips strategisch platziert werden: auf Plattformen mit schwachen Moderationskapazitäten für nicht-englische Inhalte, in geschlossenen Telegram-Gruppen oder über koordinierte Social-Media-Accounts, die organische Verbreitung simulieren.

    Deepfakes als neue Eskalationsstufe

    Jenseits von Satire und Meme-Kultur besteht die ernstere Gefahr in der gezielten Fabrikation von Ereignissen. Szenen aus angeblichen Militäroperationen, fiktive Erklärungen politischer Führungsfiguren oder manipulierte Aufnahmen aus Krisengebieten können – selbst bei schneller Richtigstellung – erheblichen Schaden anrichten.

    Studien zeigen konsistent: Falschinformationen verbreiten sich deutlich schneller als deren Korrekturen – und die bloße Erstkonfrontation mit einer Falschbehauptung schwächt deren spätere Widerlegung ab.

    Die technologische Entwicklung verschärft dieses Dilemma: Während Erkennungstools für KI-generierte Inhalte verbessert werden, schließen die Generierungsmodelle den Qualitätsabstand zu authentischem Material in immer kürzeren Entwicklungszyklen.

    Einordnung für deutsche Unternehmen und Entscheider

    Für Unternehmen mit internationaler Präsenz oder Lieferketten in geopolitisch exponierten Regionen ist diese Entwicklung unmittelbar relevant. Falschinformationen über Konfliktzonen können:

    • Rohstoffmärkte beeinflussen
    • Reputationsrisiken erzeugen
    • Geschäftspartner verunsichern und Entscheidungsprozesse verzerren

    Wer in Krisenregionen operiert, sollte Informationsquellen systematisch verifizieren und für interne Kommunikationsprozesse klare Protokolle zur Quellenprüfung etablieren.

    Medienkompetenz ist längst keine rein gesellschaftliche Aufgabe mehr – sie wird zum Bestandteil unternehmerischer Resilienz.


    Quelle: The Guardian – „Lego videos, Iran, Trump: AI video, meme propaganda and animation”

  • KI-generierte Propaganda im Iran-USA-Konflikt: Deepfakes und Memes als geopolitisches Werkzeug

    KI-generierte Propaganda im Iran-USA-Konflikt: Deepfakes und Memes als geopolitisches Werkzeug

    Zwischen harmlosen Memes und gezielter Meinungsmache verschwimmen im Iran-USA-Konflikt die Grenzen: KI-generierte Deepfakes und virale Animationen werden zunehmend als Werkzeuge der geopolitischen Einflussnahme eingesetzt – und die technische Hürde dafür ist erschreckend niedrig.

    KI-generierte Propaganda im Iran-USA-Konflikt: Deepfakes und Memes als geopolitisches Werkzeug

    Inmitten der eskalierenden Spannungen zwischen den USA und dem Iran werden vermehrt KI-generierte Videos, Animationen und Memes als Mittel der Einflussnahme eingesetzt. Der Einsatz reicht von humoristischen Lego-Animationen bis hin zu täuschend echten Deepfakes – und zeigt, wie niedrig die technische Einstiegshürde für staatlich oder privat motivierte Desinformationskampagnen inzwischen ist.


    Vom Meme zur gezielten Meinungsmache

    Was auf den ersten Blick wie harmlose Internet-Kultur wirkt, erfüllt in geopolitischen Konflikten eine strategische Funktion. KI-generierte Kurzvideos und Animationen – darunter Clips im Stil bekannter Spielzeugmarken oder populärer Filmästhetiken – verbreiten sich auf Plattformen wie X, TikTok und Telegram mit erheblicher Reichweite. Die Inhalte werden gezielt so gestaltet, dass sie algorithmisch bevorzugt werden: kurz, emotional aufgeladen und visuell eingängig.

    Im Kontext des Iran-USA-Konflikts dokumentieren Medienforscher eine Zunahme solcher Inhalte auf beiden Seiten. Dabei ist die Urheberschaft oft bewusst verschleiert – ein Merkmal, das KI-Werkzeuge durch ihre Zugänglichkeit noch weiter vereinfachen.

    Tools zur Videogenerierung, die vor zwei Jahren noch Spezialkenntnisse erforderten, sind heute per Prompt bedienbar.


    Technische Niedrigschwelligkeit als strukturelles Problem

    Die eigentliche Verschiebung liegt nicht in der Existenz von Propaganda – die ist so alt wie politische Konflikte selbst – sondern in ihrer Skalierbarkeit und Geschwindigkeit. Einzelne Akteure oder kleine Gruppen können heute in kurzer Zeit eine Vielzahl überzeugend wirkender audiovisueller Inhalte produzieren, die früher aufwendige Produktionsmittel erfordert hätten.

    Deepfake-Technologie erlaubt dabei die Manipulation realer Aussagen von Politikern oder Militärs. Gleichzeitig entstehen vollständig synthetische Szenarien, die in ihrer Ästhetik an Nachrichtenformate angelehnt sind und so den Anschein von Authentizität erzeugen.

    Für Nutzer ohne Medienkompetenz oder technisches Hintergrundwissen ist die Unterscheidung zwischen echten und gefälschten Inhalten zunehmend schwierig.


    Plattformen und Regulierung unter Druck

    Soziale Netzwerke stehen vor der Herausforderung, KI-generierte Inhalte zuverlässig zu kennzeichnen und gegebenenfalls zu entfernen. Die Mechanismen zur Erkennung synthetischer Medien – sogenannte Content Provenance Standards wie C2PA – sind zwar technisch vorhanden, aber in der Praxis noch nicht flächendeckend implementiert. Hinzu kommt, dass die Urheber gezielt Maßnahmen ergreifen, um Erkennungssysteme zu umgehen.

    Regulatorisch befindet sich Europa mit dem AI Act und dem Digital Services Act in einer vergleichsweise fortgeschrittenen Position, doch die grenzüberschreitende Natur von Desinformationskampagnen begrenzt die Wirksamkeit nationaler oder regionaler Gesetzgebung erheblich.


    Einordnung für deutsche Unternehmen

    Für Unternehmen in Deutschland ist der geopolitische Kontext nicht abstrakt. Wer internationale Märkte bedient, Lieferketten in Krisenregionen hat oder mit Markenimage in sozialen Medien arbeitet, ist von KI-generierten Desinformationskampagnen potenziell direkt betroffen.

    Konkrete Risiken umfassen:
    Gefälschte Aussagen von Führungskräften
    Manipulierte Produktvideos
    Synthetische Krisen-PR, die die Unternehmensreputation nachhaltig beschädigen kann

    Der Aufbau interner Medienkompetenz, die Beobachtung relevanter Kanäle und die Implementierung von Authentifizierungsstandards für offizielle Kommunikation werden damit zu konkreten Governance-Aufgaben – weit über die IT-Abteilung hinaus.


    Quelle: The Guardian – Lego videos, Iran, Trump, AI propaganda and animation