Anthropic startet branchenweite Initiative zum Schutz kritischer Infrastruktur vor KI-gestützten Cyberangriffen

Cybersecurity Initiative gegen KI-gestützte Angriffe auf kritische Infrastruktur

Mit dem Projekt „Glasswing” wagt Anthropic einen ungewöhnlichen Schritt: Der KI-Entwickler sucht gemeinsam mit Konkurrenten nach Wegen, Large Language Models gegen den Missbrauch als Cyberwaffen zu schützen – und könnte damit einen neuen Branchenstandard setzen.

Anthropic startet branchenweite Initiative zum Schutz kritischer Infrastruktur vor KI-gestützten Cyberangriffen

Anthropic hat gemeinsam mit mehreren Wettbewerbern eine neue Sicherheitsinitiative ins Leben gerufen, die verhindern soll, dass Large Language Models für Angriffe auf kritische Infrastrukturen missbraucht werden. Das Projekt namens „Glasswing” richtet sich gezielt gegen die wachsende Bedrohung durch KI-gestützte Hacking-Methoden und soll branchenweite Standards etablieren.


Kooperation statt Konkurrenz im Sicherheitsbereich

Bemerkenswert an der Initiative ist die Bereitschaft konkurrierender Unternehmen zur Zusammenarbeit. Anthropic hat unter dem Projektnamen „Mythos” – einem internen Forschungsprogramm – die Grundlagen entwickelt, die nun in das breitere „Glasswing”-Projekt einfließen. Ziel ist es, gemeinsam Abwehrmechanismen zu entwickeln, die verhindern, dass KI-Systeme als Werkzeug für automatisierte Cyberangriffe eingesetzt werden können. Welche Unternehmen konkret beteiligt sind, wurde bislang nicht vollständig offengelegt.


Das Bedrohungsszenario

Der Hintergrund der Initiative ist konkret: Sicherheitsforscher haben in den vergangenen Monaten wiederholt nachgewiesen, dass aktuelle Large Language Models in der Lage sind, Schwachstellen in Software zu identifizieren, Exploit-Code zu generieren und Phishing-Kampagnen erheblich zu professionalisieren.

Besonders problematisch ist die Senkung der Einstiegshürde: Angriffe, die bislang tiefes technisches Fachwissen erforderten, werden durch KI-Assistenz auch für weniger erfahrene Akteure durchführbar.

Anthropics internes Forschungsprogramm „Mythos” hat sich laut Wired gezielt damit befasst, wie Sprachmodelle in realen Angriffsszenarien eingesetzt werden könnten. Die dabei gewonnenen Erkenntnisse bilden die empirische Grundlage für „Glasswing”.


Technische und regulatorische Dimension

„Glasswing” setzt auf mehreren Ebenen an:

  • Technische Maßnahmen: Verbesserte Guardrails und Evaluierungsverfahren, die erkennen sollen, wenn ein Modell für schadhafte Zwecke genutzt wird
  • Gemeinsame Benchmarks: Branchenweite Standards, anhand derer die Sicherheit von KI-Systemen gegenüber Missbrauchsszenarien bewertet werden kann

Dieser Ansatz steht im Einklang mit regulatorischen Entwicklungen auf beiden Seiten des Atlantiks. Der EU AI Act enthält explizite Anforderungen an die Robustheit und Missbrauchssicherheit von Hochrisiko-KI-Systemen. Branchenübergreifende Standards, wie sie „Glasswing” anstrebt, könnten künftig als Referenzrahmen für die Compliance-Bewertung herangezogen werden.


Grenzen des Ansatzes

Freiwillige Brancheninitiativen waren in der Vergangenheit selten ausreichend, um tatsächliche Sicherheitsverbesserungen durchzusetzen.

Kritiker weisen darauf hin, dass ohne verbindliche Vorgaben und unabhängige Überprüfung die Wirksamkeit solcher Kooperationen schwer messbar bleibt. Zudem adressiert „Glasswing” primär die Angebotsseite – also die Modelle selbst – während die Absicherung nachgelagerter Anwendungen und APIs in der Verantwortung der jeweiligen Unternehmen verbleibt.


Einordnung für deutsche Unternehmen

Für Unternehmen in Deutschland, die KI-basierte Tools in ihre IT-Infrastruktur integrieren oder planen, ist die Initiative ein klares Signal: Die Branche nimmt das Missbrauchspotenzial ihrer Produkte zunehmend ernst. Praktisch bedeutet das:

  • Die Teilnahme an Sicherheitsinitiativen und Transparenz über Evaluierungsverfahren sollten künftig als Auswahlkriterium bei KI-Anbietern gelten
  • Die eigene Absicherung von Schnittstellen und der Einsatz KI-spezifischer Sicherheitsaudits bleiben eine Aufgabe, die keine externe Initiative abnehmen kann

Quelle: Wired AI – Anthropic Mythos / Project Glasswing

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *