Anthropic startet Cybersicherheits-Initiative mit Nvidia, Apple und Microsoft

KI-gestützte Cybersicherheit: Anthropic startet Project Glasswing

Anthropic bündelt mit „Project Glasswing” erstmals die Rechenkapazitäten eines Frontier-Modells mit dem Sicherheits-Know-how von Tech-Schwergewichten wie Nvidia, Apple und Microsoft – und setzt damit einen neuen Maßstab für KI-gestützte Schwachstellenanalyse.

Anthropic startet Cybersicherheits-Initiative mit Nvidia, Apple und Microsoft

Anthropic hat mit „Project Glasswing” eine Cybersicherheits-Initiative gestartet, die auf einem neuen, nicht öffentlich verfügbaren Large Language Model basiert. Das Modell namens Claude Mythos Preview soll Schwachstellen in gängigen Betriebssystemen und Browsern aufspüren – weitgehend ohne menschliche Intervention.

Geschlossenes Konsortium für kritische Sicherheitsanalysen

Zu den Launch-Partnern des Projekts zählen Nvidia, Google, Amazon Web Services, Apple und Microsoft. Die beteiligten Unternehmen erhalten exklusiven Zugang zu Claude Mythos Preview, um ihre eigenen Systeme auf hochriskante Sicherheitslücken zu analysieren und diese gezielt zu beheben. Eine öffentliche Veröffentlichung des Modells ist laut Anthropic ausdrücklich nicht geplant – der Grund: die Befürchtung, dass Angreifer dasselbe Werkzeug nutzen könnten, um gezielt Schwachstellen auszunutzen.

„Defender sollen Angreifern zeitlich voraus sein, indem Lücken identifiziert und geschlossen werden, bevor sie aktiv ausgenutzt werden können.” — Newton Cheng, Cyber-Spezialist, Frontier Red Team bei Anthropic

Newton Cheng, der für das Frontier Red Team von Anthropic zuständige Cyber-Spezialist, beschreibt das Ziel des Projekts gegenüber The Verge als „Head Start” für Sicherheitsverantwortliche.

Modell erkennt Schwachstellen in allen gängigen Systemen

Claude Mythos Preview soll bereits in frühen Tests Sicherheitsprobleme in sämtlichen großen Betriebssystemen und Webbrowsern identifiziert haben. Details zu konkreten Befunden oder betroffenen Produkten nannte Anthropic nicht. Der restriktive Zugang soll sicherstellen, dass das Modell ausschließlich defensiv eingesetzt wird – ein Ansatz, der auch regulatorische Fragen aufwirft, da staatliche Stellen offenbar ebenfalls als potenzielle Nutzer in Betracht gezogen werden.

Automatisierte Schwachstellenanalyse als strategischer Hebel

Der Einsatz von KI-Modellen für Vulnerability Research ist nicht neu, doch der Ansatz, ein dediziertes Frontier-Modell in einem kontrollierten Partnerkreis zu betreiben, stellt eine strategische Weiterentwicklung dar. Bislang wurden Large Language Models zwar für einzelne Sicherheitsaufgaben genutzt – etwa Code-Analyse oder Penetrationstest-Unterstützung –, eine strukturierte Integration auf Unternehmens- und Plattformebene in diesem Umfang ist jedoch ungewöhnlich.

Dass Anthropic ausgerechnet Apple und Microsoft in denselben Kreis aufnimmt, verdeutlicht den plattformübergreifenden Anspruch des Projekts. Beide Unternehmen stehen mit Windows und macOS im Zentrum globaler IT-Infrastrukturen.

Einordnung für deutsche Unternehmen

Für IT-Sicherheitsverantwortliche in Deutschland ist Project Glasswing zunächst ein Signal: Die systematische Nutzung spezialisierter KI-Modelle zur Schwachstellenerkennung wird bei großen Plattformanbietern zur strategischen Priorität. Unternehmen, die auf Windows, macOS oder gängige Browser setzen – also praktisch alle –, profitieren indirekt davon, sofern die beteiligten Hersteller identifizierte Lücken zügig schließen.

Mittelfristig dürfte der Druck steigen, ähnliche Ansätze auch auf Unternehmensebene zu etablieren. Der deutschen Wirtschaft fehlt bislang ein vergleichbares Konsortium; BSI und europäische Initiativen wie ENISA sollten die Entwicklungen rund um KI-gestützte Schwachstellenanalyse eng verfolgen, um regulatorische und operative Konsequenzen rechtzeitig abzuleiten.


Quelle: The Verge AI

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *