Category: wt

  • FDIC legt Regulierungsrahmen für Stablecoin-Emittenten vor

    FDIC legt Regulierungsrahmen für Stablecoin-Emittenten vor

    Die US-Einlagensicherungsbehörde FDIC sorgt mit einem wegweisenden Regelentwurf für Klarheit im Stablecoin-Markt: Erstmals werden bundesweite Aufsichtsstandards definiert – und gleichzeitig eine scharfe Trennlinie zwischen digitalen Zahlungsmitteln und klassischen Bankeinlagen gezogen.

    FDIC legt Regulierungsrahmen für Stablecoin-Emittenten vor

    Die US-amerikanische Einlagensicherungsbehörde FDIC hat einen Regelentwurf veröffentlicht, der erstmals klare bundesweite Aufsichtsstandards für Stablecoin-Emittenten definiert. Der Vorschlag entstand im Kontext des sogenannten GENIUS Act und schließt Stablecoins ausdrücklich vom Schutz der Einlagenversicherung aus.


    Hintergrund: Der GENIUS Act als gesetzliche Grundlage

    Der GENIUS Act – kurz für „Guiding and Establishing National Innovation for US Stablecoins” – bildet die parlamentarische Grundlage für den neuen Regelentwurf. Das Gesetz zielt darauf ab, den US-Dollar-gebundenen Kryptozahlungsmarkt unter ein einheitliches Bundesregime zu stellen.

    Bislang operierten Stablecoin-Emittenten in einem regulatorischen Graubereich, in dem staatliche und bundesstaatliche Vorschriften uneinheitlich angewendet wurden.

    Die FDIC-Regeln sollen dieses Vakuum schließen und gleichzeitig die Grenzen zwischen Bankeinlagen und digitalen Zahlungsmitteln klarer ziehen.


    Was der Regelentwurf konkret vorsieht

    Der Entwurf legt fest, unter welchen Bedingungen Banken Stablecoin-bezogene Aktivitäten aufnehmen oder unterstützen dürfen. Zentrales Element ist die Klarstellung:

    Stablecoins sind – anders als klassische Bankeinlagen – nicht durch den Federal Deposit Insurance Fund abgesichert.

    Emittenten wie Circle (USDC) oder Tether (USDT) müssen demnach transparente Reserve-Nachweise erbringen und strenge Liquiditätsanforderungen erfüllen.

    Die FDIC arbeitet dabei eng mit dem Office of the Comptroller of the Currency (OCC) zusammen, um Doppelregulierungen zu vermeiden. Für Nicht-Banken-Emittenten – also Fintech-Unternehmen ohne Banklizenz – sieht der Rahmen vor, dass sie eine eigene Bundesgenehmigung beantragen müssen, bevor sie Dollar-Stablecoins ausgeben dürfen.


    Auswirkungen auf etablierte Marktteilnehmer

    Die vorgeschlagenen Regeln dürften vor allem kleinere Emittenten unter Druck setzen. Während große Akteure wie Circle bereits über ausgefeilte Compliance-Strukturen verfügen, fehlen vielen aufstrebenden Projekten die Kapazitäten, um den neuen Reserveausweis- und Berichtspflichten nachzukommen. Branchenbeobachter erwarten eine weitere Marktkonsolidierung.

    Die Debatte ist dabei zweigeteilt:

    • Befürworter argumentieren, dass klare Regeln das Vertrauen institutioneller Investoren stärken und den US-Stablecoin-Markt langfristig wettbewerbsfähiger machen.
    • Kritiker warnen, dass zu strenge Anforderungen Innovation ins Ausland verlagern könnten – ein Argument, das in der europäischen Debatte rund um die MiCA-Verordnung bereits bekannt ist.

    Zeitplan und nächste Schritte

    Der Regelentwurf befindet sich derzeit in der öffentlichen Kommentierungsphase. Behörden, Unternehmen und Interessengruppen können bis zum festgesetzten Stichtag Stellungnahmen einreichen. Eine finale Fassung wird frühestens Ende 2026 erwartet – sofern der GENIUS Act den parlamentarischen Prozess vollständig durchläuft.


    Relevanz für europäische Marktteilnehmer

    Für deutsche und europäische Fintech-Unternehmen, die auf dem US-Markt aktiv sind oder eine Expansion planen, sind die FDIC-Regeln unmittelbar relevant. Wer Dollar-Stablecoins emittieren oder in die entsprechende Infrastruktur investieren möchte, sollte die Kommentierungsphase aktiv verfolgen und frühzeitig rechtliche Expertise einbinden.

    Unternehmen, die sowohl den US- als auch den EU-Markt bedienen wollen, müssen künftig mit erheblichem Compliance-Aufwand rechnen – die Parallelentwicklung von FDIC-Rahmen und MiCA-Verordnung macht eine doppelte regulatorische Strategie unumgänglich.


    Quelle: Decrypt AI

  • Iranische Hackergruppen intensivieren Angriffe auf kritische Infrastruktur

    Iranische Hackergruppen intensivieren Angriffe auf kritische Infrastruktur

    Ich wähle eine neue, noch nicht verwendete ID:

    Iranische Cyberangriffe auf kritische Infrastruktur

    Staatlich gelenkte Hackergruppen aus dem Iran verschärfen ihre Angriffe auf Energie-, Wasser- und Kommunikationsinfrastruktur in westlichen Ländern. Was zunächst wie klassische Spionage aussah, entwickelt sich zunehmend zu einer ernsthaften Sabotage-Bedrohung – mit weitreichenden Konsequenzen auch für Deutschland.

    Iranische Hackergruppen intensivieren Angriffe auf kritische Infrastruktur

    Eskalation mit Methode

    Iranische Hackergruppen, darunter bekannte Akteure wie APT33 und Charming Kitten, haben ihre Aktivitäten gegen industrielle Steuerungssysteme und Operational Technology (OT) in den vergangenen Monaten spürbar ausgeweitet. Im Fokus stehen Sektoren, deren Ausfall unmittelbare gesellschaftliche Konsequenzen hätte: Stromversorgung, Wasseraufbereitung und Telekommunikation.

    Die Angriffsmuster deuten auf eine strategische Verschiebung hin – weg von reiner Spionage, hin zu Szenarien, die aktive Sabotage ermöglichen würden.

    Behörden wie die CISA (Cybersecurity and Infrastructure Security Agency) und das FBI haben bereits mehrfach gemeinsame Warnmeldungen herausgegeben. Darin beschreiben sie konkrete Taktiken, Techniken und Verfahren (TTPs), die iranische Gruppen einsetzen:

    • Spear-Phishing-Kampagnen gegen Mitarbeiter in Schlüsselpositionen
    • Ausnutzen ungepatchter Schwachstellen in Fernwartungssoftware
    • Living-off-the-Land-Techniken, um herkömmliche Sicherheitslösungen zu umgehen

    Industrielle Steuerungssysteme als bevorzugtes Ziel

    Besonders beunruhigend ist die zunehmende Kompetenz iranischer Akteure im Bereich industrieller Steuerungssysteme. Systeme wie SCADA und programmierbare Logikcontroller (PLCs) sind in vielen Anlagen schlecht gegen externe Zugriffe abgesichert – häufig, weil sie ursprünglich für isolierte Netzwerke konzipiert wurden und nun zunehmend mit dem Internet verbunden sind.

    In einigen dokumentierten Fällen gelangten Angreifer bis in operative Netzwerkebenen vor, ohne sofortige Gegenmaßnahmen auszulösen.

    Der geopolitische Kontext spielt dabei eine erhebliche Rolle: Verschärfte Sanktionen und regionale Spannungen im Nahen Osten haben dazu beigetragen, dass staatlich beauftragte Gruppen Cyberoperationen als kostengünstiges Mittel der Machtprojektion einsetzen – mit vergleichsweise niedrigem Eskalationsrisiko gegenüber konventionellen militärischen Mitteln.

    Keine rein amerikanische Bedrohungslage

    Auch wenn aktuelle Berichte primär auf US-amerikanische Ziele fokussiert sind, wäre es ein Fehler, die Lage als geographisch begrenzt einzustufen. Europäische Industrieanlagen – insbesondere in Deutschland – zählen ebenfalls zu potenziellen Zielgruppen: sei es als direkte Angriffsziele oder als Einstiegspunkte über international vernetzte Lieferketten.

    Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat in seinen jüngsten Lageberichten wiederholt auf die wachsende Bedrohung kritischer Infrastruktur durch staatliche Akteure hingewiesen.

    Einordnung und Handlungsbedarf für deutsche Unternehmen

    Für Unternehmen in Deutschland mit Bezug zu kritischer Infrastruktur – etwa Energieversorger, Wasserwerke, Logistikdienstleister oder Zulieferer öffentlicher Stellen – ergibt sich konkreter Handlungsbedarf. Grundlegende Maßnahmen umfassen:

    • Segmentierung von IT- und OT-Netzwerken
    • Regelmäßige Penetrationstests auch in industriellen Umgebungen
    • Strukturiertes Patch-Management für alle vernetzten Systeme

    Unternehmen, die unter den KRITIS-Regulierungsrahmen fallen, sollten zudem prüfen, ob ihre Meldepflichten und Notfallpläne dem aktuellen Stand der Technik entsprechen. Angesichts des veränderten Bedrohungsbildes sind diese Maßnahmen keine optionale Aufgabe mehr.


    Quelle: CNET News – Iranian Hackers Escalate Attacks on US Critical Infrastructure

  • Microsoft integriert KI-Funktionen tiefer in Windows 11 – was das April-Update für IT-Abteilungen bedeutet

    Microsoft integriert KI-Funktionen tiefer in Windows 11 – was das April-Update für IT-Abteilungen bedeutet

    Mit dem April-Update verankert Microsoft künstliche Intelligenz noch tiefer in Windows 11 – von lokaler Sicherheitsanalyse bis zum erweiterten Copilot-Zugriff. Für IT-Abteilungen in Deutschland bedeutet das: neue Möglichkeiten, aber auch neue Fragen rund um Datenschutz, Compliance und Geräteparks.

    Microsoft integriert KI-Funktionen tiefer in Windows 11 – was das April-Update für IT-Abteilungen bedeutet

    Sicherheit durch KI-Analyse

    Ein zentraler Bestandteil des Updates ist die Erweiterung KI-gestützter Sicherheitsmechanismen. Microsoft setzt dabei auf lokale Modelle, die verdächtiges Verhalten auf dem Gerät erkennen sollen, ohne dass Daten vollständig in die Cloud übertragen werden müssen. Diese Architektur adressiert einen der häufigsten Einwände von Unternehmens-IT-Abteilungen: die Frage der Datensouveränität bei KI-basierten Analysefunktionen.

    Die neuen Mechanismen ergänzen bestehende Sicherheitslösungen wie Microsoft Defender und sind in das Windows Security Center eingebunden. Konkret sollen Anomalieerkennung und Phishing-Schutz durch das Update präziser werden, da die zugrunde liegenden Modelle mit aktualisierten Bedrohungsdaten trainiert wurden.

    Copilot-Integration und Accessibility

    Parallel dazu erweitert Microsoft die Copilot-Funktionalität innerhalb des Betriebssystems. Der KI-Assistent erhält tiefere Systemzugriffe, um Aufgaben wie das Anpassen von Systemeinstellungen oder das Abrufen von Geräteinformationen direkt aus dem Chat heraus zu ermöglichen.

    Für IT-Administratoren ist relevant: Copilot-Funktionen lassen sich über Gruppenrichtlinien und Microsoft Intune steuern und gezielt einschränken.

    Darüber hinaus wurden Bedienungshilfen überarbeitet. Der Live-Untertitel-Dienst wurde verbessert, und die KI-gestützte Bildbeschreibungsfunktion im Narrator soll präzisere Ausgaben liefern. Diese Änderungen sind besonders für Unternehmen mit inklusiven Arbeitsplatzrichtlinien von Interesse.

    Rollout und administrative Kontrolle

    Microsoft stellt das Update schrittweise über Windows Update bereit. Für Unternehmensumgebungen, die auf WSUS oder Windows Autopatch setzen, gelten die üblichen Verzögerungen im Deployment-Zyklus. Administratoren können das Update in Testumgebungen vorab prüfen, bevor es breit ausgerollt wird.

    Wichtig für heterogene Geräteparks: Einige KI-Funktionen sind ausschließlich an Copilot+ PCs mit dedizierter Neural Processing Unit (NPU) geknüpft – auf älterer Hardware stehen sie nicht zur Verfügung.

    Einordnung für deutsche Unternehmen

    Für IT-Entscheider in Deutschland ist das Update aus mehreren Gründen relevant:

    • Die verbesserten Sicherheitsfunktionen bieten konkreten Mehrwert im Tagesbetrieb, sofern sie in bestehende Security-Konzepte integriert werden.
    • Datenschutzbeauftragte müssen prüfen, inwieweit lokale KI-Verarbeitung tatsächlich DSGVO-konform ist und welche Telemetriedaten Microsoft dennoch erhebt.
    • Unternehmen mit standardisierten Softwareumgebungen sollten das Update zunächst in kontrollierten Pilotgruppen testen.

    Angesichts der zunehmenden KI-Tiefe in Standard-Betriebssystemen empfiehlt sich eine frühzeitige Abstimmung zwischen IT, Datenschutz und Betriebsrat – insbesondere wenn Copilot-Funktionen für Endnutzer sichtbar werden sollen.


    Quelle: TechRepublic AI

  • Arcee AI: US-Startup positioniert sich als Alternative zu großen Sprachmodell-Anbietern

    Arcee AI: US-Startup positioniert sich als Alternative zu großen Sprachmodell-Anbietern

    Mit gerade einmal 26 Mitarbeitern und einem konsequenten Fokus auf Effizienz statt schlichter Rechenleistung mischt das US-Startup Arcee AI den Markt für Large Language Models auf – und könnte besonders für europäische Unternehmen zur interessanten Alternative werden.

    Arcee AI: Kleines US-Startup fordert die großen Sprachmodell-Anbieter heraus

    Das amerikanische KI-Unternehmen Arcee AI hat mit gerade einmal 26 Mitarbeitern ein leistungsstarkes Open-Source-Large Language Model entwickelt, das zunehmend Aufmerksamkeit in der Entwickler-Community auf sich zieht. Das Startup positioniert sich damit als ernstzunehmende Alternative zu den ressourcenintensiven Modellen etablierter Anbieter wie OpenAI oder Anthropic.

    Effizienz statt schlichter Rechenleistung

    Arcee verfolgt einen grundlegend anderen Ansatz als die kapitalkräftigen Schwergewichte der Branche. Statt auf immer größere Trainingscluster und Milliarden-Investitionen zu setzen, konzentriert sich das Team auf die gezielte Optimierung kleinerer, spezialisierter Modelle.

    Das Ergebnis sind Modelle, die trotz deutlich geringerer Parameteranzahl in bestimmten Aufgabenbereichen mit deutlich größeren Konkurrenzprodukten mithalten können.

    Dieser Ansatz ist in der Fachsprache als „Small Language Model”-Strategie bekannt und spiegelt einen breiteren Trend in der Open-Source-KI-Entwicklung wider: Statt auf rohe Größe zu setzen, rücken Effizienz, Anpassbarkeit und kontrollierte Deployment-Optionen in den Vordergrund. Für Unternehmen, die KI-Anwendungen intern betreiben möchten, ist das ein entscheidender Faktor.

    Wachsende Beliebtheit in der Open-Source-Community

    Besondere Dynamik erhält Arcees Wachstum durch die steigende Nutzung seiner Modelle über Open-Source-Plattformen. Die Modelle gewinnen erkennbar an Popularität unter Entwicklern, die nach lizenzfreien, lokal betreibbaren Alternativen suchen. Gerade in einem Marktumfeld, in dem Datenschutzanforderungen und Compliance-Fragen den Einsatz cloudbasierter KI-Dienste erschweren, verschafft dieser Ansatz dem Startup einen strukturellen Vorteil.

    Die Tatsache, dass ein 26-köpfiges Team ein Modell dieser Leistungsklasse entwickeln konnte, zeigt, wie stark sich die Entwicklungskosten für konkurrenzfähige Large Language Models in den vergangenen Jahren reduziert haben – eine Entwicklung, die die gesamte Wettbewerbsdynamik im KI-Sektor verändert.

    Geopolitischer Kontext: Open Source als Gegengewicht

    Arcee agiert in einem Marktumfeld, das zunehmend von geopolitischen Spannungen geprägt ist. Angesichts der Diskussionen um chinesische KI-Modelle und deren mögliche Sicherheitsimplikationen positioniert sich ein US-amerikanisches Open-Source-Modell mit offengelegtem Code als transparente Alternative – sowohl gegenüber proprietären amerikanischen Diensten als auch gegenüber Modellen aus anderen Rechtsräumen.

    Einordnung für deutsche Unternehmen

    Für deutsche Unternehmen und IT-Entscheider ist Arcee aus mehreren Gründen besonders relevant:

    • DSGVO-Konformität: Open-Source-Modelle ermöglichen den Betrieb innerhalb der eigenen Infrastruktur – ein entscheidender Vorteil für die Datensouveränität.
    • Geringere Einstiegshürden: Wer bislang aus Kosten- oder Compliance-Gründen auf proprietäre API-Dienste verzichtet hat, findet zunehmend praxistaugliche Alternativen.
    • Integrierbarkeit: Die Modelle lassen sich in bestehende IT-Umgebungen einbinden, ohne Abhängigkeiten von externen Cloud-Anbietern zu schaffen.

    Leistungsfähige KI-Infrastruktur ist nicht länger ausschließlich den finanzstärksten Marktteilnehmern vorbehalten – Arcee AI ist der lebende Beweis.


    Quelle: TechCrunch AI

  • Intel unterstützt Musks Terafab-Projekt: Neue Dynamik in der KI-Chip-Lieferkette

    Intel unterstützt Musks Terafab-Projekt: Neue Dynamik in der KI-Chip-Lieferkette

    Elon Musks milliardenschweres KI-Megaprojekt „Terafab” bekommt unerwartete Schützenhilfe: Intel soll als Fertigungspartner einspringen – ein Deal, der für beide Seiten strategisch wegweisend sein könnte und die Dynamik der globalen KI-Chip-Lieferkette neu justiert.

    Intel unterstützt Musks Terafab-Projekt: Neue Dynamik in der KI-Chip-Lieferkette

    Das Terafab-Projekt und seine Dimensionen

    Das Terafab-Projekt, das Musk über sein KI-Unternehmen xAI vorantreibt, zählt mit einem Investitionsvolumen von rund 25 Milliarden US-Dollar zu den ambitioniertesten KI-Infrastrukturvorhaben der Vereinigten Staaten. Ziel ist der Aufbau einer der größten KI-Rechenzentrumskapazitäten des Landes – ausgestattet mit massiver Chip-Infrastruktur, die xAI in die Lage versetzen soll, mit Anbietern wie OpenAI und Google DeepMind zu konkurrieren.

    Bereits das im vergangenen Jahr in Memphis, Tennessee, in Betrieb genommene „Colossus”-Rechenzentrum gilt als eine der leistungsstärksten KI-Trainingsanlagen weltweit.


    Intels Rolle: Foundry-Geschäft im Fokus

    Für Intel kommt die Beteiligung zu einem kritischen Zeitpunkt. Das Unternehmen kämpft seit Monaten darum, sein Foundry-Geschäft – die Auftragsfertigungssparte für Halbleiter – auf eine tragfähige Basis zu stellen. Bisherige Versuche, Großkunden wie Apple oder Qualcomm für die eigenen Fertigungslinien zu gewinnen, verliefen nur begrenzt erfolgreich.

    Eine Zusammenarbeit mit dem Terafab-Projekt würde Intel zweierlei bringen:

    • Unmittelbaren Umsatz für die angeschlagene Foundry-Sparte
    • Referenzstatus in einem Markt, der nach wie vor von TSMC aus Taiwan dominiert wird

    Geopolitische Dimension: US-amerikanische Chipproduktion im Aufwind

    Das Projekt fügt sich nahtlos in eine größere industriepolitische Debatte ein. Mit dem CHIPS and Science Act hat die US-Regierung erhebliche Mittel bereitgestellt, um heimische Halbleiterfertigung zu stärken und die Abhängigkeit von asiatischen Lieferketten zu reduzieren.

    Die Frage, ob die USA mittelfristig in der Lage sind, hochmoderne KI-Chips in ausreichenden Stückzahlen auf eigenem Boden zu fertigen, bleibt offen – die technologische Lücke zu TSMC und Samsung ist erheblich.


    Lieferkette unter Druck

    Die Ankündigung verdeutlicht, wie stark der Wettbewerb um Fertigungskapazitäten für KI-Hardware zugenommen hat. Neben Nvidia-GPUs, die das Rückgrat der meisten KI-Trainingscluster bilden, wächst der Bedarf an spezialisierten Chips und alternativen Fertigungspartnern.

    Unternehmen wie xAI, Microsoft und Amazon Web Services versuchen zunehmend:

    • Eigene Chip-Designs zu entwickeln
    • Auf alternative Foundries zu setzen
    • Abhängigkeiten von einzelnen Lieferanten zu reduzieren

    Einordnung für deutsche und europäische Unternehmen

    Für europäische und insbesondere deutsche Unternehmen, die KI-Infrastruktur planen oder ausbauen, unterstreicht diese Entwicklung die wachsende strategische Bedeutung der Chip-Lieferkette. Die Konsolidierung auf wenige Anbieter – allen voran Nvidia und TSMC – birgt Risiken, die durch politische Spannungen oder Kapazitätsengpässe kurzfristig spürbar werden können.

    Der European Chips Act zielt zwar in eine ähnliche Richtung wie das US-amerikanische Pendant – hinkt beim tatsächlichen Aufbau von Fertigungskapazitäten jedoch noch deutlich hinterher.

    Wer mittel- bis langfristig auf leistungsstarke KI-Rechenkapazitäten angewiesen ist, sollte die Abhängigkeiten in der eigenen Bezugsstrategie kritisch prüfen und diversifizieren.


    Quelle: CNET AI – Elon Musk’s $25 Billion Terafab Project Gets a Helping Hand From Intel

  • Führungsschwäche und Vertrauensverlust: Große KI-Unternehmen unter Druck

    Führungsschwäche und Vertrauensverlust: Große KI-Unternehmen unter Druck

    Ein neues Porträt über OpenAI-CEO Sam Altman wirft grundlegende Fragen über die Führungskultur der mächtigsten KI-Unternehmen der Welt auf. Was wie eine Personalstudie beginnt, entpuppt sich als Röntgenbild einer ganzen Branche – mit strukturellen Rissen, die weit tiefer reichen als eine einzelne Persönlichkeit.

    Führungsschwäche und Glaubwürdigkeitsprobleme: Die großen KI-Unternehmen unter Druck

    Vertrauen als knappes Gut

    Die KI-Branche hat in den vergangenen Monaten eine Reihe von Ereignissen erlebt, die das Vertrauen in ihre führenden Akteure nachhaltig belasten. Bei OpenAI reicht die Liste der Vorfälle von internen Machtkämpfen über den kurzfristigen Rauswurf und die Wiedereinsetzung Altmans bis hin zu anhaltenden Debatten über die Ausrichtung des Unternehmens zwischen gemeinnützigen Ursprüngen und kommerziellem Wachstum.

    Das Unternehmen strebt derzeit eine vollständige Umwandlung in eine gewinnorientierte Kapitalgesellschaft an – ein Schritt, der intern wie extern für erhebliche Spannungen sorgt.

    Strukturelle Widersprüche im Geschäftsmodell

    Viele der großen KI-Labore wurden ursprünglich mit einer sicherheitsorientierten Mission gegründet. Die Realität des Wettbewerbs um Marktanteile, Talente und Kapital zwingt sie jedoch zunehmend zu Entscheidungen, die mit diesen Ursprungswerten in Konflikt geraten. Schnellere Produktzyklen, öffentliche Versprechungen über Fähigkeiten zukünftiger Modelle und der Druck auf Quartalsergebnisse prägen inzwischen das operative Geschäft stärker als interne Sicherheitsdebatten.

    Ähnliche Spannungen sind bei anderen Akteuren der Branche zu beobachten:

    • Google DeepMind balanciert zwischen akademischer Forschungstradition und den Anforderungen eines Mutterkonzerns mit Werbeumsätzen.
    • Anthropic positioniert sich als sicherheitsbewusste Alternative, nimmt aber gleichzeitig Milliarden von Amazon und Google entgegen.

    Diese strukturellen Widersprüche sind kein individuelles Versagen einzelner Führungspersönlichkeiten, sondern Ausdruck eines systemischen Dilemmas der gesamten Branche.

    Kommunikation zwischen Hype und Rückzug

    Ein wiederkehrendes Muster ist die Diskrepanz zwischen öffentlichen Ankündigungen und tatsächlichen Lieferterminen. Produktversprechen werden mit großem Medienecho gemacht, Verzögerungen hingegen still kommuniziert oder gar nicht eingestanden. Dieses Muster untergräbt die Glaubwürdigkeit der Unternehmen bei institutionellen Kunden und Regulatoren gleichermaßen – gerade in einem Moment, in dem mit dem EU AI Act ein verbindlicher Rechtsrahmen in Kraft tritt.

    Governance bleibt das ungelöste Problem

    Die eigentliche Schwachstelle liegt im Bereich Governance. Weder die internen Kontrollmechanismen noch die externen Aufsichtsstrukturen haben sich bislang als ausreichend erwiesen. Das OpenAI-Board, das 2023 den dramatischen Führungswechsel ausgelöst hatte, wurde anschließend in seiner Zusammensetzung verändert –

    in eine Richtung, die Kritikern zufolge eher auf Stabilität für Investoren als auf unabhängige Kontrolle ausgerichtet ist.

    Wie echte Rechenschaftspflicht in einer Branche aussehen soll, die sich selbst als systemrelevant bezeichnet, ist bislang ungeklärt.

    Einordnung für deutsche Unternehmen

    Für Entscheider in deutschen Unternehmen, die KI-Lösungen evaluieren oder bereits einsetzen, ergibt sich eine klare praktische Konsequenz: Die Lieferanten-Due-Diligence sollte über technische Leistungsparameter hinausgehen. Relevante Prüfpunkte umfassen:

    • Finanzierungsstruktur des Anbieters
    • Governance-Architektur und Zusammensetzung der Kontrollgremien
    • Langfristige Produktstrategie und Versionsstabilität

    Wer Kernsysteme auf Modelle eines einzelnen Anbieters aufbaut, der aktuell strukturelle Unsicherheiten durchläuft, trägt ein Abhängigkeitsrisiko, das in keiner Beschaffungsrichtlinie fehlen sollte.


    Quelle: Ars Technica AI

  • Googles KI-Suche liefert in neun von zehn Fällen korrekte Antworten

    Googles KI-Suche liefert in neun von zehn Fällen korrekte Antworten

    Erstmals liefert eine systematische Analyse belastbare Zahlen zur Zuverlässigkeit von Googles KI-Suchfunktion – mit einem überraschend soliden Ergebnis und einer wichtigen Einschränkung für den Unternehmenseinsatz.

    Googles KI-Suche liefert in neun von zehn Fällen korrekte Antworten

    Was die Analyse zeigt

    Bisher fehlte eine belastbare, systematische Untersuchung zur Fehlerquote von Googles KI-Suche. Der Hinweis „KI kann Fehler machen, bitte Antworten überprüfen”, den Google unter jede generierte Suchantwort setzt, blieb damit weitgehend unquantifiziert. Die nun vorliegende Auswertung schließt diese Lücke: In etwa neun von zehn Fällen sind die durch AI Overviews generierten Antworten sachlich korrekt.

    Das Ergebnis positioniert Googles Ansatz vergleichsweise gut im Wettbewerbsumfeld der KI-gestützten Suchsysteme.

    Grundlage der Analyse war eine stichprobenartige Überprüfung von AI-Overview-Antworten anhand verifizierter Quellen – ein Verfahren, das zwar methodische Grenzen hat, aber erstmals quantitative Anhaltspunkte liefert.

    Wo Fehler auftreten

    Die verbleibenden rund zehn Prozent fehlerhafter Antworten sind nicht gleichmäßig über alle Themenbereiche verteilt. Komplexe, kontroverse oder zeitkritische Themen zeigen erwartungsgemäß höhere Fehlerquoten als faktisch klare Suchanfragen – etwa nach definierten Begriffen, historischen Daten oder technischen Spezifikationen. Besonders bei Anfragen, die eine Abwägung verschiedener Quellen erfordern oder bei denen aktuelle Entwicklungen eine Rolle spielen, steigt das Risiko ungenauer Zusammenfassungen.

    Hinzu kommt das strukturelle Problem der sogenannten Halluzinationen: KI-Sprachmodelle können inhaltlich plausibel klingende, aber faktisch falsche Aussagen produzieren – ohne dass dies für den Nutzer auf den ersten Blick erkennbar ist. Google adressiert dieses Risiko durch Quellenverweise innerhalb der AI Overviews, die eine manuelle Nachprüfung erleichtern sollen.

    Einordnung im KI-Suchmarkt

    Google steht mit AI Overviews in direktem Wettbewerb mit Anbietern wie Perplexity AI oder Microsofts Copilot-Integration in Bing, die ebenfalls auf Large Language Models zur Antwortsynthese setzen.

    Eine Fehlerquote von zehn Prozent mag im Vergleich zu alternativen Systemen moderat wirken – bei Milliarden von Suchanfragen täglich entspricht das jedoch einer signifikanten absoluten Anzahl an potenziell fehlerhaften Antworten.

    Google selbst hat seit der Einführung von AI Overviews im Jahr 2024 mehrere Anpassungen vorgenommen, nachdem einzelne fehlerhafte Antworten öffentlich für Aufmerksamkeit gesorgt hatten. Die aktuelle Analyse deutet darauf hin, dass diese Nachbesserungen Wirkung zeigen.

    Einordnung für deutsche Unternehmen

    Für Unternehmen, die KI-Suchwerkzeuge intern oder im Kundenkontakt einsetzen, liefert die Analyse einen praxisrelevanten Orientierungswert:

    • Eine Trefferquote von 90 Prozent reicht für viele informelle Recherchetätigkeiten aus.
    • Für compliance-relevante, rechtliche oder medizinische Fragestellungen ist sie keine ausreichende Verlässlichkeit.
    • Wer AI Overviews in Geschäftsprozesse integriert, sollte klare interne Richtlinien definieren – für welche Anwendungsfälle KI-generierte Suchantworten akzeptabel sind und wo eine Verifikation anhand primärer Quellen obligatorisch bleibt.

    Quelle: The Decoder

  • Anthropic startet branchenweite Initiative zum Schutz kritischer Infrastruktur vor KI-gestützten Cyberangriffen

    Anthropic startet branchenweite Initiative zum Schutz kritischer Infrastruktur vor KI-gestützten Cyberangriffen

    Mit dem Projekt „Glasswing” wagt Anthropic einen ungewöhnlichen Schritt: Der KI-Entwickler sucht gemeinsam mit Konkurrenten nach Wegen, Large Language Models gegen den Missbrauch als Cyberwaffen zu schützen – und könnte damit einen neuen Branchenstandard setzen.

    Anthropic startet branchenweite Initiative zum Schutz kritischer Infrastruktur vor KI-gestützten Cyberangriffen

    Anthropic hat gemeinsam mit mehreren Wettbewerbern eine neue Sicherheitsinitiative ins Leben gerufen, die verhindern soll, dass Large Language Models für Angriffe auf kritische Infrastrukturen missbraucht werden. Das Projekt namens „Glasswing” richtet sich gezielt gegen die wachsende Bedrohung durch KI-gestützte Hacking-Methoden und soll branchenweite Standards etablieren.


    Kooperation statt Konkurrenz im Sicherheitsbereich

    Bemerkenswert an der Initiative ist die Bereitschaft konkurrierender Unternehmen zur Zusammenarbeit. Anthropic hat unter dem Projektnamen „Mythos” – einem internen Forschungsprogramm – die Grundlagen entwickelt, die nun in das breitere „Glasswing”-Projekt einfließen. Ziel ist es, gemeinsam Abwehrmechanismen zu entwickeln, die verhindern, dass KI-Systeme als Werkzeug für automatisierte Cyberangriffe eingesetzt werden können. Welche Unternehmen konkret beteiligt sind, wurde bislang nicht vollständig offengelegt.


    Das Bedrohungsszenario

    Der Hintergrund der Initiative ist konkret: Sicherheitsforscher haben in den vergangenen Monaten wiederholt nachgewiesen, dass aktuelle Large Language Models in der Lage sind, Schwachstellen in Software zu identifizieren, Exploit-Code zu generieren und Phishing-Kampagnen erheblich zu professionalisieren.

    Besonders problematisch ist die Senkung der Einstiegshürde: Angriffe, die bislang tiefes technisches Fachwissen erforderten, werden durch KI-Assistenz auch für weniger erfahrene Akteure durchführbar.

    Anthropics internes Forschungsprogramm „Mythos” hat sich laut Wired gezielt damit befasst, wie Sprachmodelle in realen Angriffsszenarien eingesetzt werden könnten. Die dabei gewonnenen Erkenntnisse bilden die empirische Grundlage für „Glasswing”.


    Technische und regulatorische Dimension

    „Glasswing” setzt auf mehreren Ebenen an:

    • Technische Maßnahmen: Verbesserte Guardrails und Evaluierungsverfahren, die erkennen sollen, wenn ein Modell für schadhafte Zwecke genutzt wird
    • Gemeinsame Benchmarks: Branchenweite Standards, anhand derer die Sicherheit von KI-Systemen gegenüber Missbrauchsszenarien bewertet werden kann

    Dieser Ansatz steht im Einklang mit regulatorischen Entwicklungen auf beiden Seiten des Atlantiks. Der EU AI Act enthält explizite Anforderungen an die Robustheit und Missbrauchssicherheit von Hochrisiko-KI-Systemen. Branchenübergreifende Standards, wie sie „Glasswing” anstrebt, könnten künftig als Referenzrahmen für die Compliance-Bewertung herangezogen werden.


    Grenzen des Ansatzes

    Freiwillige Brancheninitiativen waren in der Vergangenheit selten ausreichend, um tatsächliche Sicherheitsverbesserungen durchzusetzen.

    Kritiker weisen darauf hin, dass ohne verbindliche Vorgaben und unabhängige Überprüfung die Wirksamkeit solcher Kooperationen schwer messbar bleibt. Zudem adressiert „Glasswing” primär die Angebotsseite – also die Modelle selbst – während die Absicherung nachgelagerter Anwendungen und APIs in der Verantwortung der jeweiligen Unternehmen verbleibt.


    Einordnung für deutsche Unternehmen

    Für Unternehmen in Deutschland, die KI-basierte Tools in ihre IT-Infrastruktur integrieren oder planen, ist die Initiative ein klares Signal: Die Branche nimmt das Missbrauchspotenzial ihrer Produkte zunehmend ernst. Praktisch bedeutet das:

    • Die Teilnahme an Sicherheitsinitiativen und Transparenz über Evaluierungsverfahren sollten künftig als Auswahlkriterium bei KI-Anbietern gelten
    • Die eigene Absicherung von Schnittstellen und der Einsatz KI-spezifischer Sicherheitsaudits bleiben eine Aufgabe, die keine externe Initiative abnehmen kann

    Quelle: Wired AI – Anthropic Mythos / Project Glasswing

  • Apple, Google und Microsoft bündeln Ressourcen für Open-Source-Sicherheitsinitiative

    Apple, Google und Microsoft bündeln Ressourcen für Open-Source-Sicherheitsinitiative

    Mit „Project Glasswing” wagen Apple, Google, Microsoft und Anthropic einen ungewöhnlichen Schritt: Vier Technologieriesen, die sonst im harten Wettbewerb stehen, bündeln Ressourcen, um die Sicherheit kritischer Open-Source-Infrastruktur grundlegend zu stärken – und senden damit ein Signal an die gesamte Branche.

    Apple, Google und Microsoft bündeln Ressourcen für Open-Source-Sicherheitsinitiative

    Drei der größten Technologiekonzerne weltweit haben sich unter dem Namen „Project Glasswing” zusammengeschlossen, um kritische Open-Source-Software besser gegen Sicherheitsbedrohungen abzusichern. Neben Apple, Google und Microsoft ist auch das KI-Unternehmen Anthropic an dem Vorhaben beteiligt. Die Initiative zielt darauf ab, systematische Schwachstellen in weit verbreiteten Software-Bibliotheken zu identifizieren und zu beheben, bevor diese in größeren Angriffen ausgenutzt werden können.


    Hintergrund: Warum Open-Source-Infrastruktur besonderer Schutz braucht

    Open-Source-Komponenten bilden das Fundament eines Großteils moderner Unternehmens-Software – von Web-Applikationen über Cloud-Infrastruktur bis hin zu KI-Systemen. Genau diese Abhängigkeit macht sie zu einem attraktiven Angriffsziel.

    Der Vorfall rund um die Log4Shell-Sicherheitslücke im Jahr 2021 hat exemplarisch gezeigt, welche Reichweite eine einzige Schwachstelle in einer weit verbreiteten Bibliothek haben kann: Hunderttausende Systeme weltweit waren innerhalb kürzester Zeit exponiert – darunter Systeme von Behörden, Finanzdienstleistern und Industrieunternehmen.

    Project Glasswing adressiert genau dieses strukturelle Problem. Statt reaktiv auf bekannte Vorfälle zu reagieren, soll die Initiative proaktiv Ressourcen bereitstellen – in Form von finanzieller Unterstützung, technischer Expertise und koordinierter Forschung.


    Koordinierte Reaktion auf ein systemisches Risiko

    Die beteiligten Unternehmen wollen im Rahmen der Initiative unter anderem Open-Source-Maintainer finanziell und technisch unterstützen, die oft ehrenamtlich oder mit sehr begrenzten Mitteln arbeiten. Viele kritische Bibliotheken werden von kleinen Teams oder sogar Einzelpersonen gepflegt – ein Umstand, der sowohl die Qualitätssicherung als auch die Reaktionsgeschwindigkeit bei Sicherheitsvorfällen erheblich einschränkt.

    Darüber hinaus ist geplant, gemeinsame Prüfprozesse und Sicherheitsstandards für besonders exponierte Softwarekomponenten zu etablieren. Die Einbindung von Anthropic deutet darauf hin, dass auch KI-gestützte Analysen zur automatisierten Erkennung potenzieller Schwachstellen eingesetzt werden sollen.


    Strategische Dimension für den Technologiemarkt

    Das Engagement der vier Unternehmen ist nicht allein altruistisch motiviert. Apple, Google und Microsoft sind selbst in erheblichem Maße von der Sicherheit der Open-Source-Ökosysteme abhängig, auf denen ihre eigenen Produkte und Cloud-Dienste aufbauen.

    Ein erfolgreicher Angriff auf eine weitverbreitete Bibliothek kann Lieferketten entlang der gesamten Branche beeinträchtigen – ein Risiko, das angesichts zunehmender KI-Integration in Unternehmenssoftware weiter wächst.

    Die Zusammenarbeit direkt konkurrierender Konzerne in Sicherheitsfragen ist dabei kein Novum, gewinnt jedoch an Bedeutung. Ähnliche Ansätze verfolgen etwa die Open Source Security Foundation (OpenSSF) oder der Sovereign Tech Fund auf europäischer Ebene, die ebenfalls gezielt kritische Infrastruktur-Projekte fördern.


    Einordnung für deutsche Unternehmen

    Für Unternehmen in Deutschland und dem deutschsprachigen Raum, die stark auf Open-Source-Software setzen, liefert Project Glasswing ein klares Signal:

    Die systematische Absicherung der eigenen Software-Lieferkette rückt auch auf Branchenebene in den Fokus.

    IT-Verantwortliche sollten die Entwicklungen rund um die Initiative aufmerksam verfolgen, da daraus möglicherweise neue Sicherheitsstandards und Zertifizierungsanforderungen entstehen, die auch für europäische Zulieferer und Software-Anbieter relevant werden könnten. Ergänzend bieten bestehende Rahmenprogramme wie der deutsche Sovereign Tech Fund bereits heute konkrete Ansatzpunkte zur Stärkung kritischer Open-Source-Abhängigkeiten im eigenen Portfolio.


    Quelle: ZDNet AI

  • Anthropic startet Cybersicherheits-Initiative mit Nvidia, Apple und Microsoft

    Anthropic startet Cybersicherheits-Initiative mit Nvidia, Apple und Microsoft

    Anthropic bündelt mit „Project Glasswing” erstmals die Rechenkapazitäten eines Frontier-Modells mit dem Sicherheits-Know-how von Tech-Schwergewichten wie Nvidia, Apple und Microsoft – und setzt damit einen neuen Maßstab für KI-gestützte Schwachstellenanalyse.

    Anthropic startet Cybersicherheits-Initiative mit Nvidia, Apple und Microsoft

    Anthropic hat mit „Project Glasswing” eine Cybersicherheits-Initiative gestartet, die auf einem neuen, nicht öffentlich verfügbaren Large Language Model basiert. Das Modell namens Claude Mythos Preview soll Schwachstellen in gängigen Betriebssystemen und Browsern aufspüren – weitgehend ohne menschliche Intervention.

    Geschlossenes Konsortium für kritische Sicherheitsanalysen

    Zu den Launch-Partnern des Projekts zählen Nvidia, Google, Amazon Web Services, Apple und Microsoft. Die beteiligten Unternehmen erhalten exklusiven Zugang zu Claude Mythos Preview, um ihre eigenen Systeme auf hochriskante Sicherheitslücken zu analysieren und diese gezielt zu beheben. Eine öffentliche Veröffentlichung des Modells ist laut Anthropic ausdrücklich nicht geplant – der Grund: die Befürchtung, dass Angreifer dasselbe Werkzeug nutzen könnten, um gezielt Schwachstellen auszunutzen.

    „Defender sollen Angreifern zeitlich voraus sein, indem Lücken identifiziert und geschlossen werden, bevor sie aktiv ausgenutzt werden können.” — Newton Cheng, Cyber-Spezialist, Frontier Red Team bei Anthropic

    Newton Cheng, der für das Frontier Red Team von Anthropic zuständige Cyber-Spezialist, beschreibt das Ziel des Projekts gegenüber The Verge als „Head Start” für Sicherheitsverantwortliche.

    Modell erkennt Schwachstellen in allen gängigen Systemen

    Claude Mythos Preview soll bereits in frühen Tests Sicherheitsprobleme in sämtlichen großen Betriebssystemen und Webbrowsern identifiziert haben. Details zu konkreten Befunden oder betroffenen Produkten nannte Anthropic nicht. Der restriktive Zugang soll sicherstellen, dass das Modell ausschließlich defensiv eingesetzt wird – ein Ansatz, der auch regulatorische Fragen aufwirft, da staatliche Stellen offenbar ebenfalls als potenzielle Nutzer in Betracht gezogen werden.

    Automatisierte Schwachstellenanalyse als strategischer Hebel

    Der Einsatz von KI-Modellen für Vulnerability Research ist nicht neu, doch der Ansatz, ein dediziertes Frontier-Modell in einem kontrollierten Partnerkreis zu betreiben, stellt eine strategische Weiterentwicklung dar. Bislang wurden Large Language Models zwar für einzelne Sicherheitsaufgaben genutzt – etwa Code-Analyse oder Penetrationstest-Unterstützung –, eine strukturierte Integration auf Unternehmens- und Plattformebene in diesem Umfang ist jedoch ungewöhnlich.

    Dass Anthropic ausgerechnet Apple und Microsoft in denselben Kreis aufnimmt, verdeutlicht den plattformübergreifenden Anspruch des Projekts. Beide Unternehmen stehen mit Windows und macOS im Zentrum globaler IT-Infrastrukturen.

    Einordnung für deutsche Unternehmen

    Für IT-Sicherheitsverantwortliche in Deutschland ist Project Glasswing zunächst ein Signal: Die systematische Nutzung spezialisierter KI-Modelle zur Schwachstellenerkennung wird bei großen Plattformanbietern zur strategischen Priorität. Unternehmen, die auf Windows, macOS oder gängige Browser setzen – also praktisch alle –, profitieren indirekt davon, sofern die beteiligten Hersteller identifizierte Lücken zügig schließen.

    Mittelfristig dürfte der Druck steigen, ähnliche Ansätze auch auf Unternehmensebene zu etablieren. Der deutschen Wirtschaft fehlt bislang ein vergleichbares Konsortium; BSI und europäische Initiativen wie ENISA sollten die Entwicklungen rund um KI-gestützte Schwachstellenanalyse eng verfolgen, um regulatorische und operative Konsequenzen rechtzeitig abzuleiten.


    Quelle: The Verge AI