Blog

  • KI-Tool erkennt Anzeichen von Herzinsuffizienz bis zu fünf Jahre vor der Diagnose

    KI-Tool erkennt Anzeichen von Herzinsuffizienz bis zu fünf Jahre vor der Diagnose

    Ein KI-System der Universität Oxford analysiert Echokardiographie-Daten und erkennt Herzinsuffizienz bis zu fünf Jahre früher als bisher möglich – ganz ohne zusätzliche Untersuchungen. Das könnte die Kardiologie nachhaltig verändern.

    KI-Tool erkennt Herzinsuffizienz bis zu fünf Jahre vor dem Ausbruch

    Wissenschaftler der Universität Oxford haben ein KI-basiertes Diagnosewerkzeug entwickelt, das Herzinsuffizienz bis zu fünf Jahre vor dem klinischen Auftreten der Erkrankung identifizieren kann. Das System analysiert Routinedaten aus bestehenden medizinischen Untersuchungen und könnte die Frühprävention in der Kardiologie grundlegend verändern.


    Wie das System funktioniert

    Das Werkzeug wertet Bilddaten aus Echokardiographien aus – Ultraschalluntersuchungen des Herzens, die in der regulären medizinischen Versorgung bereits standardmäßig eingesetzt werden. Mittels eines trainierten Algorithmus erkennt das Modell subtile strukturelle Veränderungen im Herzgewebe, die für das menschliche Auge nicht sichtbar sind und die erst Jahre später zu einer manifesten Herzinsuffizienz führen.

    Der entscheidende Vorteil: Es sind keine zusätzlichen Untersuchungen notwendig – die KI steigert den Informationsgehalt bereits vorhandener Patientendaten.


    Klinische Relevanz und Studienlage

    Herzinsuffizienz zählt weltweit zu den häufigsten Todesursachen. In Deutschland sind nach Angaben der Deutschen Herzstiftung rund vier Millionen Menschen betroffen, jährlich sterben etwa 44.000 Patienten an den Folgen. Das zentrale Problem bisheriger Diagnoseansätze: Die Erkrankung wird häufig erst in einem fortgeschrittenen Stadium erkannt, in dem therapeutische Möglichkeiten bereits begrenzt sind.

    Das Oxforder Team hat das Modell an mehreren tausend Patientendatensätzen validiert. Laut den Forschern konnte das System Hochrisikogruppen mit signifikant höherer Treffsicherheit identifizieren als konventionelle klinische Bewertungsverfahren.

    Ein früherer Eingriff – etwa durch medikamentöse Therapie oder Lebensstilanpassungen – könnte den Krankheitsverlauf bei einem erheblichen Teil der Betroffenen verlangsamen oder aufhalten.


    Einordnung im Kontext KI-gestützter Medizin

    Das Oxforder Projekt reiht sich in eine wachsende Zahl klinischer KI-Anwendungen ein, die auf die Auswertung medizinischer Bilddaten spezialisiert sind. In diesem Segment dominieren Computer-Vision-Modelle und spezialisierte neuronale Netze – Large Language Models spielen hier eine untergeordnete Rolle. Ähnliche Ansätze werden bereits bei der Früherkennung von Augenkrankheiten, bestimmten Krebsarten und neurologischen Erkrankungen erprobt.

    Die Frage der regulatorischen Zulassung bleibt jedoch offen: In der Europäischen Union müssen KI-Systeme in der Medizin als Medizinprodukte der Klasse IIa oder höher zertifiziert werden – ein Prozess, der aufwendige klinische Studien und eine Konformitätsbewertung erfordert. Das Oxforder Tool hat diesen Prozess noch nicht abgeschlossen.


    Relevanz für deutsche Unternehmen und das Gesundheitssystem

    Für Unternehmen im deutschsprachigen Gesundheitssektor – darunter Klinikketten, Medizintechnikhersteller und Krankenversicherer – unterstreicht die Oxforder Entwicklung den wachsenden Druck, KI-gestützte Diagnostik in bestehende Versorgungsprozesse zu integrieren. Besonders zukunftsweisend ist das Prinzip der passiven Datennutzung: Anstatt neue diagnostische Infrastruktur aufzubauen, maximiert das System den Wert bereits erhobener Untersuchungsdaten – ein Modell, das sich konzeptionell auf zahlreiche weitere chronische Erkrankungen übertragen lässt.

    Die entscheidende Hürde für den klinischen Einsatz in Deutschland bleibt die CE-Zertifizierung nach EU-MDR – ohne sie ist ein Einsatz im klinischen Alltag nicht möglich.


    Quelle: The Guardian – Oxford scientists develop AI tool to spot heart failure

  • Russisches Militär kompromittiert tausende Router weltweit – Zugangsdaten im Visier

    Russisches Militär kompromittiert tausende Router weltweit – Zugangsdaten im Visier

    Eine mit dem russischen Militärgeheimdienst GRU in Verbindung gebrachte Hackergruppe hat Router in Privathaushalten und kleinen Büros in mindestens 120 Ländern kompromittiert – mit dem Ziel, Zugangsdaten abzugreifen und als unsichtbare Sprungbasis in Unternehmensnetzwerke einzudringen.

    Russisches Militär kompromittiert tausende Router weltweit – Zugangsdaten im Visier

    Angriffsmethode und Ausmaß

    Nach Informationen von Ars Technica nutzen die Angreifer bekannte Schwachstellen in Consumer-Routern, um DNS-Einstellungen zu manipulieren und Netzwerkverkehr umzuleiten. Durch diese sogenannte DNS-Hijacking-Technik lassen sich Login-Daten für Online-Dienste, VPNs und Unternehmensportale abfangen, ohne dass Nutzer davon Kenntnis erlangen.

    Die Kampagne richtet sich nicht ausschließlich gegen Regierungsstellen oder kritische Infrastruktur – die breite geografische Streuung über 120 Länder deutet auf eine opportunistische Vorgehensweise hin, bei der möglichst viele Zugangspunkte gesichert werden sollen.

    Verbindung zu staatlichen Akteuren

    Sicherheitsforscher ordnen die Aktivitäten einer Gruppe zu, die dem russischen Militärgeheimdienst GRU zugerechnet wird. Derartige Akteure setzen häufig auf kompromittierte Heimnetzwerke als Zwischenstufe – sogenannte Proxy-Infrastrukturen –, um die eigentliche Herkunft von Angriffen zu verschleiern.

    Indem legitime Consumer-Geräte als Relay-Punkte genutzt werden, erschwert sich die Attribution erheblich, und Blocking-Maßnahmen auf Basis von IP-Adressen verlieren an Wirksamkeit.

    End-of-Life-Hardware als strukturelles Risiko

    Ein zentrales Problem ist die weitverbreitete Nutzung veralteter Netzwerkhardware. Viele der betroffenen Router befinden sich offiziell am Ende ihres Support-Lebenszyklus – sie erhalten keine Patches mehr von den Herstellern.

    Für Unternehmen mit Remote-Work-Strukturen entsteht durch private Heimrouter ein kaum kontrollierbarer Angriffspfad direkt in sensible Unternehmensressourcen.

    In Privathaushalten und kleinen Büros werden solche Geräte häufig über Jahre hinaus betrieben, ohne dass ein Austausch stattfindet – ein strukturelles Risiko, das durch die zunehmende Verbreitung hybrider Arbeitsmodelle weiter wächst.

    Zugangsdaten als eigentliches Ziel

    Im Mittelpunkt dieser Kampagne stehen gestohlene Credentials. Gelangen Angreifer in den Besitz von VPN-Zugängen, Single-Sign-On-Tokens oder Passwörtern für Kollaborationsplattformen, können sie sich in einem zweiten Schritt lateral durch Unternehmensnetzwerke bewegen – auch wenn die initiale Kompromittierung über einen privaten Heimrouter erfolgte.

    Die Angriffskette beginnt also außerhalb des Unternehmensnetzwerks, endet aber potenziell innerhalb sensibler Systeme.

    Einordnung und Handlungsempfehlungen für deutsche Unternehmen

    Für Unternehmen in Deutschland, die hybride Arbeitsmodelle betreiben, unterstreicht dieser Vorfall eine oft unterschätzte Schwachstelle: die Netzwerksicherheit am Endpunkt der Mitarbeiter. IT-Abteilungen haben in der Regel keine direkte Kontrolle über Heimrouter.

    Sinnvolle Gegenmaßnahmen umfassen:

    • Unternehmens-VPNs mit Multi-Faktor-Authentifizierung verpflichtend einsetzen
    • Hardware-Anforderungen in Remote-Work-Richtlinien verankern und regelmäßig prüfen
    • Sensibilisierungsmaßnahmen einführen, die Mitarbeiter zum Austausch veralteter Netzwerkhardware anhalten
    • Anomalie-Erkennung für ungewöhnliche Login-Muster bei VPN- und Cloud-Zugängen priorisieren

    Angesichts der Aktivitäten staatlicher Angreifer sollten Sicherheitsverantwortliche die Erkennung kompromittierter Zugangsdaten als strategische Priorität behandeln – nicht als nachgelagerte Maßnahme.


    Quelle: Ars Technica – Russia’s military hacks thousands of consumer routers to steal credentials

  • ALTO-Evolve: IBM Research entwickelt KI-Agenten, die im laufenden Betrieb dazulernen

    ALTO-Evolve: IBM Research entwickelt KI-Agenten, die im laufenden Betrieb dazulernen

    IBM Research setzt einen neuen Maßstab für adaptive KI-Systeme: Mit ALTK-Evolve lernen Agenten nicht vor dem Einsatz – sondern mittendrin. Das könnte die Art, wie Unternehmen KI-Agenten deployieren und warten, grundlegend verändern.

    ALTK-Evolve: IBM Research entwickelt KI-Agenten, die im laufenden Betrieb dazulernen

    IBM Research hat mit ALTK-Evolve einen Ansatz vorgestellt, bei dem KI-Agenten ihre Fähigkeiten nicht vorab durch aufwändiges Training erwerben, sondern während des produktiven Einsatzes kontinuierlich weiterentwickeln. Das Konzept adressiert eine der zentralen Schwachstellen heutiger Agentensysteme: die fehlende Anpassungsfähigkeit an neue oder unbekannte Aufgaben ohne menschliche Intervention.


    Das Grundprinzip: Lernen aus dem laufenden Einsatz

    Klassische KI-Agenten werden mit einem festen Werkzeugkasten und definierten Fähigkeiten ausgeliefert. Stoßen sie auf Aufgaben außerhalb dieses Rahmens, scheitern sie – oder benötigen kostspielige Nachtraining-Zyklen. ALTK-Evolve verfolgt einen anderen Weg:

    Der Agent analysiert selbstständig, welche Fähigkeiten ihm für eine gegebene Aufgabe fehlen, entwickelt neue Tools oder Workflows – und speichert diese für künftige Einsätze ab.

    Der Mechanismus basiert auf einem iterativen Prozess: Der Agent versucht eine Aufgabe, bewertet das Ergebnis, identifiziert Lücken in seinem Repertoire und generiert neuen Code oder neue Prozessketten, um diese Lücken zu schließen. Erfolgreiche Erweiterungen werden in einer Tool-Bibliothek persistiert und stehen fortan auch für andere Aufgaben zur Verfügung.


    Automatisierte Tool-Generierung als Kernmechanismus

    Technisch stützt sich ALTK-Evolve auf die Fähigkeit moderner Large Language Models, funktionsfähigen Code zu erzeugen. Der Agent nutzt diese Kapazität nicht nur zur Aufgabenlösung, sondern explizit zur Selbsterweiterung: Neu generierte Tools werden automatisch getestet, validiert und bei positiver Bewertung in den Agenten integriert.

    Dieser Prozess läuft ohne menschliche Eingriffe ab – ein wesentlicher Unterschied zu herkömmlichen Deployment-Modellen, bei denen neue Fähigkeiten durch Entwickler implementiert und im nächsten Release-Zyklus ausgerollt werden müssen.

    IBM Research bezeichnet das als „On-the-Job Learning” – in Anlehnung an das praktische Erfahrungslernen menschlicher Mitarbeiter im Arbeitsalltag.


    Leistungsverbesserung über Zeit

    Laut den Forschern zeigen frühe Evaluierungen, dass Agenten auf Basis von ALTK-Evolve ihre Erfolgsraten bei komplexen, mehrstufigen Aufgaben über successive Einsatzzyklen messbar verbessern. Je mehr unterschiedliche Aufgaben ein Agent bearbeitet, desto breiter wird seine Tool-Bibliothek – und desto seltener muss er auf Problemlösungen von Grund auf zurückgreifen.

    Die Architektur legt besonderen Wert auf Sicherheitsmechanismen: Automatisch generierter Code durchläuft Sandbox-Tests, bevor er in die Agenten-Umgebung integriert wird. Unkontrolliertes Selbstmodifizieren – ein klassisches Bedenken bei adaptiven Systemen – soll dadurch eingegrenzt werden.


    Einordnung für deutsche Unternehmen

    Für Unternehmen, die KI-Agenten in operativen Prozessen einsetzen oder planen, ist der ALTK-Evolve-Ansatz aus mehreren Gründen relevant:

    • Weniger Entwicklungsaufwand: Ein Agent, der eigenständig neue Fähigkeiten erwirbt, bindet weniger IT-Ressourcen für Wartung und Erweiterung.
    • Praxisnähe: Das Modell adressiert direkt Betriebe, in denen Aufgabenspektren nicht vollständig vorab definierbar sind.
    • Governance-Pflicht: In regulierten Branchen – Finanzdienstleistungen, Gesundheitswesen, Industrie – stellen sich dringende Kontrollfragen: Welche Mechanismen greifen, wenn ein Agent eigenständig neue Werkzeuge entwickelt und einsetzt?

    IBM Research hat hier erste Antworten geliefert – eine praxistaugliche Absicherung für den Enterprise-Einsatz erfordert jedoch weitere Arbeit.

    Unternehmen sollten das Thema aktiv beobachten und erste Pilotprojekte mit klaren Audit- und Rollback-Mechanismen ausstatten.


    Quelle: IBM Research / HuggingFace Blog

  • Atlassian erweitert Confluence um KI-Agenten und visuelle Werkzeuge

    Atlassian erweitert Confluence um KI-Agenten und visuelle Werkzeuge

    Atlassian baut Confluence zur KI-gesteuerten Steuerzentrale aus: Mit neuen visuellen Werkzeugen und der Integration von Drittanbieter-Agenten wie Lovable, Replit und Gamma soll die beliebte Kollaborationsplattform weit über klassische Dokumentation hinauswachsen.

    Atlassian erweitert Confluence um KI-Agenten und visuelle Werkzeuge

    Atlassian stattet seine Kollaborationsplattform Confluence mit neuen KI-gestützten Funktionen aus. Neben der Möglichkeit, visuelle Inhalte direkt in der Anwendung zu erstellen, integriert das Unternehmen KI-Agenten von Drittanbietern – darunter Lovable, Replit und Gamma.


    Visuelle Inhalte direkt in Confluence erstellen

    Bislang war Confluence primär ein textbasiertes Werkzeug für Dokumentation und Wissensmanagement. Mit den neuen visuellen Funktionen können Nutzer nun grafische Assets – etwa Diagramme, Präsentationsfolien oder strukturierte Übersichten – direkt innerhalb der Plattform generieren, ohne auf externe Anwendungen zurückgreifen zu müssen. Das reduziert Medienbrüche im Arbeitsalltag und hält Inhalte zentral in einer Umgebung zusammen.

    Die Integration von Gamma, einem KI-gestützten Präsentationswerkzeug, ist dabei besonders relevant für Teams, die regelmäßig Ergebnisse oder Projektfortschritte aufbereiten müssen. Statt Inhalte aus Confluence in ein separates Tool zu exportieren, lassen sich Präsentationen künftig direkt aus dem vorhandenen Dokumentenmaterial ableiten.


    Drittanbieter-Agenten erweitern die Automatisierung

    Atlassian bindet mit Lovable und Replit zwei Plattformen ein, die im Bereich des KI-gestützten Software-Developments aktiv sind. Lovable ermöglicht das Erstellen von Webanwendungen per natürlichsprachlicher Eingabe, Replit ist eine cloudbasierte Entwicklungsumgebung.

    Die Integration beider Dienste als KI-Agenten in Confluence deutet darauf hin, dass Atlassian Confluence stärker als Steuerzentrale für automatisierte Workflows positionieren will – weit über reine Dokumentation hinaus.

    Dieser Ansatz fügt sich in eine breitere Entwicklung ein: Software-Unternehmen wie Microsoft, Notion oder Atlassian selbst versuchen, ihre Plattformen von passiven Informationsspeichern zu aktiven, handlungsfähigen Systemen auszubauen. KI-Agenten übernehmen dabei definierte Aufgaben innerhalb eines bestehenden Arbeitsablaufs, ohne dass Nutzer die Plattform wechseln müssen.


    Einbettung in das Atlassian-Ökosystem

    Die Neuerungen in Confluence ergänzen laufende KI-Investitionen im gesamten Atlassian-Portfolio. Jira, das Projektmanagement-Werkzeug des Unternehmens, hat in den vergangenen Monaten ebenfalls KI-Funktionen erhalten.

    Atlassian verfolgt erkennbar die Strategie, die eigene Produktpalette durch tiefe KI-Integration zusammenzuhalten – und den Wechsel zu konkurrierenden Lösungen unattraktiver zu machen.


    Einordnung für deutsche Unternehmen

    Confluence gehört in vielen deutschen Unternehmen und Behörden zur Standardausstattung für interne Dokumentation und Wissensverwaltung. Die neuen Funktionen sind grundsätzlich ohne zusätzliche Einrichtung nutzbar, sofern die jeweilige Lizenz entsprechende KI-Features einschließt – hier lohnt ein Blick auf die aktuellen Vertragsbedingungen.

    Unternehmen, die Confluence bereits intensiv nutzen, sollten prüfen, welche der neuen Agenten-Integrationen sinnvoll in bestehende Prozesse eingebettet werden können. Datenschutzrelevante Aspekte – insbesondere beim Einsatz von Drittanbieter-Agenten wie Lovable oder Replit – sollten vor einem produktiven Einsatz mit der eigenen Rechts- und IT-Sicherheitsabteilung abgestimmt werden.


    Quelle: TechCrunch AI

  • Palantir-Mitarbeiter erhalten NHS-E-Mail-Konten – Datenschützer äußern Bedenken

    Palantir-Mitarbeiter erhalten NHS-E-Mail-Konten – Datenschützer äußern Bedenken

    Mitarbeiter des US-Datenkonzerns Palantir sollen offizielle NHS-E-Mail-Adressen erhalten haben – und damit potenziell Zugang zu sensiblen Gesundheitssystemen. Der Vorgang alarmiert Datenschützer und wirft grundlegende Fragen zur Governance öffentlich-privater Partnerschaften auf.

    Palantir-Mitarbeiter erhalten NHS-E-Mail-Konten – Datenschützer schlagen Alarm

    Zugang mit Vertrauenspotenzial

    NHS-E-Mail-Konten gelten im britischen Gesundheitswesen als Vertrauensanker: Sie ermöglichen den Zugang zu internen Kommunikationssystemen, klinischen Netzwerken und sensiblen Infrastrukturen. Wer eine solche Adresse besitzt, wird von anderen NHS-Mitarbeitern und Systemen typischerweise als interner Akteur wahrgenommen.

    Die Vergabe solcher Konten an externe Unternehmensvertreter – insbesondere eines Unternehmens mit weitreichenden kommerziellen Interessen im Gesundheitssektor – widerspricht nach Ansicht von Kritikern dem Grundsatz der klaren Trennung zwischen öffentlichen Strukturen und privatwirtschaftlichen Dienstleistern.

    Palantir hatte 2023 einen milliardenschweren Vertrag mit NHS England zur Entwicklung einer zentralen Datenplattform gewonnen – der sogenannten Federated Data Platform (FDP). Seitdem ist das Unternehmen tief in operative Abläufe des Gesundheitssystems eingebunden, was die Debatte über Transparenz und Kontrolle zusätzlich befeuert.

    Interne Kritik und Governance-Fragen

    Laut Berichten des Guardian äußern Beschäftigte und Insider des NHS erhebliches Unbehagen über die Entwicklung. Die Vergabe von NHS-E-Mail-Konten an Palantir-Personal wirft grundlegende Fragen zur Governance auf:

    Welche Zugangsrechte sind mit NHS-E-Mail-Konten für externe Auftragnehmer verbunden – und wer überwacht deren Nutzung?

    Das britische Datenschutzrecht – insbesondere im Kontext des UK GDPR und des Data Protection Act 2018 – setzt klare Anforderungen an die Verarbeitung sensibler Gesundheitsdaten. Eine Verwischung der Rollen zwischen internen NHS-Akteuren und externen Auftragsnehmern könnte diese Anforderungen unterlaufen, ohne dass dies formal als Datenschutzverletzung eingestuft werden müsste.

    Strukturelles Problem öffentlich-privater Partnerschaften

    Der Fall steht exemplarisch für ein breiteres Spannungsfeld: Wenn öffentliche Einrichtungen komplexe IT-Infrastruktur an spezialisierte Technologieunternehmen auslagern, entsteht eine operative Abhängigkeit, die sich schwer mit dem Transparenzgebot verträgt.

    Externe Dienstleister benötigen tiefe Systemkenntnisse und Zugänge – doch die Grenze zwischen notwendiger Integration und problematischer Vermischung ist fließend.

    Palantir ist für seine engen Verbindungen zu Geheimdiensten und Regierungsbehörden bekannt, was die öffentliche Sensibilität gegenüber dem Unternehmen im Gesundheitsbereich zusätzlich erhöht. Kritiker fordern eine unabhängige Überprüfung der vergebenen Zugriffsrechte sowie verbindliche Leitlinien für die Einbindung privater Technologiedienstleister in NHS-Systeme.

    Einordnung für deutsche Unternehmen und Entscheider

    Der Fall liefert einen konkreten Anlass zur Selbstreflexion für deutsche Organisationen, die externe Technologiedienstleister in sensible Infrastrukturen einbinden. Auch hierzulande ist die Praxis verbreitet, Auftragnehmern temporäre interne Zugänge, Konten oder Identitäten zu vergeben – nicht selten ohne ausreichende Dokumentation oder Zugangskontrolle.

    DSGVO und Bundesdatenschutzgesetz verlangen klare Auftragsverarbeitungsverträge und eine nachvollziehbare Trennung von Verantwortlichkeiten. Unternehmen und öffentliche Einrichtungen sollten bestehende Praktiken zur Vergabe interner Zugänge an Dritte systematisch überprüfen – bevor ein ähnlicher Fall öffentlich wird.


    Quelle: The Guardian – Alarm as NHS gives Palantir staff health service email accounts

  • Klage gegen OpenAI nach Schusswaffenangriff wirft Fragen zur Haftung von KI-Anbietern auf

    Klage gegen OpenAI nach Schusswaffenangriff wirft Fragen zur Haftung von KI-Anbietern auf

    Ein Schusswaffenangriff an der Florida State University bringt OpenAI vor Gericht – und könnte die gesamte KI-Industrie vor eine neue rechtliche Zeitenwende stellen. Die Klage der Familie Morales ist mehr als ein Einzelfall: Sie testet, ob KI-Unternehmen für die realen Folgen ihrer Systeme zivilrechtlich zur Rechenschaft gezogen werden können.

    Klage gegen OpenAI nach Schusswaffenangriff: Droht KI-Anbietern eine neue Haftungswelle?

    Die Familie eines bei einem Schusswaffenangriff an der Florida State University getöteten Mannes will ChatGPT-Betreiber OpenAI verklagen. Der Fall könnte Grundsatzfragen zur zivilrechtlichen Verantwortung von KI-Unternehmen aufwerfen – mit weitreichenden Konsequenzen für die gesamte Branche.


    Hintergrund: Schusswaffenangriff an der Florida State University

    Bei einem Angriff auf dem Campus der Florida State University kam Robert Morales ums Leben. Seine Familie wirft OpenAI vor, dass ChatGPT eine Mitverantwortung an dem Vorfall trägt. Details zur behaupteten Verbindung zwischen der KI-Nutzung und der Tat – etwa ob der Täter das System zur Vorbereitung genutzt haben soll – gehen aus der Klage hervor, die nun in Florida eingereicht wird.

    Die Anwälte der Familie argumentieren, OpenAI hätte durch unzureichende Sicherheitsmechanismen eine gefährliche Nutzung des Systems ermöglicht oder begünstigt.


    Rechtliche Einordnung: Section 230 und die KI-Haftungsfrage

    Zentral für den weiteren Verlauf des Verfahrens ist die Frage, ob OpenAI unter den Schutz von Section 230 des Communications Decency Act fällt – jener US-Regelung, die Plattformbetreiber traditionell vor Haftung für nutzergenerierte Inhalte schützt.

    Kritiker argumentieren, dass Large Language Models keine passiven Plattformen sind, sondern aktiv Inhalte generieren – und damit eine andere Haftungslogik gelten müsse.

    Vergleichbare Klagen gab es bereits in anderen Kontexten: So wurden KI-Unternehmen für angebliche psychologische Schäden durch Chatbot-Interaktionen verklagt. Der Florida-Fall ist jedoch insofern neu, als er eine direkte Verbindung zwischen KI-Ausgaben und physischer Gewalt herzustellen versucht.


    Präzedenzwirkung für die KI-Industrie

    Sollte die Klage zugelassen werden und vor Gericht Bestand haben, wäre dies ein Einschnitt für die KI-Branche. Erstmals würde ein US-Gericht prüfen, ob ein KI-Anbieter für die realen Folgen einer mutmaßlich schädlichen Nutzung seines Produkts haftbar gemacht werden kann – vergleichbar mit Produkthaftungsklagen gegen Waffenhersteller oder Pharmaunternehmen.

    OpenAI dürfte argumentieren, dass das Unternehmen nicht vorhersehen konnte, wie einzelne Nutzer das System einsetzen. Parallel dazu steht die Frage im Raum, welche Sorgfaltspflichten KI-Entwickler bei der Implementierung von Sicherheitsfiltern und Nutzungsrichtlinien haben.

    Die Anwälte der Kläger werden voraussichtlich versuchen zu zeigen, dass bekannte Schwachstellen im System nicht ausreichend adressiert wurden.


    Bedeutung für europäische und deutsche Unternehmen

    Für deutsche Unternehmen, die KI-Lösungen entwickeln oder einsetzen, hat der Fall unmittelbare Relevanz – auch wenn das Verfahren in den USA geführt wird. Der EU AI Act, der seit 2024 schrittweise in Kraft tritt, legt bereits erheblich strengere Anforderungen an Transparenz, Risikobewertung und menschliche Aufsicht fest als das bisherige US-Recht. Hochrisiko-Anwendungen unterliegen verbindlichen Konformitätsprüfungen.

    Das Florida-Verfahren könnte dennoch als Signal wirken: Gerichte weltweit dürften in den kommenden Jahren zunehmend bereit sein, KI-Unternehmen als aktive Akteure und nicht nur als neutrale Infrastrukturbetreiber zu behandeln.

    Die Haftungsfrage bei KI ist kein abstraktes Zukunftsthema mehr.

    Für deutsche Unternehmen bedeutet das: Compliance-Dokumentation, interne Risikobewertungen und nachvollziehbare Safety-Maßnahmen sind nicht nur regulatorische Pflichtübungen, sondern haben im Zweifel auch zivilrechtliche Schutzfunktion.


    Quelle: The Guardian – Florida State University shooting: family of victim to sue ChatGPT maker OpenAI

  • Mustafa Suleyman: KI-Entwicklung steht nicht vor einem Plateau

    Mustafa Suleyman: KI-Entwicklung steht nicht vor einem Plateau

    Microsofts KI-Chef Mustafa Suleyman widerspricht der These eines bevorstehenden KI-Plateaus – und skizziert, warum die nächsten Jahre qualitative Sprünge bringen werden, die Unternehmen strategisch bereits heute einkalkulieren müssen.

    Mustafa Suleyman: KI-Entwicklung steht nicht vor einem Plateau

    In einem Gespräch mit der MIT Technology Review legte der Mitgründer von DeepMind dar, warum er anhaltenden Fortschritt für wahrscheinlich hält – und welche Stellschrauben dabei entscheidend sind.


    Skepsis gegenüber der Stagnations-These

    In der KI-Branche mehren sich seit einigen Monaten Stimmen, die auf nachlassende Skalierungseffekte hinweisen. Die Argumentation lautet vereinfacht: Die einfach erreichbaren Trainingsdaten seien weitgehend ausgeschöpft, und reine Rechenleistung allein erzeuge keine qualitativ neuen Fähigkeiten mehr.

    „Die bisherigen Fortschritte beruhen auf einem vergleichsweise schmalen Methodenspektrum – die Entwicklung steht erst am Beginn eines breiteren Werkzeugkastens.”
    — Mustafa Suleyman

    Suleyman hält dieser Einschätzung entgegen, dass die bisherigen Fortschritte auf einem vergleichsweise schmalen Methodenspektrum beruhten.


    Mehrere Entwicklungsachsen gleichzeitig

    Suleyman beschreibt mehrere parallele Hebel, über die KI-Systeme künftig leistungsfähiger werden sollen:

    • Pre-Training auf großen Textmengen bleibt relevant, verliert aber seine Monopolstellung
    • Reinforcement Learning from Human Feedback (RLHF) gewinnt zunehmend an Gewicht
    • Synthetische Trainingsdaten schließen Lücken, die reale Datensätze hinterlassen
    • Test-Time Compute gibt Modellen zur Laufzeit mehr Rechenzeit für komplexe Schlussfolgerungen – ein Prinzip, das OpenAIs o-Modellreihe und Googles Gemini-Varianten bereits praktisch umsetzen

    Hinzu kommt die Integration externer Werkzeuge und Agentensysteme: KI-Modelle, die eigenständig Code ausführen, Webrecherchen durchführen oder auf strukturierte Datenbanken zugreifen, erweitern ihren effektiven Aktionsraum erheblich – ohne dass dafür das Grundmodell verändert werden muss.


    Skalierung bleibt relevant – aber anders

    Suleyman räumt ein, dass das klassische Paradigma – mehr Parameter, mehr Daten, mehr Compute führen linear zu besseren Ergebnissen – an Grenzen stoße. Er argumentiert jedoch, dass Skalierung auf neuen Ebenen stattfinde:

    • bei der Qualität und Diversität der Trainingsdaten
    • bei der Architektur der Inferenzprozesse
    • beim systematischen Einsatz von Feedback-Schleifen aus realer Nutzung

    Microsoft investiert entsprechend nicht nur in Modellgröße, sondern in die gesamte Infrastruktur rund um Deployment und kontinuierliches Feintuning.


    Längerfristiger Zeithorizont

    Besonders aufschlussreich ist Suleimanns Einschätzung zum Zeithorizont: Er geht davon aus, dass die nächsten zwei bis drei Jahre erhebliche qualitative Sprünge bringen werden – insbesondere in den Bereichen:

    • Multimodales Verstehen
    • Längerfristiges Gedächtnis
    • Fähigkeit von Modellen, mehrstufige Aufgaben autonom zu bearbeiten

    Künstliche allgemeine Intelligenz bezeichnet er dabei nicht als unmittelbares Ziel, sondern als konzeptionellen Orientierungspunkt einer noch längeren Entwicklung.


    Was das für deutsche Unternehmen bedeutet

    Für deutsche Unternehmen bedeutet diese Einschätzung vor allem eines: Der Zeitpunkt, KI-Implementierungen als abgeschlossen zu betrachten, kommt in absehbarer Zeit nicht.

    Wer heute Prozesse auf bestimmte Modellgenerationen aufsetzt, sollte Architekturentscheidungen so treffen, dass ein Wechsel auf leistungsfähigere Systeme ohne grundlegende Neuintegration möglich bleibt.

    Die eigentliche strategische Aufgabe liegt weniger in der Auswahl eines bestimmten Modells als im Aufbau einer anpassungsfähigen KI-Infrastruktur.


    Quelle: MIT Tech Review

  • Anthropic startet Cybersicherheits-Modell „Mythos” mit eingeschränktem Testzugang

    Anthropic startet Cybersicherheits-Modell „Mythos” mit eingeschränktem Testzugang

    Anthropic wagt einen ungewöhnlichen Schritt: Mit Claude Mythos startet das KI-Unternehmen ein spezialisiertes Sicherheitsmodell – und hält es bewusst aus der Öffentlichkeit heraus. Was steckt hinter dieser Strategie, und was bedeutet das für IT-Verantwortliche in Deutschland?

    Anthropic startet Cybersicherheits-Modell „Mythos” mit eingeschränktem Testzugang

    Anthropic hat ein spezialisiertes KI-Modell für den Bereich Cybersicherheit entwickelt. Das unter dem Namen „Claude Mythos” geführte System befindet sich derzeit in einer Preview-Phase und steht nur einem ausgewählten Kreis von Kunden zur Verfügung.


    Kontrollierter Rollout statt breiter Verfügbarkeit

    Anders als bei regulären Modell-Launches entschied sich Anthropic dafür, den Zugang zu Claude Mythos bewusst zu begrenzen. Eine kleine Gruppe von Unternehmen testet derzeit die „Claude Mythos Preview” – eine Vorschauversion, die noch nicht allgemein verfügbar ist. Diese Strategie spiegelt die besondere Sensibilität des Anwendungsbereichs wider: Ein leistungsfähiges KI-Modell, das für Cybersicherheitsaufgaben optimiert ist, birgt im Missbrauchsfall erhebliche Risiken.

    Anthropic hat sich seit seiner Gründung als Unternehmen positioniert, das KI-Sicherheit als Kernprinzip versteht – und beim Rollout von Mythos zeigt sich dieser Ansatz besonders deutlich.

    Bevor das Modell breiter zugänglich gemacht wird, sollen kontrollierte Tests sicherstellen, dass es nicht für Angriffszwecke missbraucht werden kann.


    Anwendungsfälle im Sicherheitsbereich

    Spezialisierte KI-Modelle für Cybersicherheit richten sich in erster Linie an:

    • Security-Teams in Unternehmen und Behörden
    • Anbieter von Sicherheitsdienstleistungen (MSSPs)
    • Penetrationstester und Red-Team-Spezialisten

    Typische Einsatzfelder umfassen die Analyse von Schwachstellen, das Erkennen von Angriffsmustern, die Auswertung von Sicherheitslogs sowie die Unterstützung bei Penetrationstests.

    Der Markt für KI-gestützte Cybersicherheit wächst deutlich. Neben Anthropic arbeiten auch Microsoft, Google und eine Reihe spezialisierter Startups an Modellen, die Sicherheitsanalysten entlasten und Reaktionszeiten bei Incidents verkürzen sollen. Mythos tritt damit in ein Segment ein, das bereits von etablierten Akteuren besetzt wird.


    Das Dual-Use-Problem bei Sicherheits-KI

    Die Einschränkung des Zugangs verweist auf eine strukturelle Herausforderung: Modelle, die Sicherheitslücken erkennen und Angriffsvektoren analysieren können, sind prinzipiell auch für Angreifer nutzbar.

    „Das Dual-Use-Problem ist in der Cybersicherheitsbranche nicht neu – bei KI-Systemen verschärft es sich jedoch, weil die Einstiegshürde für potenziell schädliche Nutzung deutlich sinkt.”

    Dieses Dilemma betrifft klassische Werkzeuge wie Netzwerkscanner oder Exploit-Frameworks ebenso. Anthropic reagiert darauf mit einem gestaffelten Zugangssystem. Ob und wann Mythos für einen breiteren Nutzerkreis geöffnet wird, hat das Unternehmen bislang nicht kommuniziert.


    Einordnung für deutsche Unternehmen

    Für IT-Sicherheitsverantwortliche in Deutschland ist der Marktauftritt von Claude Mythos zunächst ein klares Signal: Spezialisierte KI-Modelle für Cybersicherheit werden mittelfristig verfügbar sein und die Arbeitsweise von Security-Teams grundlegend verändern.

    Gleichzeitig gelten hierzulande strenge regulatorische Anforderungen – etwa durch NIS2 oder branchenspezifische Vorgaben der Bundesnetzagentur und des BSI. Wer KI-Systeme für sicherheitskritische Analysen einsetzt, muss deren Verlässlichkeit, Nachvollziehbarkeit und Datenschutzkonformität sorgfältig prüfen.

    Der eingeschränkte Rollout von Anthropic dürfte regulatorisch vorsichtigen Unternehmen in Europa zunächst entgegenkommen – und könnte als Blaupause für verantwortungsvolle KI-Einführung im Sicherheitsbereich dienen.


    Quelle: Ars Technica AI

  • Local-First-Software: Warum Unternehmen die Kontrolle über ihre eigenen Daten zurückgewinnen wollen

    Local-First-Software: Warum Unternehmen die Kontrolle über ihre eigenen Daten zurückgewinnen wollen

    Cloud-Abhängigkeiten, Preisexplosionen, abgekündigte Dienste: Immer mehr Unternehmen suchen nach Architekturen, die ihnen die Kontrolle über ihre eigenen Daten zurückgeben. Local-First-Software könnte die Antwort sein – ein Paradigmenwechsel mit weitreichenden strategischen Konsequenzen.

    Local-First-Software: Warum Unternehmen die Kontrolle über ihre eigenen Daten zurückgewinnen wollen

    Der Trend zu cloudbasierten Softwarelösungen hat Unternehmen in eine weitreichende Abhängigkeit von externen Anbietern geführt. Angesichts zunehmender Übernahmen, Preiserhöhungen und Service-Einstellungen gewinnt das Konzept der Local-First-Software an strategischer Bedeutung – als Ansatz, der Datensouveränität und Ausfallsicherheit in den Vordergrund stellt.


    Was Local-First bedeutet

    Local-First-Software speichert und verarbeitet Daten primär auf dem Gerät des Nutzers, anstatt auf zentralen Servern. Synchronisation mit anderen Geräten oder Nutzern erfolgt zwar über das Netz, ist aber keine Voraussetzung für die Grundfunktionalität. Die Anwendung arbeitet vollständig offline – Netzwerkverbindung verbessert die Erfahrung, ist aber kein Pflichtbestandteil.

    Das Konzept ist nicht neu, erlebt jedoch eine Wiederentdeckung. Hintergrund sind konkrete Schadensereignisse: Cloud-Dienste werden eingestellt, Anbieter werden übernommen und ändern ihre Preismodelle, oder regionale Internetausfälle legen ganze Geschäftsprozesse lahm. Die Abhängigkeit von externen Infrastrukturen hat für viele Organisationen messbare operative Risiken erzeugt.


    Technische Grundlage: CRDTs und dezentrale Synchronisation

    Ein wesentlicher technischer Baustein moderner Local-First-Architekturen sind Conflict-free Replicated Data Types (CRDTs). Diese Datenstrukturen ermöglichen es, Änderungen auf mehreren Geräten gleichzeitig vorzunehmen und diese später konsistent zusammenzuführen – ohne zentrale Koordinationsinstanz und ohne Konflikte, die manuell aufgelöst werden müssten.

    Praxisbeispiel: Ein Vertriebsmitarbeiter bearbeitet unterwegs ohne Internetzugang Angebote, während ein Kollege parallel im Büro an denselben Datensätzen arbeitet. Beim nächsten Netzwerkkontakt gleichen sich beide Versionen automatisch ab – ohne manuelles Eingreifen.

    Dieser Ansatz unterscheidet sich grundlegend vom klassischen Offline-Modus, der oft nur eingeschränkte Funktionalität bietet und bei der Synchronisation häufig menschliches Eingreifen erfordert.


    Das strategische Argument: Resilienz gegen Marktveränderungen

    Jenseits der technischen Architektur hat Local-First eine klare unternehmerische Dimension. Wenn ein SaaS-Anbieter übernommen wird – wie in den letzten Jahren vielfach zu beobachten –, drohen Preisanpassungen, veränderte Datenschutzbedingungen oder schlichte Produktabkündigungen.

    Unternehmen, deren Kernanwendungen auf Local-First-Prinzipien basieren, sind davon strukturell weniger betroffen – weil die eigentliche Datenhaltung und Verarbeitung nicht beim Anbieter liegt.

    Hinzu kommt der Datenschutzaspekt, der für europäische Unternehmen besonders relevant ist. Wenn sensible Geschäftsdaten nicht auf Servern Dritter liegen, entfallen viele der regulatorischen Herausforderungen rund um DSGVO-Konformität und Drittlandtransfers.


    Grenzen und Abwägungen

    Local-First ist kein universelles Muster. Folgende Szenarien lassen sich nicht ohne weiteres in dieses Modell überführen:

    • Kollaborative Anwendungen mit vielen gleichzeitigen Nutzern
    • Hochfrequente Transaktionssysteme
    • Dienste, die auf zentraler Echtzeit-Logik beruhen

    Auch der Entwicklungsaufwand ist höher: CRDTs und dezentrale Synchronisation erfordern spezifisches Know-how, das in vielen Entwicklungsteams noch nicht tief verankert ist.


    Einordnung für deutsche Unternehmen

    Für deutsche Mittelständler und Tech-Entscheider bietet Local-First-Software einen konkreten Ansatz, um strategische Abhängigkeiten von Cloud-Anbietern zu reduzieren. Besonders in Branchen mit hohen Datenschutzanforderungen – Gesundheitswesen, Rechtsberatung, Finanzdienstleistungen – könnte das Architekturprinzip in den nächsten Jahren deutlich an Relevanz gewinnen.

    Der sinnvolle Einstieg liegt nicht im vollständigen Ersatz bestehender Systeme, sondern in der gezielten Anwendung auf kritische Kernprozesse, bei denen Ausfallsicherheit und Datenkontrolle geschäftsentscheidend sind.


    Quelle: InfoQ – Local-First: Build Software for the Next Decade

  • ProPublica-Mitarbeiter streiken für KI-Schutzregeln und bessere Arbeitsbedingungen

    ProPublica-Mitarbeiter streiken für KI-Schutzregeln und bessere Arbeitsbedingungen

    Zum ersten Mal in der Geschichte von ProPublica haben rund 150 Beschäftigte die Arbeit niedergelegt – und rücken damit eine Frage ins Zentrum, die den gesamten Mediensektor bewegt: Wer kontrolliert den Einsatz von KI im Journalismus?

    ProPublica-Mitarbeiter streiken für KI-Schutzregeln und bessere Arbeitsbedingungen

    Rund 150 Beschäftigte des amerikanischen Non-Profit-Nachrichtenportals ProPublica haben am Mittwoch einen 24-stündigen Streik begonnen – der erste in der Geschichte des Unternehmens. Im Zentrum der Auseinandersetzung stehen neben Lohnfragen und Kündigungsschutz vor allem vertragliche Regelungen zum Einsatz generativer KI-Systeme in der Redaktion.


    Zwei Jahre Verhandlung ohne Ergebnis

    Die ProPublica Guild, die sich 2023 gewerkschaftlich organisiert hat, verhandelt seither über einen Tarifvertrag. Nach eigenen Angaben konnten in mehr als zwei Jahren keine Einigung in den zentralen Streitpunkten erzielt werden. Im März stimmten die Mitglieder dafür, einen Streik zu autorisieren, sollte es bis April zu keiner Einigung kommen.

    „Wir haben versucht, das intern zu lösen. Jetzt ist der Moment, der Öffentlichkeit zu zeigen, wie wichtig diese Fragen für die Menschen sind, die diese Arbeit leisten.”
    — Katie Campbell, Guild-Mitglied

    Neben den KI-bezogenen Regelungen fordert die Gewerkschaft sogenannte „Just Cause”-Bestimmungen, die willkürliche Kündigungen und Disziplinarmaßnahmen einschränken sollen, sowie stärkere Schutzklauseln bei Entlassungen und Gehaltserhöhungen.


    KI-Nutzung als zentraler Konfliktpunkt

    Besondere Aufmerksamkeit richtet sich auf die Forderungen rund um den Einsatz generativer KI. Die Beschäftigten verlangen klare vertragliche Regeln, wie KI-Werkzeuge in der Redaktion eingesetzt werden dürfen – und wie deren Nutzung dem Publikum gegenüber offengelegt werden muss.

    ProPublica steht damit stellvertretend für eine breitere Entwicklung im amerikanischen Mediensektor: Zahlreiche Redaktionen verhandeln derzeit ähnliche Klauseln in ihre Tarifverträge, darunter die Los Angeles Times und das Wall Street Journal.

    Die Kernfrage: Wer kontrolliert, in welchem Umfang und zu welchem Zweck KI-generierte Inhalte eingesetzt werden – und trägt die journalistische Verantwortung dafür?

    Für Gewerkschaften ist das auch eine Frage des Jobschutzes, da automatisierte Prozesse potenziell Stellen ersetzen können.


    Digitale Streikpostenkette

    Ungewöhnlich an dem Arbeitskampf ist die Form: Die Guild rief die Öffentlichkeit dazu auf, eine „digitale Streikpostenkette” zu respektieren und ProPublica-Inhalte während des Ausstands nicht zu konsumieren oder zu teilen. Damit versuchen die Beschäftigten, wirtschaftlichen Druck auf das Portal auszuüben – obwohl ProPublica als gemeinnütziges Medium nicht primär werbeabhängig ist.


    Einordnung für deutsche Unternehmen

    Der Fall ProPublica illustriert eine Auseinandersetzung, die zunehmend auch deutsche Betriebe beschäftigen wird. Wo KI-Systeme operative Aufgaben übernehmen oder Arbeitsprozesse verändern, stellen Betriebsräte und Gewerkschaften konkrete Mitbestimmungsansprüche.

    Das Betriebsverfassungsgesetz bietet hier bereits einen strukturellen Rahmen – Unternehmen sollten KI-Einführungen frühzeitig mit den Arbeitnehmervertretungen abstimmen, um langwierige Konflikte zu vermeiden. Die Forderung nach Transparenz gegenüber Nutzern und Beschäftigten dürfte auch hierzulande an Gewicht gewinnen, nicht zuletzt durch die Anforderungen des EU AI Act.


    Quelle: The Verge AI