Author: uritter

  • Zustandsbasierte KI-Agenten: Warum die Wahl der Transport-Schicht über Erfolg oder Scheitern entscheidet

    Zustandsbasierte KI-Agenten: Warum die Wahl der Transport-Schicht über Erfolg oder Scheitern entscheidet

    In der Welt der KI-Agenten entscheidet nicht nur die Qualität des Modells über den Projekterfolg – sondern zunehmend eine Frage, die lange im Verborgenen schlummerte: Welche Transport-Schicht hält mehrstufige Agenten-Workflows zuverlässig am Laufen? Ein Blick auf die Architekturentscheidungen, die über Stabilität oder kostspielige Nacharbeit entscheiden.

    Zustandsbasierte KI-Agenten: Warum die Wahl der Transport-Schicht über Erfolg oder Scheitern entscheidet

    Mit zunehmender Verbreitung von KI-Agenten in Unternehmensarchitekturen rückt eine technische Frage in den Vordergrund, die lange unterschätzt wurde: Wie kommunizieren Agenten zuverlässig miteinander – und was passiert, wenn dabei der Zustand verloren geht? Die Antwort hängt maßgeblich von der gewählten Transport-Schicht ab.


    Zustandsverwaltung als Kernproblem

    KI-Agenten, die in komplexen Workflows eingesetzt werden, sind selten isoliert. Sie rufen andere Dienste auf, delegieren Teilaufgaben, warten auf Ergebnisse und müssen dabei ihren aktuellen Bearbeitungsstand konsistent halten. Genau hier zeigt sich eine strukturelle Schwäche vieler früher Implementierungen:

    Klassische HTTP-Requests nach dem Request-Response-Muster sind zustandslos. Jeder Aufruf steht für sich – für einfache API-Integrationen ausreichend, für mehrstufige Agenten-Workflows jedoch ungeeignet.

    Sobald ein Agent einen mehrstufigen Prozess durchläuft – etwa eine Recherche, gefolgt von einer Auswertung, gefolgt von einer Entscheidung – entsteht die Notwendigkeit, Zwischenergebnisse, Kontext und Metadaten persistent zu halten. Fehlt eine geeignete Transport-Infrastruktur, wird dieser Zustand entweder im Hauptspeicher gehalten (fragil bei Ausfällen) oder in aufwendigen Workarounds extern gespeichert.


    Drei Transport-Ansätze im Vergleich

    In der Praxis haben sich drei Architekturen herausgebildet, die unterschiedlich gut mit zustandsbehafteten Agenten umgehen:

    Synchrone HTTP-Verbindungen

    Synchrone HTTP-Verbindungen sind einfach zu implementieren und weit verbreitet, stoßen jedoch bei lang laufenden Agenten-Tasks an klare Grenzen. Timeouts, unterbrochene Verbindungen und fehlende Rückmeldungen über Zwischenstände machen sie für komplexe Workflows ungeeignet.

    Server-Sent Events (SSE)

    Server-Sent Events (SSE) ermöglichen einen unidirektionalen Datenstrom vom Server zum Client und eignen sich gut für Streaming-Antworten, wie sie Large Language Models erzeugen. Sie sind leichtgewichtig, HTTP-kompatibel und inzwischen in vielen Agenten-Frameworks der de-facto-Standard für die Ausgabe-Seite.

    Nachrichtenbasierte Systeme

    Nachrichtenbasierte Systeme – etwa auf Basis von Message Queues wie Kafka, RabbitMQ oder cloud-nativen Diensten – bieten die robusteste Grundlage für zustandsbehaftete, asynchrone Agenten-Architekturen. Sie entkoppeln Sender und Empfänger, ermöglichen Retry-Mechanismen, garantieren Zustellung und erlauben es, den Verarbeitungszustand außerhalb des Agenten selbst zu verwalten.

    Der Preis für diese Robustheit: höhere Infrastrukturkomplexität und ein erhöhter Einführungsaufwand – eine Abwägung, die frühzeitig im Projektdesign getroffen werden sollte.


    Das Model Context Protocol als aufkommender Standard

    Ein weiterer Baustein in dieser Diskussion ist Anthropics Model Context Protocol (MCP), das einen standardisierten Weg definiert, wie Agenten mit Werkzeugen und Datenprovidern kommunizieren. MCP spezifiziert dabei auch, welche Transport-Mechanismen unterstützt werden – aktuell SSE und stdio.

    Die wachsende Adoption von MCP in der Industrie zeigt, dass die Community beginnt, Transport-Fragen nicht mehr als Implementierungsdetail, sondern als architektonische Grundsatzentscheidung zu behandeln.


    Fehlertoleranz und Observability als Pflichtkriterien

    Unabhängig vom gewählten Transport-Ansatz gilt: Agenten-Systeme in Produktivumgebungen benötigen klare Strategien für:

    • Fehlerbehandlung bei Verbindungsabbrüchen und Timeouts
    • Wiederaufnahme unterbrochener Prozesse ohne Datenverlust
    • Nachvollziehbarkeit aller Agenten-Entscheidungen für Audit und Debugging

    Ohne diese Eigenschaften entstehen schwer debuggbare Systeme, deren Verhalten unter Last oder bei Netzwerkproblemen nicht vorhersehbar ist.


    Handlungsempfehlung für Unternehmen

    Für Unternehmen im deutschsprachigen Raum, die KI-Agenten in ihre Prozesse integrieren oder entsprechende Eigenentwicklungen planen, empfiehlt sich eine frühe Auseinandersetzung mit diesen Architekturfragen.

    Die Wahl der Transport-Schicht beeinflusst nicht nur die technische Stabilität, sondern auch Skalierbarkeit, Wartbarkeit und Compliance-Anforderungen – etwa wenn Audit-Trails über Agenten-Entscheidungen nachgewiesen werden müssen.

    Wer diese Entscheidung als nachgelagertes Implementierungsdetail behandelt, riskiert kostspielige Nacharbeiten in späteren Projektphasen.


    Quelle: InfoQ AI – Stateful AI Agents and Transport Layer Architecture

  • Utah erprobt KI-gestützte Verlängerung psychiatrischer Rezepte

    Utah erprobt KI-gestützte Verlängerung psychiatrischer Rezepte

    Utah wagt einen regulatorisch eingebetteten Schritt in die KI-gestützte Medizin: Ein staatlich sanktioniertes Pilotprojekt setzt erstmals offiziell einen KI-Chatbot für psychiatrische Rezeptverlängerungen ein – und könnte damit zur Blaupause für den gesamten US-amerikanischen Gesundheitssektor werden.

    Utah erprobt KI-gestützte Verlängerung psychiatrischer Rezepte

    Der US-Bundesstaat Utah startet ein reguliertes Pilotprojekt, das Künstliche Intelligenz erstmals offiziell in den Prozess psychiatrischer Rezeptverlängerungen einbindet. Das Vorhaben gilt als eines der ersten staatlich sanktionierten Programme seiner Art in den USA und dürfte die laufende Debatte über KI-Governance im Gesundheitswesen weiter anheizen.


    Automatisierte Rezeptverlängerung unter ärztlicher Aufsicht

    Im Kern des Projekts steht ein KI-Chatbot, der Patienten bei der Verlängerung bestehender psychiatrischer Verschreibungen unterstützt. Das System führt strukturierte Gespräche mit Patienten, erhebt relevante Statusdaten und bereitet Entscheidungsvorlagen für die behandelnden Ärzte auf.

    Die finale Freigabe eines Rezepts verbleibt dabei stets beim zugelassenen medizinischen Fachpersonal – die KI übernimmt administrative und informationssammelnde Aufgaben, trifft jedoch keine eigenständigen klinischen Entscheidungen.

    Das Pilotprojekt richtet sich zunächst an Patienten mit stabilen, langfristigen psychiatrischen Diagnosen, bei denen Routineverlängerungen ohne akute Veränderungen des Gesundheitszustands anfallen. Gerade in der psychiatrischen Versorgung gelten lange Wartezeiten und ein chronischer Fachkräftemangel als strukturelle Probleme – ein Umstand, den die Initiative gezielt adressieren soll.


    Regulatorischer Rahmen als zentrales Element

    Bemerkenswert an dem Projekt ist der bewusst gewählte regulatorische Rahmen. Utah hat das Programm nicht als informellen Testlauf aufgesetzt, sondern in enger Abstimmung mit Gesundheitsbehörden und unter definierten Aufsichtsmechanismen gestartet. Dieser Ansatz unterscheidet sich von vielen bisherigen KI-Anwendungen im klinischen Umfeld, die häufig als interne Piloten ohne klare gesetzliche Einbettung liefen.

    Für KI-Governance-Experten ist das Utah-Modell deshalb besonders aufschlussreich, weil es konkrete Fragen beantwortet:

    • Haftung: Wer trägt die Verantwortung bei Fehlern?
    • Datenschutz: Wie werden Patientendaten geschützt?
    • Eingriffsschwelle: Unter welchen Bedingungen darf ein automatisiertes System in einen klinisch sensiblen Prozess eingreifen?

    Die Antworten auf diese Fragen könnten als Blaupause für andere Bundesstaaten – und perspektivisch auch für andere Länder – dienen.


    Kritische Perspektiven nicht ausgeblendet

    Psychiatrische Verschreibungen gelten als besonders sensibel: Wechselwirkungen, psychische Krisen und individuelle Verläufe erfordern im Zweifel eine differenzierte klinische Beurteilung. Kritiker weisen darauf hin, dass selbst bei scheinbar stabilen Patienten unbemerkte Veränderungen auftreten können, die ein Chatbot nicht zuverlässig erfassen kann.

    Befürworter entgegnen jedoch mit einem gewichtigen Gegenargument:

    Der bestehende Status quo – lange Wartezeiten auf Folgetermine, Versorgungslücken in ländlichen Regionen – stellt ebenfalls ein klinisches Risiko dar. Ein korrekt eingesetztes Assistenzsystem könnte dieses Risiko senken, ohne die ärztliche Verantwortung zu unterlaufen.

    Die Frage, ob ein strukturiertes KI-Gespräch einen ärztlichen Blick ersetzen kann, bleibt offen und wird das Projekt während seiner gesamten Laufzeit begleiten.


    Einordnung für deutsche Unternehmen und Entscheider

    Das Utah-Projekt liefert praxisnahe Erkenntnisse für eine Debatte, die auch in Deutschland zunehmend an Fahrt gewinnt. Hierzulande arbeiten verschiedene Akteure – von Krankenkassen über Klinikverbünde bis hin zu Health-Tech-Startups – an KI-gestützten Prozessen im Versorgungsalltag.

    Der regulatorische Rahmen in der EU, insbesondere durch den AI Act und bestehende Datenschutzvorgaben, setzt dabei andere Leitplanken als das US-amerikanische System. Dennoch gilt:

    Skalierbare KI-Anwendungen im klinischen Bereich funktionieren nur dann nachhaltig, wenn Governance, Haftungsfragen und klinische Aufsicht von Beginn an mitgedacht werden – eine Lektion, die für jeden Healthcare-Entscheider mit KI-Ambitionen relevant ist.


    Quelle: TechRepublic AI

  • Musk ändert Klage gegen OpenAI: Schadensersatz soll an gemeinnützige Stiftung fließen

    Musk ändert Klage gegen OpenAI: Schadensersatz soll an gemeinnützige Stiftung fließen

    Elon Musk modifiziert seine millionenschwere Klage gegen OpenAI mit einem ungewöhnlichen Zug: Mögliche Schadensersatzzahlungen sollen nicht in seine eigene Tasche fließen, sondern der gemeinnützigen OpenAI-Stiftung zugutekommen – ein juristisches Manöver mit strategischem Kalkül.

    Musk ändert Klage gegen OpenAI: Schadensersatz soll an gemeinnützige Stiftung fließen

    Klage mit neuem Zahlungsziel

    Der Rechtsstreit zwischen Musk und OpenAI zieht sich seit Monaten durch die US-amerikanischen Gerichte. Musk wirft dem Unternehmen vor, seinen ursprünglichen gemeinnützigen Auftrag zugunsten kommerzieller Interessen aufgegeben zu haben – eine Kritik, die er seit dem Bekanntwerden der geplanten Umstrukturierung von OpenAI in eine gewinnorientierte Gesellschaft wiederholt erhoben hat.

    Die aktuelle Änderung der Klageschrift ist insofern bemerkenswert, als Musk damit einen möglichen Vorwurf des Eigennutzes entkräften will. Indem er die OpenAI-Stiftung als Begünstigte einträgt, positioniert er sich als Sachwalter des gemeinnützigen Ursprungsgedankens – und nicht als Konkurrent, der finanzielle Vorteile aus dem Verfahren ziehen möchte.

    OpenAI weist Vorwürfe zurück

    OpenAI hat auf die geänderte Klageschrift mit scharfer Kritik reagiert:

    „Das Unternehmen spricht von einer Belästigungskampagne und sieht in den fortgesetzten juristischen Schritten den Versuch, die geplante Umwandlung in eine Kapitalgesellschaft zu blockieren oder zu verzögern.”

    Diese Umstrukturierung ist für OpenAI strategisch zentral, da sie die Grundlage für weitere Investitionsrunden in erheblicher Größenordnung bildet.

    Der Konflikt hat eine deutliche persönliche Dimension: Musk gehörte zu den Gründungsförderern von OpenAI, verließ den Vorstand jedoch 2018. Mit dem Aufbau seines eigenen KI-Unternehmens xAI ist er inzwischen direkter Wettbewerber. OpenAI argumentiert unter anderem, dass Musks juristische Offensive vor diesem Hintergrund wettbewerbspolitisch motiviert sei.

    Strukturfrage mit Signalwirkung

    Der Fall berührt eine grundlegende Frage im KI-Sektor:

    Wie verbindlich sind die gemeinnützigen Versprechen, mit denen führende KI-Labore ursprünglich gegründet wurden – und welche rechtlichen Konsequenzen hat eine Abkehr davon?

    Musks Strategie, den Schadensersatz an die Stiftung statt an sich selbst zu leiten, könnte die Klagechancen vor Gericht verbessern, da sie dem Verfahren eine weniger persönlich motivierte Grundlage verleiht.

    Unabhängig vom Ausgang des Verfahrens dürfte der Rechtsstreit die ohnehin laufenden regulatorischen Diskussionen in den USA über die Governance von KI-Unternehmen weiter befeuern. Bereits der Generalstaatsanwalt Kaliforniens prüft, unter welchen Bedingungen eine Umwandlung gemeinnütziger KI-Organisationen in Kapitalgesellschaften zulässig ist.

    Einordnung für deutsche Unternehmen

    Für Unternehmen hierzulande, die strategische Partnerschaften mit OpenAI oder Lizenzverträge für dessen Technologien eingegangen sind, schafft die anhaltende rechtliche Unsicherheit rund um die Unternehmensstruktur ein kalkulierbares Risiko. Konkret bedeutet das:

    • Mögliche Verzögerungen bei Kapitalrunden könnten Produktroadmaps beeinflussen
    • Erzwungene Governance-Änderungen können Servicevereinbarungen mittelbar berühren
    • Eine kontinuierliche Beobachtung der Verfahrensentwicklung ist für technologieabhängige Beschaffungsentscheidungen ratsam

    Quelle: The Decoder

  • Anthropic hält Claude zurück: KI-Modell findet Tausende Sicherheitslücken

    Anthropic hält Claude zurück: KI-Modell findet Tausende Sicherheitslücken

    Anthropic verweigert die öffentliche Freigabe seines neuesten Modells Claude Mythos Preview – mit einem ungewöhnlich konkreten Argument: Das System soll eigenständig Tausende Sicherheitslücken in Betriebssystemen und Browsern gefunden haben, die selbst erfahrene Sicherheitsforscher kaum nachvollziehen konnten. Ein Déjà-vu aus der KI-Geschichte – diesmal aber mit handfester technischer Evidenz.

    Anthropic hält Claude Mythos zurück: KI-Modell findet Tausende Sicherheitslücken

    Déjà-vu aus dem Jahr 2019

    Als OpenAI im Februar 2019 das Sprachmodell GPT-2 als „zu gefährlich für eine vollständige Veröffentlichung” einstufte, erntete das Unternehmen breite Skepsis. Kritiker werteten den Schritt als Marketing-Manöver, das mehr Aufmerksamkeit erzeugen sollte als echte Sicherheitsbedenken rechtfertigen konnten. Wenige Monate später war GPT-2 vollständig öffentlich verfügbar – ohne nennenswerte Vorfälle.

    Anthropic steht nun vor einer strukturell ähnlichen Entscheidung, doch der Kontext hat sich erheblich verändert. Mit Claude Mythos Preview – intern offenbar auch als Teil des „Project Glasswing” bekannt – hat das Unternehmen nach eigenen Angaben ein Modell entwickelt, das im Bereich der Schwachstellenanalyse eine Qualität erreicht, die eine öffentliche Freigabe aus Sicherheitssicht nicht vertretbar macht.

    Schwachstellen in industriellem Maßstab

    Der entscheidende Unterschied zur GPT-2-Episode liegt in der verfügbaren Evidenz. Claude Mythos Preview soll bei internen Tests Tausende bislang unbekannte Sicherheitslücken in weit verbreiteten Betriebssystemen und Browsern gefunden haben. Das Besondere daran: Die Ergebnisse waren nach Angaben von Anthropic so komplex, dass sie von menschlichen Sicherheitsforschern kaum vollständig geprüft werden konnten.

    Während bisherige Large Language Models vor allem als Hilfsmittel für erfahrene Angreifer galten, deutet die beschriebene Leistung von Claude Mythos auf eine andere Kategorie hin: ein System, das eigenständig offensive Cybersecurity-Fähigkeiten auf einem Niveau entwickelt, das menschliche Expertise an einzelnen Stellen übertrifft.

    Damit verschiebt sich das Risikoprofil gegenüber früheren Modellen grundlegend. Bisherige Large Language Models galten vor allem als Werkzeuge, die die Einstiegshürde für erfahrene Angreifer senkten. Claude Mythos markiert potenziell eine neue Kategorie.

    Kontrollierter Zugang statt vollständigem Embargo

    Anthropic verfolgt keinen vollständigen Veröffentlichungsstopp. Das Modell wird ausgewählten Forschungspartnern und Sicherheitsorganisationen zugänglich gemacht, die in der Lage sind, die Ergebnisse verantwortungsvoll zu handhaben. Dieser Ansatz ähnelt dem Konzept eines gestaffelten Releases, der inzwischen auch von anderen Anbietern bei besonders leistungsfähigen Systemen diskutiert wird.

    Die Entscheidung wirft grundsätzliche Fragen zur Governance von KI-Modellen auf:

    • Wer entscheidet, welche Fähigkeiten zu gefährlich für eine öffentliche Freigabe sind?
    • Welche externen Prüfmechanismen greifen, wenn die Outputs eines Modells die Prüfkapazitäten menschlicher Experten übersteigen?
    • Wie glaubwürdig sind selbst auferlegte Beschränkungen eines Unternehmens, das gleichzeitig im Wettbewerb mit OpenAI, Google und anderen steht?

    Einordnung für deutsche Unternehmen

    Für Unternehmen in Deutschland ist die Entwicklung aus zwei Perspektiven relevant.

    Angriffspotenzial steigt unabhängig von Claude Mythos: KI-gestützte Schwachstellenanalyse als Angriffswerkzeug hat ein neues Reifegrad erreicht – vergleichbare Fähigkeiten werden früher oder später auch in anderen Modellen oder über andere Kanäle zugänglich sein. IT-Sicherheitsverantwortliche sollten das als Anlass nehmen, bestehende Patch-Management-Prozesse und die Reaktionsfähigkeit auf Zero-Day-Schwachstellen zu überprüfen.

    Regulatorischer Nachholbedarf beim EU AI Act: Der Fall zeigt, dass die Frage nach verbindlichen externen Evaluierungsstandards für leistungsfähige KI-Systeme dringlicher wird. Der EU AI Act schafft einen regulatorischen Rahmen, doch die technischen Prüfverfahren für Hochrisiko-Szenarien – insbesondere im Sicherheitsbereich – sind noch nicht ausgereift genug, um mit der Modellentwicklung Schritt zu halten.

    Die eigentliche Botschaft des Falls Claude Mythos lautet nicht: Dieses eine Modell ist gefährlich. Die Botschaft lautet: Die Governance-Infrastruktur für KI-Systeme dieser Leistungsklasse existiert noch nicht.


    Quelle: The Decoder

  • mRNA-Sprachmodelle für 165 Dollar: Open-Source-Ansatz senkt Einstiegshürden in der Biotech-Forschung

    mRNA-Sprachmodelle für 165 Dollar: Open-Source-Ansatz senkt Einstiegshürden in der Biotech-Forschung

    Biologische Sprachmodelle galten lange als Domäne ressourcenstarker Forschungsinstitute. Ein Open-Source-Team zeigt nun, dass sich mRNA-Modelle für gerade einmal 165 US-Dollar trainieren lassen – und stellt damit etablierte Annahmen über die Einstiegshürden in der Biotech-Forschung grundlegend in Frage.

    mRNA-Sprachmodelle für 165 Dollar: Open-Source-Ansatz senkt Einstiegshürden in der Biotech-Forschung

    Ein Forscherteam des OpenMed-Projekts hat auf der Plattform Hugging Face dokumentiert, wie sich biologische Sprachmodelle für mRNA-Sequenzen über 25 Spezies hinweg zu Kosten von 165 US-Dollar trainieren lassen. Das Vorhaben zeigt, dass rechenintensive Aufgaben in der Molekularbiologie nicht länger ausschließlich großen Institutionen mit entsprechenden Rechenbudgets vorbehalten sind.


    Von der Struktur zur optimierten Sequenz

    Der Beitrag von Maziyar Panahi beschreibt den zweiten Teil einer Arbeitspipeline, die mehrere spezialisierte KI-Werkzeuge miteinander verknüpft. Ausgangspunkt ist die Vorhersage von Proteinstrukturen mithilfe von ESMFold – einem Large Language Model aus dem Haus Meta, das dreidimensionale Proteinstrukturen aus Aminosäuresequenzen ableitet. Im beschriebenen Experiment wurden 30 Proteinketten analysiert.

    Auf dieser Basis übernimmt ProteinMPNN die sogenannte Sequenzgestaltung: Das Modell schlägt DNA- beziehungsweise Aminosäuresequenzen vor, die eine zuvor definierte Zielstruktur möglichst präzise reproduzieren. Im letzten Schritt folgt die Codon-Optimierung, bei der die kodierenden Sequenzen so angepasst werden, dass sie in einem bestimmten Wirtsorganismus effizient exprimiert werden können – ein zentraler Schritt bei der Entwicklung therapeutischer mRNA-Moleküle.

    Die dreistufige Pipeline aus Strukturvorhersage, Sequenzgestaltung und Codon-Optimierung bildet den methodischen Kern des Ansatzes – und lässt sich nun erstmals vollständig auf Consumer-Niveau replizieren.


    Architektur und Trainingsaufwand

    Für das eigentliche Training der mRNA-Sprachmodelle testete das Team mehrere Modellarchitekturen und evaluierte deren Leistung auf dem gemeinsamen Datensatz aus 25 Spezies. Die Gesamtkosten von 165 Dollar beziehen sich auf die genutzten Cloud-Rechenressourcen.

    Vergleichbare proprietäre Forschungsprojekte in der Pharmaindustrie bewegen sich bei der Nutzung kommerzieller GPU-Cluster typischerweise in einem vielfach höheren Kostenrahmen – selbst für Pilotexperimente.

    Die eingesetzten Modelle und Trainingsdaten werden über Hugging Face öffentlich bereitgestellt, was eine direkte Nachnutzung und Weiterentwicklung durch Dritte ermöglicht. Der Ansatz folgt dem Prinzip offener Wissenschaft, das in der bioinformatischen Community unter dem Stichwort Open Science zunehmend an Bedeutung gewinnt.


    Einordnung: Citizen Science trifft auf Drug Design

    Was auf den ersten Blick wie ein akademisches Experiment wirkt, berührt einen strategisch relevanten Bereich der Pharmaindustrie. Die Entwicklung von mRNA-basierten Therapeutika – nach dem Erfolg der COVID-19-Impfstoffe ein stark wachsendes Feld – erfordert präzise Sequenzoptimierung und verlässliche Struktur-Funktions-Vorhersagen. Beide Schritte lassen sich mit dem beschriebenen Ansatz zumindest prototypisch automatisieren.

    Gleichzeitig gilt es, die Grenzen des Vorhabens klar zu benennen:

    Ein Training für 165 Dollar liefert noch keine klinisch validierten Ergebnisse. Die beschriebenen Modelle sind Ausgangspunkte für Forschungshypothesen – keine fertigen Entwicklungswerkzeuge.

    Qualitätssicherung, regulatorische Anforderungen und experimentelle Validierung bleiben zwingend notwendige Folgeschritte.


    Relevanz für deutschsprachige Unternehmen

    Für Biotech-Startups und forschende Mittelständler im deutschsprachigen Raum, die mRNA-basierte Ansätze explorieren, liefert die Veröffentlichung einen praktischen Orientierungsrahmen. Die offengelegte Pipeline aus ESMFold, ProteinMPNN und biologischen Sprachmodellen kann als Blaupause dienen, um eigene Proof-of-Concept-Studien kostengünstig aufzusetzen, bevor größere Ressourcen in dedizierte Infrastruktur oder kommerzielle Plattformlösungen fließen.

    Angesichts des steigenden Drucks auf F&E-Budgets dürfte dieser Aspekt in den kommenden Monaten auch die Beschaffungsdiskussionen in etablierten Pharmaunternehmen beeinflussen.


    Quelle: HuggingFace Blog – Training mRNA Models Across 25 Species

  • Anthropic warnt vor Cyberangriffs-Potenzial seines neuen KI-Modells

    Anthropic warnt vor Cyberangriffs-Potenzial seines neuen KI-Modells

    Erstmals in der KI-Branche warnt ein führender Hersteller offen vor dem Angriffspotenzial seines eigenen Modells – und stellt damit Unternehmen weltweit vor eine unbequeme Frage: Wie gut sind sie wirklich auf KI-gestützte Cyberangriffe vorbereitet?

    Anthropic warnt vor Cyberangriffs-Potenzial seines neuen KI-Modells

    Explizite Risikoeinschätzung direkt vom Hersteller

    Was das aktuelle Modell von früheren Releases unterscheidet, ist die Transparenz des Herstellers selbst. Anthropic stuft das System intern in eine Risikokategorie ein, die explizit offensive Cyber-Kapazitäten umfasst. Konkret bedeutet das: Das Modell kann technisch versierte Nutzer dabei unterstützen, Schwachstellen in Netzwerken zu identifizieren, Angriffsvektoren zu entwickeln und Schadcode zu verfassen – Fähigkeiten, die bislang tiefes Spezialwissen erforderten.

    Diese Einschätzung stammt nicht aus unabhängiger Forschung oder kritischer Berichterstattung, sondern aus dem unternehmenseigenen Responsible-Scaling-Framework. Dass ein führender KI-Entwickler solche Risiken öffentlich kommuniziert, ist in der Branche bislang ohne Präzedenz.

    Niedrigere Einstiegshürden für Angreifer

    Die sicherheitspolitische Implikation ist direkt: Komplexe Cyberangriffe, die bisher nur staatliche Akteure oder spezialisierte kriminelle Gruppen durchführen konnten, werden für ein breiteres Spektrum an Bedrohungsakteuren zugänglich. Frontier-Modelle wie das von Anthropic beschleunigen diesen Prozess, indem sie technisches Know-how demokratisieren – im negativen wie im positiven Sinne.

    Für mittelständische Unternehmen, die bisher davon ausgehen konnten, kein lohnendes Angriffsziel für hochspezialisierte Akteure zu sein, verschiebt sich diese Risikorechnung grundlegend. Angriffe, die früher erhebliche Ressourcen erforderten, lassen sich mit KI-Unterstützung mit deutlich geringerem Aufwand durchführen.

    Schutzmaßnahmen hinken der Entwicklung hinterher

    Gleichzeitig zeigt sich in der Unternehmenspraxis eine erhebliche Lücke. Viele Organisationen haben ihre Sicherheitsstrategien noch nicht auf KI-gestützte Angriffsmethoden ausgerichtet. Klassische Perimeter-Sicherheit und signaturbasierte Erkennungssysteme sind gegenüber adaptiven, KI-generierten Angriffsvektoren nur bedingt wirksam.

    Hinzu kommt, dass auch die defensive Seite KI nutzen kann – und muss. Sicherheitswerkzeuge, die auf maschinellem Lernen basieren, sind mittlerweile in der Lage, anomales Verhalten in Netzwerken frühzeitig zu erkennen. Die Herausforderung liegt jedoch in der Implementierung:

    Fachkräftemangel, knappe IT-Budgets und fehlende interne Expertise bremsen viele Unternehmen aus – genau in dem Moment, in dem die Bedrohungslage eskaliert.

    Regulatorischer Rahmen noch unvollständig

    Auf regulatorischer Ebene besteht weiterhin Klärungsbedarf. Der EU AI Act klassifiziert bestimmte Hochrisiko-Anwendungen, deckt jedoch Dual-Use-Szenarien – also Modelle, die sowohl legitim als auch offensiv eingesetzt werden können – nur unvollständig ab. Die Frage, welche Sorgfaltspflichten Unternehmen beim Einsatz solcher Modelle treffen, ist rechtlich noch nicht abschließend beantwortet.

    Für deutsche Unternehmen ergibt sich daraus konkreter Handlungsbedarf:

    • Bedrohungsmodelle aktualisieren und KI-gestützte Angriffsvektoren explizit einbeziehen
    • Interne KI-Nutzung prüfen: Welche Frontier-KI-Dienste werden intern oder durch Dienstleister eingesetzt?
    • Vertragliche und technische Schutzmaßnahmen auf den aktuellen Stand bringen

    Die Offenheit, mit der Anthropic diese Risiken kommuniziert, liefert dabei zumindest eine sachliche Grundlage für die eigene Risikoabwägung.


    Quelle: Axios AI

  • Städte in den USA distanzieren sich von automatisierten Kennzeichenerfassungs-Systemen

    Städte in den USA distanzieren sich von automatisierten Kennzeichenerfassungs-Systemen

    Automatisierte Kennzeichenerfassung verbreitet sich rasant in amerikanischen Städten – doch der Widerstand wächst. Immer mehr Kommunen kündigen Verträge mit dem Überwachungsanbieter Flock Safety, weil Datenschutz, mangelnde Transparenz und fehlende demokratische Kontrolle die Sicherheitsversprechen der Technologie zunehmend in Frage stellen.

    Städte in den USA distanzieren sich von automatisierten Kennzeichenerfassungssystemen

    Immer mehr amerikanische Kommunen beenden Verträge mit dem Überwachungsanbieter Flock Safety – einem Unternehmen, das automatisierte Kennzeichenerkennungssysteme (License Plate Reader, LPR) betreibt. Der Widerstand wächst, weil Datenschutzbedenken, mangelnde Transparenz und fehlende demokratische Kontrolle über den Einsatz solcher Technologien in den Vordergrund rücken.


    Wie Flock Safety funktioniert

    Flock Safety betreibt ein Netzwerk stationärer Kameras, die im öffentlichen Raum Fahrzeugkennzeichen sowie weitere Merkmale wie Fahrzeugfarbe und -typ automatisch erfassen und in einer zentralen Datenbank speichern. Strafverfolgungsbehörden können diese Daten abfragen, um Fahrzeugbewegungen nachzuverfolgen. Das Unternehmen wirbt damit, die Verbrechensaufklärung zu beschleunigen und kommunale Sicherheit zu erhöhen. Mittlerweile sind die Systeme in Tausenden amerikanischer Städte und Gemeinden installiert.


    Wachsender Widerstand in Kommunen

    Trotz der verbreiteten Nutzung entscheiden sich einige Städte bewusst gegen eine Verlängerung oder Einführung der Technologie. Kritiker bemängeln vor allem, dass Kommunalpolitiker oft keine vollständige Kontrolle darüber haben, wer auf die gesammelten Daten zugreift – darunter potenziell auch Bundesbehörden.

    Besonders in einer Phase, in der US-Einwanderungsbehörden verstärkt Datenpartnerschaften mit lokalen Stellen suchen, sehen viele Gemeinderäte ein erhebliches Risiko.

    Einige Städte berichten zudem, dass Vertragsklauseln den Datenaustausch mit Dritten ermöglichen, ohne dass die Kommunen darüber informiert werden müssen.


    Datenschutz versus Sicherheitsversprechen

    Das grundlegende Spannungsfeld ist bekannt: Befürworter argumentieren, LPR-Systeme helfen dabei, gestohlene Fahrzeuge aufzufinden und Verdächtige zu identifizieren. Bürgerrechtsorganisationen wie die ACLU halten dagegen:

    Flächendeckende Bewegungsprofile entstehen von Personen, die niemals unter Verdacht standen – ein struktureller Eingriff in die Privatsphäre unbescholtener Bürgerinnen und Bürger.

    Hinzu kommen offene Fragen zur Datenspeicherdauer und zu den Bedingungen, unter denen Behörden auf historische Fahrzeugbewegungen zugreifen dürfen. In mehreren Fällen stellte sich heraus, dass Kommunen beim Vertragsabschluss nicht vollständig über den Umfang der Datennutzung informiert wurden.


    Regulatorische Lücken begünstigen unkontrollierten Einsatz

    Ein strukturelles Problem ist das Fehlen einheitlicher gesetzlicher Rahmenbedingungen für den Einsatz von LPR-Technologie in den USA. Während einzelne Bundesstaaten wie Maine oder New Hampshire restriktivere Regelungen eingeführt haben, agieren Unternehmen wie Flock Safety in einem regulatorischen Flickenteppich. Das erlaubt es privaten Anbietern, Verträge direkt mit Kommunen abzuschließen, ohne dass übergeordnete Datenschutzstandards greifen.


    Einordnung für deutsche Unternehmen und Kommunen

    Für Entscheider in deutschen Unternehmen und Kommunen liefert die US-Debatte relevante Hinweise. In der Europäischen Union unterliegt der Einsatz von KI-gestützten Überwachungssystemen im öffentlichen Raum strengen Anforderungen – der EU AI Act stuft biometrische Echtzeit-Fernidentifikation in öffentlichen Bereichen als hochriskant ein und begrenzt deren Einsatz erheblich.

    Technische Leistungsversprechen allein sind keine ausreichende Grundlage für Beschaffungsentscheidungen – rechtliche Transparenz und demokratische Kontrolle müssen gleichrangige Kriterien sein.

    Dennoch sollten auch hierzulande Beschaffungsverantwortliche bei der Evaluation von Sicherheitstechnologien konkrete Fragen stellen:

    • Wer erhält Zugriff auf erfasste Daten – und unter welchen Bedingungen?
    • Wie lange werden Kennzeichendaten gespeichert?
    • Welche Dritten können laut Vertrag auf die Daten zugreifen?
    • Welche demokratischen Kontrollmechanismen sind vertraglich verankert?

    Der amerikanische Fall zeigt: Was als kommunales Sicherheitswerkzeug vermarktet wird, kann schnell zum Instrument unkontrollierter Überwachung werden.


    Quelle: CNET – When Flock Comes to Town

  • KI-Modell überbrückt Sprachbarriere bei klinischen Daten aus den USA und Frankreich

    KI-Modell überbrückt Sprachbarriere bei klinischen Daten aus den USA und Frankreich

    Zum ersten Mal gelingt es einem KI-Modell, elektronische Patientendaten aus US-amerikanischen und französischen Kliniken gemeinsam auszuwerten – ohne Rohdaten zu übertragen, ohne Datenschutzregeln zu verletzen. Die Studie, erschienen in Nature Communications, könnte die internationale medizinische Forschung grundlegend neu ausrichten.

    KI-Modell überbrückt Sprachbarriere bei klinischen Daten aus den USA und Frankreich

    Unterschiedliche Systeme, ein gemeinsames Modell

    Elektronische Patientenakten – im Fachjargon Electronic Health Records (EHR) – sind in verschiedenen Ländern strukturell sehr unterschiedlich aufgebaut. In den USA dominieren Systeme wie Epic oder Cerner, die auf ICD-10-Codes und CPT-Prozedurschlüsseln basieren. Französische Kliniken arbeiten hingegen mit eigenen nationalen Klassifikationen sowie Dokumentation in französischer Sprache. Diese Heterogenität hat internationale Forschungskooperationen bislang erheblich erschwert.

    Das Forscherteam – bestehend aus Wissenschaftlern der Harvard Medical School, des Veterans Affairs Boston Healthcare System sowie mehrerer französischer Universitätskliniken – entwickelte ein sogenanntes Representation-Learning-Verfahren. Dabei werden Patientendaten aus beiden Ländern in einen gemeinsamen mathematischen Vektorraum überführt, der länderspezifische Unterschiede in der Kodierung und Sprache auflöst, ohne die Rohdaten zu übertragen.

    Technischer Ansatz ohne Datentransfer

    Besonders relevant ist der datenschutzkonforme Ansatz des Modells: Die eigentlichen Patientendaten verlassen zu keinem Zeitpunkt die jeweiligen Kliniksysteme. Stattdessen werden sogenannte Embeddings – komprimierte Darstellungen klinischer Konzepte – trainiert und ausgetauscht.

    Dieses Prinzip des Federated Learning gilt als vielversprechender Weg, um die strengen Datenschutzanforderungen sowohl der US-amerikanischen HIPAA-Regulierung als auch der europäischen DSGVO gleichzeitig einzuhalten.

    Das Modell wurde anhand mehrerer klinischer Anwendungsfälle validiert, darunter die Identifikation von Patienten mit Multipler Sklerose sowie rheumatoider Arthritis. In beiden Szenarien zeigte das gemeinsam trainierte Modell eine bessere Vorhersageleistung als Ansätze, die nur auf nationalen Daten basierten – ein Hinweis darauf, dass die Zusammenführung heterogener Datensätze die Generalisierbarkeit klinischer KI-Modelle verbessert.

    Methodische Blaupause für multi-institutionelle Studien

    Die Autoren betonen, dass es sich weniger um ein fertiges Produkt als um eine methodische Blaupause handelt. Das Framework soll künftigen Forschungskonsortien als Grundlage dienen, um EHR-Daten aus verschiedenen Ländern zu kombinieren, ohne dabei institutionelle oder regulatorische Grenzen zu verletzen. Die Studie ist im Open-Access-Format erschienen und stellt den Code öffentlich bereit.

    Limitierungen bleiben: Die Studie umfasst bislang nur zwei Länder mit vergleichsweise gut strukturierten Gesundheitsdatensystemen. Eine Ausweitung auf Länder mit fragmentierter Dateninfrastruktur – etwa in Teilen Südostasiens oder Subsahara-Afrikas – wäre methodisch deutlich anspruchsvoller.

    Einordnung für deutsche Unternehmen und Einrichtungen

    Für deutsche Krankenhäuser, Forschungseinrichtungen und HealthTech-Unternehmen ist die Studie aus mehreren Gründen relevant:

    • Sie zeigt einen praktikablen Weg, wie internationale Kooperationen unter DSGVO-Bedingungen technisch umsetzbar sind.
    • Das Representation-Learning-Framework liefert eine Grundlage für eigenständige Anwendungen im deutschen Gesundheitswesen – etwa im Kontext der NFDI4Health oder des geplanten European Health Data Space (EHDS).

    Unternehmen, die KI-gestützte Diagnostik oder klinische Entscheidungsunterstützung entwickeln, sollten diesen methodischen Ansatz als Referenzpunkt für regulatorisch konforme, grenzüberschreitende Modellentwicklung in Betracht ziehen.


    Quelle: Nature Communications

  • KI-System PRET erkennt Tumore ohne klassisches Beispiel-Training

    KI-System PRET erkennt Tumore ohne klassisches Beispiel-Training

    Ein internationales Forschungsteam hat mit PRET ein KI-System vorgestellt, das Krebsarten in medizinischen Bildaufnahmen erkennt – ohne klassisches Beispiel-Training. Die in Nature Cancer veröffentlichte Studie könnte die KI-gestützte Diagnostik grundlegend verändern, besonders dort, wo Daten knapp sind.

    KI-System PRET erkennt Tumore ohne klassisches Beispiel-Training

    Kernproblem: Datenmangel im klinischen Alltag

    Konventionelle KI-Modelle für die medizinische Bildanalyse setzen voraus, dass große Mengen annotierter Beispieldaten vorliegen – also Aufnahmen, die von Fachärzten bereits als krebsartig oder gesund klassifiziert wurden. Dieser Aufwand ist kostspielig, zeitintensiv und in vielen medizinischen Einrichtungen schlicht nicht leistbar. Besonders bei seltenen Krebsarten fehlen ausreichend Fallzahlen, um klassische Supervised-Learning-Modelle zuverlässig zu trainieren.

    Few-Shot-Ansatz als methodischer Unterschied

    PRET – das Akronym steht für einen Few-Shot-Ansatz zur pan-cancer Erkennung – arbeitet mit sogenanntem Few-Shot Learning. Das bedeutet: Das System benötigt nur wenige oder gar keine bezeichneten Beispiele einer bestimmten Krebsart, um diese dennoch zuverlässig zu erkennen.

    Statt auf tausende gelabelte Beispiele angewiesen zu sein, extrahiert PRET allgemeine visuelle und pathologische Muster aus großen, ungelabelten Datensätzen – ein paradigmatischer Bruch mit klassischen Trainingsansätzen.

    Das System wurde von Forschenden aus China, den USA und weiteren Institutionen entwickelt, darunter Teams der Harvard Medical School und mehrerer chinesischer Universitätskliniken. Es wurde auf einem breiten Spektrum von Tumorentitäten – daher “pan-cancer” – evaluiert und erzielte dabei Erkennungsleistungen, die mit klassisch trainierten Modellen vergleichbar oder überlegen waren.

    Praktische Konsequenzen für die Diagnostik

    Der methodische Ansatz adressiert ein strukturelles Problem der KI-gestützten Medizin: die Diskrepanz zwischen Forschungsergebnissen unter kontrollierten Bedingungen und der tatsächlichen Einsatzfähigkeit in klinischen Umgebungen.

    PRET könnte prinzipiell dort eingesetzt werden, wo keine großen institutionellen Datenpools existieren:

    • Kleinere Krankenhäuser ohne eigene Forschungsinfrastruktur
    • Medizinische Einrichtungen in Entwicklungsländern
    • Diagnose neu auftretender oder besonders seltener Tumorformen

    Darüber hinaus reduziert der Few-Shot-Ansatz die Abhängigkeit von kontinuierlicher manueller Nachpflege der Trainingsdaten, was den laufenden Betrieb eines solchen Systems erheblich erleichtern würde.

    Einschränkungen und offene Fragen

    Wie bei allen in der Forschung vorgestellten KI-Systemen gilt auch für PRET: Der Schritt von der Validierungsstudie zur regulierten klinischen Anwendung ist erheblich.

    Veröffentlichte Genauigkeitswerte aus kontrollierten Studienumgebungen lassen sich nicht direkt auf heterogene Praxisdaten übertragen.

    Europäische Zulassungsanforderungen – insbesondere unter der EU AI Act-Klassifizierung für Hochrisiko-KI-Systeme im Medizinbereich – verlangen umfangreiche Konformitätsbewertungen, Transparenznachweise und klinische Evidenz.

    Einordnung für deutsche Unternehmen

    Für Unternehmen aus der Medizintechnik, der digitalen Gesundheitsversorgung oder dem Bereich KI-gestützter Diagnostik ist PRET ein relevanter Forschungsimpuls: Der Few-Shot-Ansatz könnte mittelfristig den Einstiegsaufwand für KI-Lösungen in der Pathologie senken und neue Produktansätze ermöglichen – etwa für Nischenindikationen oder Märkte mit begrenzter Datenverfügbarkeit.

    Wer entsprechende Entwicklungen verfolgt, sollte frühzeitig die regulatorischen Anforderungen nach EU AI Act und MDR in die Produktplanung integrieren – dieser Prozess nimmt typischerweise mehrere Jahre in Anspruch.


    Quelle: Nature Cancer

  • KI-generierte Propaganda: Iran-USA-Konflikt als Testfeld für algorithmische Desinformation

    KI-generierte Propaganda: Iran-USA-Konflikt als Testfeld für algorithmische Desinformation

    Der Konflikt zwischen Iran und den USA hat eine neue Dimension erreicht: KI-generierte Videos, animierte Propaganda im Lego-Stil und algorithmisch produzierte Desinformation untergraben die Informationsintegrität in geopolitischen Krisen – mit weitreichenden Folgen für Unternehmen, Entscheider und die digitale Öffentlichkeit weltweit.

    KI-generierte Propaganda: Wie der Iran-USA-Konflikt zum Testfeld für algorithmische Desinformation wird

    Animierte Kriegspropaganda im Lego-Stil

    Unter den auffälligsten Beispielen dieser neuen Informationskriegsführung finden sich KI-generierte Videos, die politische Figuren in stilisierter Animationsästhetik – unter anderem im Lego-Format – zeigen. Diese Clips verbreiten sich über soziale Netzwerke, weil sie durch ihren scheinbar harmlosen visuellen Charakter niedrigschwellig wirken und Moderationsalgorithmen häufig umgehen. Ihre Botschaften sind dennoch gezielt politisch: Demütigung des Gegners, Stärkung der eigenen Basis, Verunsicherung des Publikums über die Echtheit von Ereignissen.

    Medienforscherinnen und -forscher sprechen in diesem Zusammenhang von sogenannter „Slopaganda” – einem Begriff, der minderwertig produzierte, aber massenhaft verteilte KI-Propaganda beschreibt.

    Die geringe Produktionsqualität ist dabei kein Fehler, sondern kalkuliert: Sie senkt die Einstiegshürde für staatliche und nicht-staatliche Akteure erheblich und erschwert die Zuordnung zu konkreten Urhebern.

    Geringe Produktionskosten, hohe Wirkung

    Was diese Form der Desinformation von klassischer Staatspropaganda unterscheidet, ist der Ressourcenaufwand. Während traditionelle Informationskampagnen erhebliche redaktionelle und technische Infrastruktur erforderten, lassen sich heute innerhalb weniger Stunden überzeugende Kurzvideos, gefälschte Nachrichtenanker oder manipulierte Szenen aus vermeintlichen Konfliktzonen produzieren. Text-zu-Video-Modelle wie Sora oder vergleichbare Systeme demokratisieren diese Fähigkeit – nicht nur für staatliche Propagandaapparate, sondern auch für einzelne Akteure mit politischen Motiven.

    Die iranischen und amerikanischen Beispiele zeigen zudem, dass diese Clips strategisch platziert werden: auf Plattformen mit schwachen Moderationskapazitäten für nicht-englische Inhalte, in geschlossenen Telegram-Gruppen oder über koordinierte Social-Media-Accounts, die organische Verbreitung simulieren.

    Deepfakes als neue Eskalationsstufe

    Jenseits von Satire und Meme-Kultur besteht die ernstere Gefahr in der gezielten Fabrikation von Ereignissen. Szenen aus angeblichen Militäroperationen, fiktive Erklärungen politischer Führungsfiguren oder manipulierte Aufnahmen aus Krisengebieten können – selbst bei schneller Richtigstellung – erheblichen Schaden anrichten.

    Studien zeigen konsistent: Falschinformationen verbreiten sich deutlich schneller als deren Korrekturen – und die bloße Erstkonfrontation mit einer Falschbehauptung schwächt deren spätere Widerlegung ab.

    Die technologische Entwicklung verschärft dieses Dilemma: Während Erkennungstools für KI-generierte Inhalte verbessert werden, schließen die Generierungsmodelle den Qualitätsabstand zu authentischem Material in immer kürzeren Entwicklungszyklen.

    Einordnung für deutsche Unternehmen und Entscheider

    Für Unternehmen mit internationaler Präsenz oder Lieferketten in geopolitisch exponierten Regionen ist diese Entwicklung unmittelbar relevant. Falschinformationen über Konfliktzonen können:

    • Rohstoffmärkte beeinflussen
    • Reputationsrisiken erzeugen
    • Geschäftspartner verunsichern und Entscheidungsprozesse verzerren

    Wer in Krisenregionen operiert, sollte Informationsquellen systematisch verifizieren und für interne Kommunikationsprozesse klare Protokolle zur Quellenprüfung etablieren.

    Medienkompetenz ist längst keine rein gesellschaftliche Aufgabe mehr – sie wird zum Bestandteil unternehmerischer Resilienz.


    Quelle: The Guardian – „Lego videos, Iran, Trump: AI video, meme propaganda and animation”