Category: wt

  • KI-System PRET erkennt Tumore ohne klassisches Beispiel-Training

    KI-System PRET erkennt Tumore ohne klassisches Beispiel-Training

    Ein internationales Forschungsteam hat mit PRET ein KI-System vorgestellt, das Krebsarten in medizinischen Bildaufnahmen erkennt – ohne klassisches Beispiel-Training. Die in Nature Cancer veröffentlichte Studie könnte die KI-gestützte Diagnostik grundlegend verändern, besonders dort, wo Daten knapp sind.

    KI-System PRET erkennt Tumore ohne klassisches Beispiel-Training

    Kernproblem: Datenmangel im klinischen Alltag

    Konventionelle KI-Modelle für die medizinische Bildanalyse setzen voraus, dass große Mengen annotierter Beispieldaten vorliegen – also Aufnahmen, die von Fachärzten bereits als krebsartig oder gesund klassifiziert wurden. Dieser Aufwand ist kostspielig, zeitintensiv und in vielen medizinischen Einrichtungen schlicht nicht leistbar. Besonders bei seltenen Krebsarten fehlen ausreichend Fallzahlen, um klassische Supervised-Learning-Modelle zuverlässig zu trainieren.

    Few-Shot-Ansatz als methodischer Unterschied

    PRET – das Akronym steht für einen Few-Shot-Ansatz zur pan-cancer Erkennung – arbeitet mit sogenanntem Few-Shot Learning. Das bedeutet: Das System benötigt nur wenige oder gar keine bezeichneten Beispiele einer bestimmten Krebsart, um diese dennoch zuverlässig zu erkennen.

    Statt auf tausende gelabelte Beispiele angewiesen zu sein, extrahiert PRET allgemeine visuelle und pathologische Muster aus großen, ungelabelten Datensätzen – ein paradigmatischer Bruch mit klassischen Trainingsansätzen.

    Das System wurde von Forschenden aus China, den USA und weiteren Institutionen entwickelt, darunter Teams der Harvard Medical School und mehrerer chinesischer Universitätskliniken. Es wurde auf einem breiten Spektrum von Tumorentitäten – daher “pan-cancer” – evaluiert und erzielte dabei Erkennungsleistungen, die mit klassisch trainierten Modellen vergleichbar oder überlegen waren.

    Praktische Konsequenzen für die Diagnostik

    Der methodische Ansatz adressiert ein strukturelles Problem der KI-gestützten Medizin: die Diskrepanz zwischen Forschungsergebnissen unter kontrollierten Bedingungen und der tatsächlichen Einsatzfähigkeit in klinischen Umgebungen.

    PRET könnte prinzipiell dort eingesetzt werden, wo keine großen institutionellen Datenpools existieren:

    • Kleinere Krankenhäuser ohne eigene Forschungsinfrastruktur
    • Medizinische Einrichtungen in Entwicklungsländern
    • Diagnose neu auftretender oder besonders seltener Tumorformen

    Darüber hinaus reduziert der Few-Shot-Ansatz die Abhängigkeit von kontinuierlicher manueller Nachpflege der Trainingsdaten, was den laufenden Betrieb eines solchen Systems erheblich erleichtern würde.

    Einschränkungen und offene Fragen

    Wie bei allen in der Forschung vorgestellten KI-Systemen gilt auch für PRET: Der Schritt von der Validierungsstudie zur regulierten klinischen Anwendung ist erheblich.

    Veröffentlichte Genauigkeitswerte aus kontrollierten Studienumgebungen lassen sich nicht direkt auf heterogene Praxisdaten übertragen.

    Europäische Zulassungsanforderungen – insbesondere unter der EU AI Act-Klassifizierung für Hochrisiko-KI-Systeme im Medizinbereich – verlangen umfangreiche Konformitätsbewertungen, Transparenznachweise und klinische Evidenz.

    Einordnung für deutsche Unternehmen

    Für Unternehmen aus der Medizintechnik, der digitalen Gesundheitsversorgung oder dem Bereich KI-gestützter Diagnostik ist PRET ein relevanter Forschungsimpuls: Der Few-Shot-Ansatz könnte mittelfristig den Einstiegsaufwand für KI-Lösungen in der Pathologie senken und neue Produktansätze ermöglichen – etwa für Nischenindikationen oder Märkte mit begrenzter Datenverfügbarkeit.

    Wer entsprechende Entwicklungen verfolgt, sollte frühzeitig die regulatorischen Anforderungen nach EU AI Act und MDR in die Produktplanung integrieren – dieser Prozess nimmt typischerweise mehrere Jahre in Anspruch.


    Quelle: Nature Cancer

  • KI-Modell überbrückt Sprachbarriere bei klinischen Daten aus den USA und Frankreich

    KI-Modell überbrückt Sprachbarriere bei klinischen Daten aus den USA und Frankreich

    Zum ersten Mal gelingt es einem KI-Modell, elektronische Patientendaten aus US-amerikanischen und französischen Kliniken gemeinsam auszuwerten – ohne Rohdaten zu übertragen, ohne Datenschutzregeln zu verletzen. Die Studie, erschienen in Nature Communications, könnte die internationale medizinische Forschung grundlegend neu ausrichten.

    KI-Modell überbrückt Sprachbarriere bei klinischen Daten aus den USA und Frankreich

    Unterschiedliche Systeme, ein gemeinsames Modell

    Elektronische Patientenakten – im Fachjargon Electronic Health Records (EHR) – sind in verschiedenen Ländern strukturell sehr unterschiedlich aufgebaut. In den USA dominieren Systeme wie Epic oder Cerner, die auf ICD-10-Codes und CPT-Prozedurschlüsseln basieren. Französische Kliniken arbeiten hingegen mit eigenen nationalen Klassifikationen sowie Dokumentation in französischer Sprache. Diese Heterogenität hat internationale Forschungskooperationen bislang erheblich erschwert.

    Das Forscherteam – bestehend aus Wissenschaftlern der Harvard Medical School, des Veterans Affairs Boston Healthcare System sowie mehrerer französischer Universitätskliniken – entwickelte ein sogenanntes Representation-Learning-Verfahren. Dabei werden Patientendaten aus beiden Ländern in einen gemeinsamen mathematischen Vektorraum überführt, der länderspezifische Unterschiede in der Kodierung und Sprache auflöst, ohne die Rohdaten zu übertragen.

    Technischer Ansatz ohne Datentransfer

    Besonders relevant ist der datenschutzkonforme Ansatz des Modells: Die eigentlichen Patientendaten verlassen zu keinem Zeitpunkt die jeweiligen Kliniksysteme. Stattdessen werden sogenannte Embeddings – komprimierte Darstellungen klinischer Konzepte – trainiert und ausgetauscht.

    Dieses Prinzip des Federated Learning gilt als vielversprechender Weg, um die strengen Datenschutzanforderungen sowohl der US-amerikanischen HIPAA-Regulierung als auch der europäischen DSGVO gleichzeitig einzuhalten.

    Das Modell wurde anhand mehrerer klinischer Anwendungsfälle validiert, darunter die Identifikation von Patienten mit Multipler Sklerose sowie rheumatoider Arthritis. In beiden Szenarien zeigte das gemeinsam trainierte Modell eine bessere Vorhersageleistung als Ansätze, die nur auf nationalen Daten basierten – ein Hinweis darauf, dass die Zusammenführung heterogener Datensätze die Generalisierbarkeit klinischer KI-Modelle verbessert.

    Methodische Blaupause für multi-institutionelle Studien

    Die Autoren betonen, dass es sich weniger um ein fertiges Produkt als um eine methodische Blaupause handelt. Das Framework soll künftigen Forschungskonsortien als Grundlage dienen, um EHR-Daten aus verschiedenen Ländern zu kombinieren, ohne dabei institutionelle oder regulatorische Grenzen zu verletzen. Die Studie ist im Open-Access-Format erschienen und stellt den Code öffentlich bereit.

    Limitierungen bleiben: Die Studie umfasst bislang nur zwei Länder mit vergleichsweise gut strukturierten Gesundheitsdatensystemen. Eine Ausweitung auf Länder mit fragmentierter Dateninfrastruktur – etwa in Teilen Südostasiens oder Subsahara-Afrikas – wäre methodisch deutlich anspruchsvoller.

    Einordnung für deutsche Unternehmen und Einrichtungen

    Für deutsche Krankenhäuser, Forschungseinrichtungen und HealthTech-Unternehmen ist die Studie aus mehreren Gründen relevant:

    • Sie zeigt einen praktikablen Weg, wie internationale Kooperationen unter DSGVO-Bedingungen technisch umsetzbar sind.
    • Das Representation-Learning-Framework liefert eine Grundlage für eigenständige Anwendungen im deutschen Gesundheitswesen – etwa im Kontext der NFDI4Health oder des geplanten European Health Data Space (EHDS).

    Unternehmen, die KI-gestützte Diagnostik oder klinische Entscheidungsunterstützung entwickeln, sollten diesen methodischen Ansatz als Referenzpunkt für regulatorisch konforme, grenzüberschreitende Modellentwicklung in Betracht ziehen.


    Quelle: Nature Communications

  • Google startet Offline-fähige KI-Diktat-App für iOS

    Google startet Offline-fähige KI-Diktat-App für iOS

    Google bringt eine neue Diktat-App für iOS auf den Markt, die auf lokaler KI-Verarbeitung basiert – ohne Internetzwang, ohne Cloud-Upload. Die stille Markteinführung könnte der Auftakt zu einem ernsthaften Angriff auf den wachsenden Markt für KI-gestützte Spracheingabe sein.

    Google startet Offline-fähige KI-Diktat-App für iOS

    Google hat eine neue Diktat-App für iOS veröffentlicht, die auf Basis von Gemma-KI-Modellen auch ohne Internetverbindung funktioniert. Der Launch erfolgte ohne größere Ankündigung – ein ungewöhnlicher Schritt für einen Konzern dieser Größe. Mit der App greift Google direkt den wachsenden Markt für KI-gestützte Spracheingabe-Werkzeuge an.


    Offline-Verarbeitung als zentrales Merkmal

    Das Besondere an der Anwendung liegt in ihrer Architektur: Die Spracherkennung und -verarbeitung läuft lokal auf dem Gerät, ohne dass Audiodaten an externe Server übertragen werden müssen. Grundlage dafür sind Googles Gemma-Modelle, die kompakt genug sind, um auf mobiler Hardware zu laufen.

    Damit positioniert sich Google in einem Segment, das bislang von Drittanbietern wie Wispr Flow dominiert wird – einer App, die bei professionellen Nutzern für ihre kontextsensitive Textkorrektur bekannt ist.


    Datenschutz als Verkaufsargument

    Die Offline-Verarbeitung hat unmittelbare Datenschutzimplikationen. Gesprochene Inhalte verlassen das Gerät nicht – was besonders in sensiblen beruflichen Umgebungen ein entscheidender Vorteil ist:

    • Rechtsbranche: Vertrauliche Mandantenkommunikation bleibt auf dem Gerät
    • Medizinbereich: Patientendaten unterliegen strengen Schutzanforderungen
    • DSGVO-Compliance: Gerade in Deutschland könnte das Merkmal die Akzeptanz in Unternehmensumgebungen deutlich erhöhen

    Cloud-basierte Diktierlösungen stehen häufig unter dem Vorbehalt, dass Sprachdaten auf Servern außerhalb der EU verarbeitet werden.


    Wettbewerb im Markt für Sprach-KI

    Der Markt für KI-gestützte Diktiersoftware entwickelt sich schnell. Neben Wispr Flow sind Tools wie Otter.ai, Microsoft-integrierte Lösungen und Apples eigene Diktierfunktion mit On-Device-Verarbeitung etabliert.

    Google tritt mit einer App an, die systemübergreifend funktioniert – also nicht auf eine bestimmte Anwendung wie Google Docs beschränkt ist. Ob die App auch auf Android erscheint oder ob eine Integration in bestehende Google-Produkte geplant ist, hat das Unternehmen bislang nicht kommuniziert.


    Stille Markteinführung als Strategie

    Der unauffällige Launch ohne Pressemitteilung oder Keynote-Präsentation deutet darauf hin, dass sich Google zunächst Nutzerfeedback sichern möchte, bevor eine breitere Vermarktung erfolgt.

    Dieses Vorgehen ist in der App-Entwicklung verbreitet – bei einem Konzern wie Google lässt es jedoch auf ein frühes Produktstadium schließen.


    Einschätzung für Unternehmen

    Für deutsche Unternehmen, die nach DSGVO-konformen Produktivitätslösungen suchen, ist Googles Ansatz mit lokaler KI-Verarbeitung grundsätzlich interessant. Entscheidend wird sein, ob Google transparente Informationen über Datenflüsse bereitstellt und die App über den US-Markt hinaus verfügbar macht.

    IT-Verantwortliche sollten die Entwicklung zunächst beobachten, bevor sie die Anwendung in unternehmenskritische Prozesse integrieren.


    Quelle: TechCrunch AI

  • Polymarket kündigt eigenen Stablecoin und überarbeitetes Orderbuch an

    Polymarket kündigt eigenen Stablecoin und überarbeitetes Orderbuch an

    Die Prognosemarktplattform Polymarket läutet mit einem eigenen Stablecoin und einem überarbeiteten Orderbuch eine neue Phase ein – und signalisiert damit klaren Kurs in Richtung institutioneller Nutzer und regulatorischer Glaubwürdigkeit.

    Polymarket kündigt eigenen Stablecoin und überarbeitetes Orderbuch an

    Polymarket plant eine umfassende technische Überarbeitung seiner Infrastruktur. Kernstück des Upgrades sind ein plattformeigener Stablecoin namens „Polymarket USD” sowie ein neu konzipiertes Orderbuch, das Nutzererfahrung und Liquidität verbessern soll.


    Eigener Stablecoin als strategischer Schritt

    Mit dem „Polymarket USD” führt die Plattform eine eigene stabile Währung ein, die an den US-Dollar gepegged ist. Bisher wickelten Nutzer ihre Transaktionen primär über USDC ab. Der neue Stablecoin soll enger in das Plattform-Ökosystem integriert sein und Transaktionen innerhalb der Prediction Markets vereinfachen. Details zur technischen Grundlage – etwa auf welcher Blockchain der Token ausgegeben wird – hat Polymarket bislang nicht vollständig offengelegt.

    Die Einführung eines plattformeigenen Stablecoins ist ein gängiger Schritt, um mehr Kontrolle über Nutzererlebnis und Liquiditätsströme zu gewinnen – und reduziert gleichzeitig die Abhängigkeit von externen Anbietern wie Circle, dem USDC-Emittenten.


    Orderbuch-Überarbeitung soll Tiefe und Präzision verbessern

    Parallel zum Stablecoin-Launch überarbeitet Polymarket sein Orderbuch grundlegend. Prediction Markets funktionieren traditionell anders als klassische Finanzmärkte: Statt kontinuierlicher Kauf- und Verkaufsaufträge für Wertpapiere werden hier Anteile an binären Ereignissen gehandelt.

    Ein verbessertes Orderbuch soll:

    • die Preisfindung effizienter gestalten
    • das Slippage-Problem bei größeren Trades reduzieren
    • präzisere Spreads für institutionelle Marktteilnehmer ermöglichen

    Polymarket positioniert sich damit gezielt für eine Nutzerbasis, die über den Privatanwender hinausgeht – größere Marktteilnehmer, die die Plattform zur Risikoabsicherung oder Informationsgewinnung nutzen, profitieren von tieferen Märkten.


    Wachstum nach US-Wahlzyklus konsolidieren

    Polymarket hatte im Umfeld der US-Präsidentschaftswahl 2024 erheblichen Zulauf verzeichnet. Rekordhandelsvolumina machten die Plattform einem breiten Mainstream-Publikum bekannt. Die jetzt angekündigten Infrastrukturmaßnahmen lassen sich als Versuch einordnen, dieses Wachstum technisch zu untermauern und das Nutzerniveau dauerhaft zu stabilisieren.

    Ein verbessertes, transparenteres Marktdesign könnte auch als Argument gegenüber Aufsichtsbehörden dienen – Polymarket operiert in den USA weiterhin in einer rechtlichen Grauzone.


    Einordnung für deutsche Unternehmen

    Für deutschsprachige Entscheider sind Prediction Markets zunehmend als Instrument zur strukturierten Informationsgewinnung relevant – etwa zur Einschätzung von Regulierungsrisiken, geopolitischen Entwicklungen oder Technologietrends. Die technische Reife der Plattformen bestimmt maßgeblich, ob diese Märkte als seriöse Datenquelle nutzbar sind.

    Die angekündigten Maßnahmen deuten darauf hin, dass Polymarket mittelfristig auch professionelle und institutionelle Nutzer ansprechen will – ein Segment, das in Europa bislang kaum erschlossen ist.


    Quelle: Decrypt

  • KI-generierte Propaganda im Iran-USA-Konflikt: Deepfakes und Memes als geopolitisches Werkzeug

    KI-generierte Propaganda im Iran-USA-Konflikt: Deepfakes und Memes als geopolitisches Werkzeug

    Zwischen harmlosen Memes und gezielter Meinungsmache verschwimmen im Iran-USA-Konflikt die Grenzen: KI-generierte Deepfakes und virale Animationen werden zunehmend als Werkzeuge der geopolitischen Einflussnahme eingesetzt – und die technische Hürde dafür ist erschreckend niedrig.

    KI-generierte Propaganda im Iran-USA-Konflikt: Deepfakes und Memes als geopolitisches Werkzeug

    Inmitten der eskalierenden Spannungen zwischen den USA und dem Iran werden vermehrt KI-generierte Videos, Animationen und Memes als Mittel der Einflussnahme eingesetzt. Der Einsatz reicht von humoristischen Lego-Animationen bis hin zu täuschend echten Deepfakes – und zeigt, wie niedrig die technische Einstiegshürde für staatlich oder privat motivierte Desinformationskampagnen inzwischen ist.


    Vom Meme zur gezielten Meinungsmache

    Was auf den ersten Blick wie harmlose Internet-Kultur wirkt, erfüllt in geopolitischen Konflikten eine strategische Funktion. KI-generierte Kurzvideos und Animationen – darunter Clips im Stil bekannter Spielzeugmarken oder populärer Filmästhetiken – verbreiten sich auf Plattformen wie X, TikTok und Telegram mit erheblicher Reichweite. Die Inhalte werden gezielt so gestaltet, dass sie algorithmisch bevorzugt werden: kurz, emotional aufgeladen und visuell eingängig.

    Im Kontext des Iran-USA-Konflikts dokumentieren Medienforscher eine Zunahme solcher Inhalte auf beiden Seiten. Dabei ist die Urheberschaft oft bewusst verschleiert – ein Merkmal, das KI-Werkzeuge durch ihre Zugänglichkeit noch weiter vereinfachen.

    Tools zur Videogenerierung, die vor zwei Jahren noch Spezialkenntnisse erforderten, sind heute per Prompt bedienbar.


    Technische Niedrigschwelligkeit als strukturelles Problem

    Die eigentliche Verschiebung liegt nicht in der Existenz von Propaganda – die ist so alt wie politische Konflikte selbst – sondern in ihrer Skalierbarkeit und Geschwindigkeit. Einzelne Akteure oder kleine Gruppen können heute in kurzer Zeit eine Vielzahl überzeugend wirkender audiovisueller Inhalte produzieren, die früher aufwendige Produktionsmittel erfordert hätten.

    Deepfake-Technologie erlaubt dabei die Manipulation realer Aussagen von Politikern oder Militärs. Gleichzeitig entstehen vollständig synthetische Szenarien, die in ihrer Ästhetik an Nachrichtenformate angelehnt sind und so den Anschein von Authentizität erzeugen.

    Für Nutzer ohne Medienkompetenz oder technisches Hintergrundwissen ist die Unterscheidung zwischen echten und gefälschten Inhalten zunehmend schwierig.


    Plattformen und Regulierung unter Druck

    Soziale Netzwerke stehen vor der Herausforderung, KI-generierte Inhalte zuverlässig zu kennzeichnen und gegebenenfalls zu entfernen. Die Mechanismen zur Erkennung synthetischer Medien – sogenannte Content Provenance Standards wie C2PA – sind zwar technisch vorhanden, aber in der Praxis noch nicht flächendeckend implementiert. Hinzu kommt, dass die Urheber gezielt Maßnahmen ergreifen, um Erkennungssysteme zu umgehen.

    Regulatorisch befindet sich Europa mit dem AI Act und dem Digital Services Act in einer vergleichsweise fortgeschrittenen Position, doch die grenzüberschreitende Natur von Desinformationskampagnen begrenzt die Wirksamkeit nationaler oder regionaler Gesetzgebung erheblich.


    Einordnung für deutsche Unternehmen

    Für Unternehmen in Deutschland ist der geopolitische Kontext nicht abstrakt. Wer internationale Märkte bedient, Lieferketten in Krisenregionen hat oder mit Markenimage in sozialen Medien arbeitet, ist von KI-generierten Desinformationskampagnen potenziell direkt betroffen.

    Konkrete Risiken umfassen:
    Gefälschte Aussagen von Führungskräften
    Manipulierte Produktvideos
    Synthetische Krisen-PR, die die Unternehmensreputation nachhaltig beschädigen kann

    Der Aufbau interner Medienkompetenz, die Beobachtung relevanter Kanäle und die Implementierung von Authentifizierungsstandards für offizielle Kommunikation werden damit zu konkreten Governance-Aufgaben – weit über die IT-Abteilung hinaus.


    Quelle: The Guardian – Lego videos, Iran, Trump, AI propaganda and animation

  • Google-Datenschutz-Vergleich: 135 Millionen Dollar für Android-Nutzer

    Google-Datenschutz-Vergleich: 135 Millionen Dollar für Android-Nutzer

    Ein US-Gericht hat ein Settlement in Höhe von 135 Millionen Dollar gegen Google genehmigt. Betroffene Android-Nutzer können seit kurzem Ansprüche über eine offizielle Webseite geltend machen – doch die Frist läuft. Was steckt hinter dem Fall, wer profitiert, und was bedeutet das für Unternehmen diesseits des Atlantiks?

    Google-Datenschutz-Settlement: 135 Millionen Dollar für Android-Nutzer

    Worum geht es in dem Verfahren?

    Der Sammelklage liegt der Vorwurf zugrunde, dass Google über Android-Geräte ohne ausreichende Einwilligung Standort- und Gerätedaten der Nutzer erfasst und weitergegeben hat. Konkret geht es um Daten, die über den sogenannten „Location History”-Dienst sowie weitere Tracking-Mechanismen erhoben wurden – auch dann, wenn Nutzer die Standortfreigabe deaktiviert hatten.

    Google bestreitet die Vorwürfe, hat sich aber auf das Settlement eingelassen, um ein langwieriges Gerichtsverfahren zu vermeiden.


    Wer ist anspruchsberechtigt?

    Anspruchsberechtigt sind grundsätzlich US-amerikanische Nutzer, die in einem bestimmten Zeitraum ein Android-Gerät verwendet haben und ein Google-Konto besaßen. Da es sich um ein US-Settlement handelt, sind europäische und damit auch deutsche Nutzer von dieser konkreten Zahlung ausgeschlossen.

    Personen mit US-Wohnsitz oder einem US-amerikanischen Google-Konto im betreffenden Zeitraum sollten prüfen, ob sie einen Anspruch stellen können. Die Anmeldefrist über die offizielle Settlement-Webseite ist begrenzt.


    Wie hoch sind die Auszahlungen?

    Die individuelle Auszahlung hängt von der Anzahl der eingereichten Ansprüche ab. Bei Sammelklagen dieser Größenordnung sind die Pro-Kopf-Beträge erfahrungsgemäß überschaubar – häufig im einstelligen bis niedrigen zweistelligen Dollar-Bereich. Der Großteil der Summe fließt zudem in Anwaltskosten.

    Dennoch empfiehlt sich eine Anmeldung für Berechtigte, da kein aufwendiger Nachweis erforderlich ist.


    Was bedeutet das für Datenschutz und Compliance in Europa?

    Obwohl das Settlement ausschließlich US-Nutzer betrifft, hat der Fall eine mittelbare Relevanz für europäische Unternehmen. Er zeigt exemplarisch, welche finanziellen Folgen aus unzureichend dokumentierten Einwilligungsverfahren und intransparentem Datentracking entstehen können.

    In der EU greifen dieselben Grundprinzipien bereits über die Datenschutz-Grundverordnung (DSGVO): Ortsdaten gelten als besonders sensible Kategorie, und das Erheben solcher Informationen ohne eindeutige Rechtsgrundlage kann zu empfindlichen Bußgeldern führen.

    Europäische Datenschutzbehörden haben Google in der Vergangenheit bereits mehrfach wegen ähnlicher Praktiken sanktioniert – unter anderem die französische CNIL mit Bußgeldern in dreistelliger Millionenhöhe.

    Das US-Settlement unterstreicht, dass Tracking-Infrastrukturen auch für Unternehmen außerhalb des Silicon Valley ein regulatorisches Risiko darstellen, sofern vergleichbare Datenerhebungspraktiken ohne transparente Einwilligungsmechanismen betrieben werden.


    Einordnung für deutsche Unternehmen

    Für Unternehmen in Deutschland, die eigene Apps oder Tracking-Dienste auf Android- oder iOS-Plattformen betreiben, liefert dieser Fall einen weiteren Anlass zur Überprüfung der eigenen Consent-Management-Prozesse. Dabei gilt:

    • Standortdaten dürfen nur mit expliziter, granularer Einwilligung erhoben werden
    • Die Einwilligung muss widerrufbar, dokumentiert und zweckgebunden sein
    • Beim Einsatz externer SDKs oder Analysetools von Drittanbietern ist DSGVO-konforme Konfiguration Pflicht

    Ein internes Audit der genutzten Datenerhebungstools ist vor dem Hintergrund zunehmender Aufsichtsaktivität kein optionaler, sondern ein gebotener Schritt.


    Quelle: CNET – Google Android Data Harvesting Settlement

  • Google Maps: Gemini übernimmt künftig die Bildbeschriftung

    Google Maps: Gemini übernimmt künftig die Bildbeschriftung

    Google integriert sein KI-Modell Gemini in Google Maps – und macht damit das Beschriften von Fotos zum Kinderspiel. Was nach einem kleinen Feature-Update klingt, ist Teil einer größeren Strategie, die den Umgang mit nutzergenerierten Ortsdaten grundlegend verändern könnte.

    Google Maps: Gemini übernimmt künftig die Bildbeschriftung

    Google stattet Maps mit einer KI-gestützten Beschriftungsfunktion aus, die auf dem hauseigenen Large Language Model Gemini basiert. Nutzer, die Fotos oder Videos zu einem Ort teilen möchten, erhalten künftig automatisch generierte Captions – ein Update, das die Pflege von Ortsdaten niedrigschwelliger machen soll.

    Automatische Captions beim Foto-Upload

    Konkret greift die neue Funktion an dem Punkt ein, an dem Nutzer bislang manuell einen beschreibenden Text eingeben mussten. Sobald ein Foto oder Video in Google Maps hochgeladen wird, analysiert Gemini den Inhalt und schlägt eine passende Bildunterschrift vor. Der Nutzer kann den Vorschlag übernehmen, anpassen oder verwerfen.

    Google positioniert das Feature als Erleichterung für alle, die lokales Wissen zur Plattform beitragen möchten, aber den redaktionellen Aufwand scheuen.

    Das Roll-out ist Teil eines breiteren Pakets an Neuerungen, mit dem Google die Datenbasis in Maps ausbauen will. Nutzergenerierte Inhalte – Fotos, Bewertungen, Korrekturen – gelten als wesentlicher Qualitätsfaktor für Kartenplattformen, da sie offizielle Datensätze aktuell halten und mit praktischen Details anreichern.

    Gemini tiefer in Google-Produkte integriert

    Der Schritt steht exemplarisch für Googles übergeordnete Strategie, Gemini schrittweise in das gesamte Produktportfolio einzubetten. In den vergangenen Monaten hat das Unternehmen das Modell bereits in Gmail, Docs, Search und Android verankert. Maps ist damit ein weiterer Berührungspunkt, an dem Nutzer mit KI-generierten Vorschlägen in Kontakt kommen – ohne die Kernfunktion der Anwendung zu verlassen.

    Für die Qualitätssicherung bleibt der Mensch vorerst im Loop: Die generierten Beschriftungen werden nicht automatisch veröffentlicht, sondern müssen vom jeweiligen Nutzer bestätigt werden.

    Google vermeidet damit zumindest in diesem Feature das Problem unkontrolliert veröffentlichter KI-Fehler in öffentlichen Ortsdaten.

    Relevanz für Unternehmen mit lokalem Standortbezug

    Für Unternehmen, die ihren Google-Maps-Eintrag aktiv pflegen – vom Einzelhandel über Gastronomie bis hin zu Dienstleistern mit mehreren Standorten – dürfte das Update den Pflegeaufwand spürbar reduzieren. Wer bislang Mitarbeiter damit beauftragt hat, regelmäßig Fotos mit konsistenten Beschreibungen hochzuladen, kann diesen Schritt künftig teilweise delegieren.

    Gleichzeitig bleibt Sorgfalt geboten: KI-generierte Captions sollten vor der Veröffentlichung geprüft werden, um Markenbotschaft und faktische Korrektheit sicherzustellen. Für größere Unternehmen mit vielen Standorten lohnt es sich, entsprechende Freigabeprozesse bereits jetzt anzupassen.


    Quelle: TechCrunch AI

  • XRP-ETFs verzeichnen höhere Kapitalzuflüsse als Bitcoin-Produkte

    XRP-ETFs verzeichnen höhere Kapitalzuflüsse als Bitcoin-Produkte

    Überraschende Trendumkehr am Krypto-Fondsmarkt: In einer Woche, die eigentlich Bitcoin gehören sollte, setzen sich XRP-basierte ETFs an die Spitze der Kapitalzuflüsse – und signalisieren damit einen möglichen Strukturwandel im institutionellen Krypto-Engagement.

    XRP-ETFs ziehen mehr Kapital an als Bitcoin-Produkte

    Trendwechsel bei den Kapitalzuflüssen

    Üblicherweise gibt Bitcoin den Takt vor, wenn es um Investoreninteresse an Krypto-Fonds geht. In der vergangenen Woche verlief die Entwicklung jedoch anders: XRP-ETFs verzeichneten die stärksten Zuflüsse im Vergleich zu Bitcoin-Produkten und trieben damit die Gesamtbilanz der Krypto-Fondszuflüsse in den positiven Bereich.

    Nach einer Periode mit Nettoabflüssen markiert das eine spürbare Stimmungsverschiebung unter institutionellen und semi-institutionellen Anlegern.

    XRP gewinnt an institutioneller Akzeptanz

    Das gestiegene Interesse an XRP-ETFs dürfte nicht losgelöst von der regulatorischen Entwicklung in den USA zu betrachten sein. Nachdem die US-Wertpapieraufsicht SEC ihre langjährige Auseinandersetzung mit Ripple Labs beigelegt hat, sind Hürden für entsprechende Finanzprodukte deutlich gesunken. Emittenten hatten daraufhin XRP-basierte ETFs auf den Markt gebracht, die nun offenbar Zuspruch bei einer breiteren Anlegergruppe finden.

    Bitcoin-ETFs, die in den USA seit Anfang 2024 zugelassen sind, blieben in dieser Woche hinter den XRP-Produkten zurück – wenngleich sie nach wie vor das insgesamt deutlich höhere verwaltete Vermögen auf sich vereinen.

    Breites Bild: Ethereum und Solana im Schatten

    Neben XRP und Bitcoin flossen auch Mittel in Ethereum– und Solana-basierte Produkte, wenn auch in geringerem Umfang. Die Woche zeigt damit, dass sich der Markt für Krypto-Fonds zunehmend diversifiziert.

    Anleger setzen nicht länger ausschließlich auf den Marktführer Bitcoin, sondern streuen ihr Engagement gezielt auf verschiedene Token mit unterschiedlichen Anwendungsfeldern.

    XRP adressiert dabei primär den grenzüberschreitenden Zahlungsverkehr – ein Segment, das für Finanzinstitutionen und Unternehmen mit internationalem Geschäft besonders relevant ist.

    Volatilität bleibt strukturelles Merkmal

    Trotz der positiven Wochenbilanz bleibt der Kontext zu beachten: Der Krypto-Markt hatte zuvor eine deutlich schwächere Phase durchlaufen. Ein Wochenwert allein sagt wenig über nachhaltige Trendverschiebungen aus. Die Schwankungsbreite bei Krypto-Assets bleibt erheblich höher als bei klassischen Anlageklassen, was die Eignung für konservative institutionelle Portfolios einschränkt.

    Dennoch zeigt die Erholung der Fondszuflüsse, dass das institutionelle Interesse an regulierten Krypto-Produkten strukturell vorhanden ist – auch wenn es sich kurzfristig schnell zurückziehen kann.

    Einordnung für deutsche Unternehmen

    Für deutsche Finanzentscheider und Unternehmen mit Interesse an digitalen Assets sind regulierte ETF-Strukturen der praktikabelste Zugang zum Krypto-Markt – sowohl aus Compliance- als auch aus Verwahrungs-Perspektive. Die wachsende Produktvielfalt jenseits von Bitcoin-ETFs eröffnet differenziertere Positionierungen, etwa mit Blick auf XRP im Kontext von Zahlungsinfrastruktur.

    Gleichwohl sollten Verantwortliche die hohe Volatilität und die noch begrenzte regulatorische Reife dieser Produktkategorie in ihre Risikoüberlegungen einbeziehen. Die europäische MiCA-Regulierung schafft zwar zunehmend Klarheit, doch der Markt für Krypto-ETFs bleibt stark von US-amerikanischen Zulassungsentscheidungen abhängig.


    Quelle: Decrypt AI

  • CME Group weitet Krypto-Futures auf Avalanche und Sui aus

    CME Group weitet Krypto-Futures auf Avalanche und Sui aus

    Die CME Group bringt regulierte Futures-Kontrakte auf Avalanche (AVAX) und Sui – und läutet damit gleichzeitig das Zeitalter des 24/7-Derivatehandels an traditionellen Terminbörsen ein. Ein Signal, dass der institutionelle Krypto-Markt reift.

    CME Group weitet Krypto-Futures auf Avalanche und Sui aus

    Die Chicago Mercantile Exchange (CME Group) plant, ihr Angebot an Krypto-Derivaten im Mai 2026 um Futures-Kontrakte auf die Blockchain-Protokolle Avalanche (AVAX) und Sui auszuweiten. Der Schritt fällt in eine Phase, in der die Börse gleichzeitig einen Wechsel zu einem 24/7-Handelsmodell für Krypto-Derivate vorbereitet.


    Erweiterung des Produktportfolios

    Mit Avalanche und Sui ergänzt die CME Group ihr bestehendes Krypto-Derivate-Angebot, das bereits Futures auf Bitcoin, Ether, XRP und weitere Protokolle umfasst. Die neuen Kontrakte sollen regulierten institutionellen Marktteilnehmern – darunter Hedgefonds, Asset Manager und Handelsgesellschaften – eine standardisierte Möglichkeit bieten, Positionen in diesen Netzwerken abzusichern oder direktional einzugehen, ohne die zugrunde liegenden Token direkt zu halten.

    Avalanche ist vor allem durch seine schnelle Transaktionsverarbeitung und seine Architektur aus sogenannten Subnets bekannt, die individuelle Blockchain-Umgebungen ermöglichen.

    Sui, ein neueres Layer-1-Protokoll auf Basis der Move-Programmiersprache, hat in den vergangenen Monaten an Aufmerksamkeit gewonnen und verfügt über eine wachsende Entwickler-Community.


    Rund-um-die-Uhr-Handel als strukturelle Verschiebung

    Parallel zur Produkterweiterung bereitet die CME Group den Übergang zu einem durchgehenden Handelsbetrieb vor. Traditionelle Terminbörsen operieren innerhalb fester Handelszeiten, die sich historisch an den Öffnungszeiten der jeweiligen Kassabörsen orientieren. Kryptomärkte hingegen handeln rund um die Uhr, sieben Tage die Woche – ein struktureller Unterschied, der bislang zu Liquiditätslücken und erhöhter Preisvolatilität bei Markteröffnungen führte.

    Ein 24/7-Derivatehandel an einer regulierten Terminbörse würde diesen Unterschied erheblich reduzieren und institutionellen Marktteilnehmern ein kontinuierliches Absicherungsinstrument bieten.

    Für Market Maker und Arbitrageure würde sich damit auch das Risiko unerwünschter Preissprünge zwischen Handelsschluss und -eröffnung verringern.


    Institutionelle Nachfrage als Treiber

    Der Ausbau des CME-Krypto-Angebots reflektiert eine anhaltende Nachfrage institutioneller Investoren nach regulierten Zugangswegen zu digitalen Assets. Während Bitcoin und Ether durch Spot-ETFs in den USA mittlerweile breiter zugänglich sind, bieten Futures an regulierten Börsen zusätzliche Instrumente zur Risikosteuerung – insbesondere für Marktteilnehmer, die regulatorischen oder internen Beschränkungen beim Direkterwerb digitaler Assets unterliegen.

    Die Aufnahme von Avalanche und Sui signalisiert zudem, dass der Markt für regulierte Krypto-Derivate über die etablierten Leitassets hinauswächst. Ob für diese Kontrakte eine ausreichende Liquidität aufgebaut werden kann, wird entscheidend von der Beteiligung professioneller Market Maker abhängen.


    Einordnung für deutsche Unternehmen

    Für deutsche Finanzinstitute, Asset Manager und Unternehmensschatzmeister, die Krypto-Exposures im Blick behalten oder regulatorisch geforderte Absicherungsstrategien umsetzen müssen, erweitert das CME-Angebot den Werkzeugkasten.

    Futures an einer regulierten US-Terminbörse gelten in vielen institutionellen Rahmenwerken als akzeptablere Instrumente als der Direktkauf von Token.

    Die geplante Einführung des 24/7-Handels könnte zudem die Synchronisierung mit globalen Marktbewegungen verbessern – ein praktischer Vorteil für europäische Marktteilnehmer, die bislang über zeitzonenbedingte Lücken im Hedging-Prozess klagen.


    Quelle: Decrypt

  • Milla Jovovich bringt KI-gestütztes Gedächtnistool MemPalace auf den Markt

    Milla Jovovich bringt KI-gestütztes Gedächtnistool MemPalace auf den Markt

    Hollywoodstar Milla Jovovich wagt den Schritt in die KI-Welt: Mit MemPalace verbindet sie eine jahrtausendealte Gedächtnistechnik mit moderner Large-Language-Model-Technologie – und betritt damit einen der dynamischsten Märkte der Tech-Branche.

    Milla Jovovich bringt KI-gestütztes Gedächtnistool MemPalace auf den Markt

    Schauspielerin Milla Jovovich, bekannt aus „The Fifth Element” und der „Resident Evil”-Reihe, hat ein KI-Projekt namens MemPalace vorgestellt. Das Tool soll digitales Wissensmanagement auf Basis der antiken Methode des „Memory Palace” ermöglichen – einer mnemonischen Technik, die seit der Antike zur strukturierten Informationsspeicherung eingesetzt wird.


    Antike Methode trifft auf Large Language Models

    Das Konzept hinter MemPalace greift auf die sogenannte „Method of Loci” zurück – eine Gedächtnistechnik, bei der Informationen gedanklich an räumlichen Positionen in einem vorgestellten Gebäude oder Ort verankert werden. MemPalace überträgt dieses Prinzip in eine KI-gestützte Umgebung: Nutzer sollen Wissen strukturiert ablegen, verknüpfen und bei Bedarf wieder abrufen können.

    Technologisch setzt das Projekt laut verfügbaren Angaben auf Claude, das Large Language Model des US-amerikanischen KI-Unternehmens Anthropic.

    Jovovich tritt dabei nicht als reine Markenbotschafterin auf, sondern ist nach eigenen Angaben inhaltlich in die Entwicklung eingebunden. Details zur genauen technischen Architektur oder zum Entwicklungsteam hinter MemPalace wurden bislang nicht vollständig offengelegt.


    Wissensmanagement als wachsender KI-Markt

    MemPalace betritt einen Markt, der in den vergangenen Monaten erheblich an Dynamik gewonnen hat. Zahlreiche Startups und etablierte Softwareanbieter arbeiten an sogenannten „Personal Knowledge Management”-Lösungen (PKM), die KI-Modelle nutzen, um Notizen, Dokumente und Informationsfragmente intelligent zu verknüpfen. Tools wie Notion AI, Obsidian mit KI-Plugins oder spezialisierte Angebote wie Mem.ai bewegen sich in einem ähnlichen Segment.

    Der Differenzierungsansatz von MemPalace liegt offenbar in der stärker strukturierten, räumlich-assoziativen Darstellung von Wissensinhalten – ein Ansatz, der sich von reinen Chatbot-Interfaces oder klassischen Dokumentenmanagementsystemen abhebt.

    Inwiefern dies in der Praxis einen messbaren Mehrwert gegenüber bestehenden Lösungen bietet, lässt sich zum jetzigen Zeitpunkt noch nicht abschließend beurteilen.


    Prominenz als Kommunikationsstrategie

    Der Launch von MemPalace folgt einem Muster, das in der KI-Branche zunehmend zu beobachten ist: Bekannte Persönlichkeiten aus Kultur und Unterhaltung positionieren sich als Mitgründer oder Gesichter von KI-Produkten, um in einem gesättigten Markt Aufmerksamkeit zu erzeugen.

    Während Prominenz die Reichweite in der Frühphase erhöhen kann, bleibt die Substanz des Produkts entscheidend für die langfristige Akzeptanz – insbesondere im professionellen Umfeld.


    Einordnung für deutsche Unternehmen

    Für Unternehmen im deutschsprachigen Raum, die nach KI-gestützten Lösungen für internes Wissensmanagement suchen, ist MemPalace derzeit eher ein Signal für die Marktrichtung als eine unmittelbar einsatzreife Option. Die Kombination aus strukturierter Wissensarchitektur und Large Language Models ist ein vielversprechender Ansatz.

    Entsprechende Lösungen sollten jedoch vor einer Einführung im geschäftlichen Kontext geprüft werden auf:

    • DSGVO-Konformität und Datenschutzanforderungen
    • Integrationsfähigkeit in bestehende Systemlandschaften
    • Produktreife und langfristige Entwicklungs-Roadmap

    Quelle: Decrypt AI – „Fifth Element star Milla Jovovich launches AI tool MemPalace”