Sprechende Puppen, lernende Roboter, empathische Figuren: KI-gestütztes Spielzeug erobert die Kinderzimmer – während Regulierungsbehörden, Eltern und Forscher noch nach Antworten suchen.
KI-gestütztes Spielzeug drängt auf den Markt – Sicherheitsfragen bleiben offen
Spielzeughersteller bringen zunehmend Produkte mit eingebetteten Large Language Models auf den Markt, die mit Kindern interagieren können – noch bevor Regulierungsbehörden klare Sicherheitsstandards definiert haben. Experten warnen vor erheblichen Risiken für Datenschutz und die psychische Entwicklung der jungen Nutzer.
Markt wächst schneller als Regulierung
Puppen, Roboter und interaktive Figuren mit KI-Funktionalität sind längst kein Nischenprodukt mehr. Hersteller in den USA, Asien und Europa bringen Geräte auf den Markt, die Spracheingaben von Kindern verarbeiten, darauf reagieren und dabei kontinuierlich Daten erfassen. Die Technologie verspricht personalisierte Lernerfahrungen und emotionale Interaktion – doch standardisierte Prüfverfahren für diese Produktkategorie existieren bislang kaum.
Sicherheitsbehörden und Verbraucherschutzorganisationen stoßen dabei an strukturelle Grenzen: Klassische Spielzeugprüfungen sind auf physische Gefahren wie Schadstoffe oder Verschluckrisiken ausgelegt. Ob ein Sprachmodell kindgerechte Inhalte liefert, keine manipulativen Kommunikationsmuster entwickelt oder Gesprächsdaten sicher verwahrt, lässt sich mit diesen Prüfrahmen nicht beurteilen.
Datenschutz als zentrales Problem
Besonders heikel ist die Datenfrage. KI-Spielzeug erfasst zwangsläufig Audiodaten von minderjährigen Nutzern. Wo diese Daten gespeichert werden, wie lange sie vorgehalten und ob sie für das Training weiterer Modelle verwendet werden, ist bei vielen Produkten nicht transparent geregelt.
In der Europäischen Union greift zwar die DSGVO, die für Kinder besondere Schutzstandards vorsieht – deren Durchsetzung bei international vertriebenen Hardwareprodukten bleibt jedoch komplex.
Hinzu kommen inhaltliche Risiken: Large Language Models können trotz Sicherheitsfiltern unangemessene Antworten generieren. Gerade bei jüngeren Kindern, die Aussagen einer vertraut wirkenden Spielzeugfigur anders gewichten als Informationen aus dem Internet, kann das erhebliche Auswirkungen haben.
Psychologische Dimensionen noch unerforscht
Forscher betonen, dass langfristige Auswirkungen auf die soziale und emotionale Entwicklung von Kindern durch intensive KI-Interaktion schlicht noch nicht untersucht sind.
Kinder können intensive parasoziale Bindungen zu interaktiven Figuren entwickeln. Ob und wie dies durch KI-gestützte Reaktionen beeinflusst wird, ist empirisch weitgehend ungeklärt.
Einige Hersteller arbeiten mit Kinderpsychologen zusammen und implementieren eigene Leitlinien – verbindliche Branchenstandards sind das jedoch nicht. Selbstregulierungsversprechen ersetzen keine unabhängige Überprüfung.
Regulatorischer Rahmen in Bewegung
In der EU bietet der AI Act perspektivisch Anknüpfungspunkte: Systeme, die mit Kindern interagieren, könnten als Hochrisiko-KI eingestuft werden und damit umfangreichen Konformitätsprüfungen unterliegen. Die konkrete Ausgestaltung dieser Anforderungen für Konsumprodukte ist jedoch noch nicht abgeschlossen. US-amerikanische Behörden diskutieren ähnliche Ansätze, ohne dass bisher verbindliche Regeln beschlossen wurden.
Für Unternehmen in der DACH-Region, die im Spielzeug- oder Edutainment-Segment tätig sind oder entsprechende Produkte beschaffen, ergibt sich daraus eine klare Handlungsempfehlung:
Wer KI-gestütztes Spielzeug entwickelt oder vertreibt, sollte frühzeitig auf Konformität mit dem europäischen AI Act vorbereiten – auch wenn die Fristen noch laufen.
Gleichzeitig lohnt es sich, bestehende DSGVO-Anforderungen für Minderjährige konsequent umzusetzen, bevor regulatorischer Druck entsteht. Der Markt wächst; der Rechtsrahmen wird folgen.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”

Leave a Reply