Es gibt verdammt viele von diesen elektronischen Spielzeugen. Tolle Funktionen, die Kids sind begeistert, die Hersteller auch - aber nicht nur wegen des Verkaufserlöses!
Viele dieser kleinen Biester (damit sind nicht die Kinder gemeint) melden brav zu Hause, was die Kids denn so tun. Bewegungsprofile, wann wird welche Entscheidung mit dem kleinen Biest getroffen usw.
Unternehmen behaupten oft, die gesammelten Daten würden ihnen helfen, ihre Geräte zu optimieren. Wozu die Daten noch dienen könnten, ist für Nutzerinnen und Nutzer aber kaum absehbar. «Begleit-Apps einiger Spielzeuge verlangen völlig unnötige Zugriffsrechte, wie etwa auf den Standort oder das Mikrophon des Smartphones», hält die Forscherin fest. Und das ChatGPT-Spielzeug, dessen Analyse derzeit noch läuft, sende einen Datenstrom, der nach Audiodaten aussehe. Vielleicht wolle das Unternehmen damit die Spracherkennung von Kinderstimmen optimieren, vermutet die Professorin für Cyber Security.
Bei den smarten Spielzeugen wird, wie so oft, nicht gerade gut mit Datenschutz umgegangen. Von Transparenz ganz zu schweigen. Mensch, wäre die heutige Zeit nicht ein Paradies für Stasi und Co?
Wir sehen jetzt schon Anzeichen für eine Zwei-Klassen-Gesellschaft beim Schutz der Privatsphäre von Kindern», so Feldbusch. «Gut informierte Eltern setzen sich damit auseinander und können Spielzeuge wählen, die keine Verhaltensprofile ihrer Kinder erstellen. Aber vielen fehlt das technische Vorwissen oder sie haben keine Zeit, sich vertieft damit auseinanderzusetzen.
Hier würde ich mich sogar so weit aus dem Fenster lehnen und von 3 Klassen sprechen. Es gibt nämlich mit Sicherheit auch Eltern, denen es nicht am technischen Vorwissen mangelt, die aber einfach nur froh sind, ihre Ruhe zu haben, oder?