Die Berliner Datenschutzbehörde hatte 2025 so viel zu tun wie nie zuvor. Bei Meike Kamp stapeln sich die Eingaben, und das nicht nur gefühlt. Von Januar bis einschließlich November gingen 8.436 Anliegen ein. Darunter 2.644 förmliche Beschwerden und 5.772 Beratungsanfragen von Bürgern, die wissen wollen, wie sie Auskunft, Löschung oder andere Datenschutzrechte durchsetzen können. Die Dezember-Zahlen fehlen noch. Trotzdem steht schon fest: Gegenüber 2024 ist das ein Plus von rund 50 Prozent.
Inhaltlich ist das wenig überraschend. Beschwerden häufen sich im Bank- und Finanzsektor, bei Inkassounternehmen, rund um verpflichtende Apps, Videoüberwachung und nach Identitätsdiebstählen. Datenschutz trifft hier auf Alltag - und verliert leider oft. Kamp sieht den Anstieg einerseits als Zeichen wachsender Sensibilisierung. Andererseits schreitet die Digitalisierung weiter voran, während die Kontrolle darüber nicht im gleichen Tempo mitwächst.
Ein zentraler Treiber ist ausgerechnet KI. Oder genauer: KI-Chatbots. Laut Kamp stammen immer mehr Eingaben offensichtlich aus KI-generierten Texten. Wer Chatbots fragt, wo man bei Datenschutzproblemen Hilfe bekommt, landet schnell bei der Berliner Behörde. Für die Sichtbarkeit ist das gut, für die Erwartungshaltung weniger. Denn KI liefert gern gleich die passende rechtliche Einschätzung mit - ob korrekt oder nicht.
Hier beginnt die Kehrseite der KI-Hilfe. Kamp warnt ausdrücklich davor, Chatbot-Antworten für bare Münze zu nehmen. In der Praxis stoßen ihre Mitarbeitenden immer wieder auf falsche rechtliche Bewertungen, unvollständige Darstellungen oder sogar frei erfundene Gerichtsurteile und Literaturhinweise. Juristische Halluzinationen sind kein theoretisches Problem mehr, sondern landen ganz real in Behördenpostfächern. Der Rat der Datenschutzbeauftragten ist entsprechend nüchtern: KI-Ergebnisse kritisch prüfen und nicht mit belastbarer Rechtsauskunft verwechseln.
Gleichzeitig ist KI selbst längst ein Datenschutzthema. Der Philosoph Rainer Mühlhoff beschreibt KI weniger als Werkzeug, sondern als Machtinstrument. Durch statistische Vorhersagen entstehe eine neue Form von „Vorhersagemacht“, die weit über klassische Datenschutzkonzepte hinausgeht. Es geht nicht mehr nur um gespeicherte Daten, sondern um das, was Systeme über Menschen ableiten, ohne dass diese es wissen oder kontrollieren können.
Wie konkret das wird, zeigt der Blick auf Meta. Die Juniorprofessorin Paulina Jo Pesch kritisiert, dass Meta den Widerspruch gegen die Nutzung persönlicher Daten fürs KI-Training absichtlich kompliziert gestaltet. Besonders problematisch: Auch Daten von Kindern und Jugendlichen fließen ein, weil Altersangaben in sozialen Netzwerken kaum verlässlich überprüft werden.
Datenschutz ist damit längst nicht mehr nur Abwehrrecht, sondern Reaktion auf eine wachsende Macht asymmetrischer Systeme. Dass immer mehr Menschen den Weg zur Datenschutzbehörde finden, ist kein Alarmismus. Es ist ein Symptom.
Kommentare (0)