Das Leipziger Trugbild: Wie das Bundesverwaltungsgericht den Rundfunkbeitrag immunisiert

Ein Kommentar von Ass. iur. Marcus Seyfarth, LL.M. Wer die heutige Entscheidung des Bundesverwaltungsgerichts zum Rundfunkbeitrag ( BVerwG, Urteil vom 15. Oktober 2025 - 6 C 5.24 ) mit dem gebotenen juristischen Scharfsinn analysiert, wird Zeuge eines Lehrstücks über die Diskrepanz zwischen formellem Recht und materieller Gerechtigkeit. Auf den ersten Blick scheint das Urteil einen lange überfälligen Sieg für den mündigen Bürger darzustellen, einen Paukenschlag gegen die administrative Bequemlichkeit, mit der die Beitragspflicht bisher durchgesetzt wurde. Das Gericht bestätigt in aller Deutlichkeit, was das Bundesverfassungsgericht bereits vorgezeichnet hat: Die Legitimität des Beitrags speist sich nicht aus der bloßen technischen Möglichkeit des Empfangs, sondern aus dem qualitativen Wert der angebotenen Gegenleistung – einem Programm, das den verfassungsrechtlich verankerten Geboten von Vielfalt und Ausgewogenheit genügt. Doch dieser scheinbare Triumph des Rechtsstaats entpuppt sich ...

Lüritz-Parchwigslust-Test (LPT) - Fall 1 - Die Überwachungskameras von Lüritz - Antwort 2

Zur Erinnerung: Wir haben Gemini-Exp-1206, eine führende Version von Googles KI-Modellen, am 06.01.2025 auf die juristische Probe gestellt. Über die KI-Plattform lmarena.ai ließen wir das KI-Modell mit den Parametern Temperatur 0,7 und Top P 0,7 zur Beantwortung antreten. 

Die Parameter "Temperatur" und "Top P" steuern die Zufälligkeit und Vorhersehbarkeit bei der Textgenerierung. Die Temperatur, hier auf 0,7 eingestellt, fungiert als Kreativitätsregler: Höhere Werte fördern ungewöhnlichere Wortwahlen, niedrigere Werte führen zu konservativeren Ergebnissen. Ein Wert von 0,7 bietet einen Mittelweg zwischen Kreativität und Vorhersehbarkeit. Top P, ebenfalls auf 0,7 gesetzt, wirkt als Fokusregler und bestimmt den Anteil der wahrscheinlichsten Wörter, die das Modell berücksichtigt. Hier werden nur jene Wörter in Betracht gezogen, die zusammen 70% der Wahrscheinlichkeitsmasse ausmachen. Zusammen ermöglichen diese Einstellungen eine ausgewogene Antwortqualität, die sowohl Kreativität als auch Kohärenz gewährleistet.

Das KI-Modell wurde zunächst mit dem Sachverhalt konfrontiert und durfte jede Frage einzelnd bis zur maximalen Output-Token-Grenze von 4096 seine Antwort ausformulieren. So wollten wir herausfinden, wie weit die KI im juristischen Diskurs gehen kann. Denn je mehr Output Token zur Verfügung stehen, umso detaillierter fallen die Antworten aus. Beurteilen Sie selbst, wie gut sie das Ergebnis halten. Die Antwort gilt als Referenzwert für zukünftige Forschungen.

Antwort zu Frage 2 des 1. Falls des LPT (Lüritz-Parchwigslust-Test)

Frage 2: Welche datenschutzrechtlichen Bedenken bestehen gegen den Einsatz der Gesichtserkennungssoftware der "Fischkopp-IT GmbH"? Gehen Sie insbesondere auf die Problematik der Trefferquote, der Datenbank "polizeibekannter Straftäter" und das Risiko der Diskriminierung (z.B. bei sonnengebräunter Haut) ein.

Antwort:

Der Einsatz der Gesichtserkennungssoftware der "Fischkopp-IT GmbH" wirft eine Reihe schwerwiegender datenschutzrechtlicher Bedenken auf. Diese ergeben sich insbesondere aus der unklaren und wahrscheinlich unzureichenden Trefferquote der Software, der problematischen Datenbank "polizeibekannter Straftäter" sowie dem inhärenten Risiko der Diskriminierung aufgrund der ethnischen Herkunft oder anderer Merkmale.

1. Trefferquote und "False Positives":

* Die von Frau Dr. Aalglatt, der Geschäftsführerin der "Fischkopp-IT GmbH", angegebene Trefferquote von 97% ist mit erheblichen Zweifeln behaftet. Sie wird weder durch unabhängige Tests bestätigt noch entspricht sie den in Fachkreisen, wie dem Chaos Computer Club Rostock, vorherrschenden Einschätzungen.

* Es ist vielmehr zu vermuten, dass die Software, insbesondere unter den im Sachverhalt beschriebenen schwierigen Lichtverhältnissen am nächtlichen Stadthafen, eine deutlich geringere Trefferquote aufweist.

* Eine geringe Trefferquote führt zwangsläufig zu einer hohen Zahl von "false positives". Das bedeutet, dass unschuldige Personen fälschlicherweise als Straftäter identifiziert werden.

* Ein solcher "false positive" stellt einen erheblichen Eingriff in die Persönlichkeitsrechte der betroffenen Person dar. Sie gerät zu Unrecht ins Visier der Polizei und muss mit unangenehmen Konsequenzen rechnen, wie z.B. einer Befragung, einer Identitätsfeststellung oder gar einer vorläufigen Festnahme.

* Die Folgen eines solchen Irrtums können für den Betroffenen weitreichend sein und reichen von einer erheblichen Verunsicherung und einem Gefühl des Ausgeliefertseins bis hin zu psychischen Belastungen und einem Vertrauensverlust in die staatlichen Institutionen.

* Darüber hinaus widerspricht die mangelnde Zuverlässigkeit der Gesichtserkennungstechnologie dem in Art. 5 Abs. 1 lit. d DSGVO verankerten Grundsatz der Richtigkeit der Datenverarbeitung. Dieser Grundsatz besagt, dass personenbezogene Daten sachlich richtig und auf dem neuesten Stand sein müssen. Die hohe Wahrscheinlichkeit von "false positives" führt jedoch dazu, dass unrichtige Daten (nämlich die falsche Identifizierung von Personen) erzeugt und verarbeitet werden.

2. Datenbank "polizeibekannter Straftäter":

* Die im System verwendete Datenbank, die auch Personen wegen Bagatelldelikten wie illegalem Angeln ohne Angelschein oder Fahren ohne Fahrradklingel enthält, ist aus datenschutzrechtlicher Sicht äußerst problematisch.

* Die Speicherung dieser Daten ist unverhältnismäßig und verstößt gegen den Grundsatz der Datensparsamkeit bzw. Datenminimierung, der in Art. 5 Abs. 1 lit. c DSGVO verankert ist. Dieser Grundsatz besagt, dass personenbezogene Daten dem Zweck angemessen und erheblich sowie auf das für die Zwecke der Verarbeitung notwendige Maß beschränkt sein müssen.

* Es ist schlechterdings nicht ersichtlich, inwiefern die Kenntnis von Bagatelldelikten, die möglicherweise Jahre zurückliegen, für die Verhinderung oder Verfolgung von Fahrraddiebstählen oder Ruhestörungen erforderlich sein soll. Die Speicherung dieser Daten dient offenkundig nicht dem angegebenen Zweck, sondern erfolgt auf Vorrat und ohne konkreten Anlass.

* Die Datenbank birgt zudem die erhebliche Gefahr der Stigmatisierung und Diskriminierung von Personen, die in der Vergangenheit – wenn auch nur geringfügig – mit dem Gesetz in Konflikt geraten sind. Diese Personen werden durch die Aufnahme in die Datenbank und den Abgleich mit den Gesichtserkennungsdaten unter einen Generalverdacht gestellt und laufen Gefahr, bei jeder polizeilichen Maßnahme aufgrund ihrer Vergangenheit benachteiligt zu werden.

* Es ist zu befürchten, dass die Polizei Personen, die in der Datenbank enthalten sind, vorverurteilt und bei der Auswertung der Überwachungsbilder voreingenommen handelt. Dies kann zu einer Verzerrung der polizeilichen Wahrnehmung und zu einer ungerechtfertigten Ungleichbehandlung führen.

* Darüber hinaus ist die Zweckbindung der ursprünglich für andere Zwecke (nämlich für die allgemeine polizeiliche Vorgangsverwaltung) erhobenen Daten an die Gesichtserkennung fraglich. Eine solche Zweckänderung bedarf nach Art. 6 Abs. 4 DSGVO einer gesonderten Rechtsgrundlage. Es ist zweifelhaft, ob die bloße Einführung eines Gesichtserkennungssystems eine solche Zweckänderung rechtfertigen kann.

3. Diskriminierungsrisiko:

* Die im Sachverhalt erwähnte höhere Fehlerquote bei Personen mit sonnengebräunter Haut birgt ein erhebliches Diskriminierungsrisiko und ist mit den Grundwerten einer freiheitlich-demokratischen Gesellschaft unvereinbar.

* Ein solches "racial profiling", also eine Benachteiligung von Personen aufgrund ihrer (vermeintlichen) ethnischen Herkunft, verstößt eklatant gegen das Diskriminierungsverbot nach Art. 14 EMRK (Europäische Menschenrechtskonvention) und Art. 3 GG (Grundgesetz). Diese Normen verbieten jede Diskriminierung aufgrund der Rasse, der Hautfarbe, der ethnischen Herkunft oder anderer Merkmale, die geeignet sind, eine Person oder eine Gruppe von Personen zu benachteiligen.

* In einer touristisch geprägten Region wie der Müritz, in der sich Menschen mit unterschiedlichem ethnischem und kulturellem Hintergrund aufhalten, ist dieses Risiko besonders relevant und kann zu erheblichen Spannungen und Konflikten führen.

* Der Einsatz einer Technologie, die bestimmte Personengruppen systematisch benachteiligt und diskriminiert, ist inakzeptabel und untergräbt das Vertrauen in die Polizei und die öffentliche Verwaltung. Er führt zu einer Spaltung der Gesellschaft und kann das friedliche Zusammenleben nachhaltig gefährden.

* Die Verwendung einer solchen Software kann nicht nur das Vertrauen in die Polizei und die öffentliche Verwaltung nachhaltig schädigen, sondern auch dazu führen, dass sich bestimmte Bevölkerungsgruppen von der Gesellschaft abwenden und sich in ihrer Ablehnung des Rechtsstaats bestätigt fühlen.

Fazit:

Die Gesichtserkennungssoftware der "Fischkopp-IT GmbH" ist aus datenschutzrechtlicher Sicht hochproblematisch und mit erheblichen Risiken für die Grundrechte und Grundfreiheiten der Bürger verbunden. Die unklare und wahrscheinlich unzureichende Trefferquote, die fragwürdige Datenbank "polizeibekannter Straftäter" und das inhärente Diskriminierungsrisiko führen zu erheblichen Bedenken hinsichtlich der Rechtmäßigkeit und der ethischen Vertretbarkeit des Einsatzes dieser Technologie. Die potenziellen negativen Folgen für die betroffenen Personen und die Gesellschaft insgesamt sind erheblich und stehen in keinem verhältnismäßigen Verhältnis zu den angestrebten Zielen der Kriminalitätsbekämpfung. Die geplante Videoüberwachung mit Gesichtserkennung stellt einen massiven Eingriff in das Recht auf informationelle Selbstbestimmung dar und ist mit den Prinzipien einer offenen und toleranten Gesellschaft, die die Vielfalt und die Gleichheit aller Menschen achtet, nicht vereinbar.

Beliebte Posts aus diesem Blog

Verfassungsblog: Ein Forum für Pluralistische Debatten oder Verbreitung von Haltungs-Rechtswissenschaft?

Zur Asyldebatte – Eine Replik an Patrick Heinemann von Marcus Seyfarth

Die Erosion der Gewaltenteilung: Eine verfassungsrechtliche Analyse der Kandidaturen Brosius-Gersdorf und Kaufhold für das Bundesverfassungsgericht