11.06.2025
Mit der Einführung der Analyseplattform VeRA übernimmt die bayerische Polizei ein mächtiges Werkzeug zur Datenverknüpfung – basierend auf Technologie des US-Unternehmens Palantir. Was als Fortschritt in der Strafverfolgung verkauft wird, könnte das Verhältnis zwischen Bürger und Polizei grundlegend verändern. Denn wenn jede Aussage zum Risiko wird, steht mehr auf dem Spiel als nur der Datenschutz: Es geht um Vertrauen, rechtsstaatliche Kontrolle – und die Frage, wer über wen Informationen sammelt.
Die Polizei gilt als Freund und Helfer – doch mit dem Einzug intelligenter Datenanalyse droht sie zum Meta-Spitzel zu werden. In Bayern hat die Polizei mit „VeRA“, der Verfahrensübergreifenden Recherche- und Analyseplattform, ein System eingeführt, das auf Technologie des US-Unternehmens Palantir basiert. Es verknüpft Informationen aus rund zwanzig verschiedenen Datenquellen, darunter das Fallbearbeitungssystem Case, das Vorgangssystem easy, INPOL, das Waffenregister oder Verkehrs- und Meldeinformationen. Die Einführung erfolgte offiziell Ende Dezember 2024, nach einem dreimonatigen Pilotbetrieb. Ziel: Ermittlungen beschleunigen, Zusammenhänge aufdecken, Gefahrenlagen erkennen.
Was als Modernisierung präsentiert wird, ist jedoch ein massiver Eingriff in die informationelle Selbstbestimmung. Denn in der Praxis bedeutet das System, dass auf Knopfdruck sichtbar wird, wer wann mit wem in Verbindung stand – unabhängig davon, ob jemand tatverdächtig ist oder nicht. Gerade Menschen, die als Zeugen auftreten oder schlicht zufällig in einem Umfeld auftauchen, geraten durch sogenannte Beifang-Effekte ins Raster. Die Software unterscheidet dabei nicht zwischen juristischer Relevanz und technischer Verbindung. Jede Datenspur wird Teil eines Analysemodells, das visuell Beziehungen, Orte, Zeitpunkte und Kommunikationsverläufe aufbereitet.
Das hat Folgen. Wer etwa einem Gewaltopfer helfen möchte, eine Anzeige aufgibt oder freiwillig eine Aussage macht, muss damit rechnen, dass persönliche Angaben verknüpft und dauerhaft gespeichert werden. Vor allem in sozial fragilen Gruppen, unter Migrantinnen mit unsicherem Aufenthaltsstatus oder in ohnehin polizeikritischen Milieus kann das Vertrauen in die Strafverfolgung damit irreparabel beschädigt werden. Wenn Menschen befürchten müssen, dass sie durch ihre Aussage selbst ins Visier geraten, schweigen sie. Aus Sicht der Polizei ist das keine Bagatelle, sondern eine direkte Schwächung ihrer Ermittlungsfähigkeit – insbesondere bei schweren Verbrechen, in denen Aussagen über Beziehungen, Bewegungen oder Stimmungen eine zentrale Rolle spielen.
Besonders kritisch ist der politische Umgang mit diesen Entwicklungen. Der Bundesrat hat im März 2025 eine Entschließung gefasst, wonach Palantir-Software bundesweit als Interimslösung eingesetzt werden soll – zumindest bis das langfristig geplante Datenhaus „Polizei 20“ (P20) verfügbar ist. Die Motivation ist nachvollziehbar: Angesichts mehrerer tödlicher Gewalttaten durch psychisch auffällige Täter und der zunehmenden Bedrohungslagen fordert die Innenministerkonferenz schnelle Handlungsfähigkeit. Doch statt eine offene gesellschaftliche Debatte zu führen oder unabhängige Kontrollmechanismen zu installieren, setzt man auf Technologie mit Herkunft aus dem sicherheitsstaatlichen Komplex der USA. Palantir war an Militäreinsätzen im Irak und Afghanistan beteiligt und hat unter anderem mit der CIA, NSA und dem Heimatschutzministerium zusammengearbeitet. In den USA wurde die Zusammenarbeit mit Palantir in mehreren Städten wie Los Angeles und New Orleans nach massiver Kritik an Racial Profiling, Intransparenz und Datenschutzproblemen beendet.
Auch in Deutschland regt sich Widerstand. Der Bayerische Landesdatenschutzbeauftragte Thomas Petri bezeichnete das System bereits als verfassungsrechtlich „auf Kante genäht“. Bürgerrechtsorganisationen wie die Gesellschaft für Freiheitsrechte warnen vor einem schleichenden Verlust demokratischer Kontrolle über polizeiliches Handeln. Denn: Die Software ist proprietär. Niemand außerhalb des Unternehmens kann den Quellcode einsehen oder überprüfen, ob Algorithmen diskriminieren, falsche Zusammenhänge erzeugen oder mit Drittsystemen kommunizieren. Zwar betont das Innenministerium, dass Palantir keinen Zugriff auf die Daten habe und diese lokal verarbeitet würden – doch unterliegt das Unternehmen dem US-amerikanischen CLOUD Act, der US-Behörden in bestimmten Fällen Zugriff auf gespeicherte oder übertragene Daten ermöglicht, auch im Ausland.
Wenn Bürger nicht mehr wissen, was mit ihren Daten passiert, entsteht Unsicherheit. Wenn sie vermuten müssen, dass Unterstützung von Polizeiarbeit zu Selbstgefährdung führen kann, entsteht Angst und ein großer Vertrauensverlust. Vertrauen ist kein nettes Add-on in der Polizeiarbeit, sondern ein Sicherheitsfaktor. Wer es verspielt, riskiert die Kooperationsbereitschaft der Bevölkerung – und damit die Substanz rechtsstaatlicher Strafverfolgung.
Wenn überhaupt solche Technologien im Einsatz bleiben dürfen, dann nur unter der Bedingung vollständiger Transparenz. Der Quellcode muss offengelegt werden, die eingesetzten Algorithmen müssen überprüfbar sein. Open Source ist keine Ideologie, sondern ein demokratisches Muss. Nur so lässt sich nachvollziehen, wie Entscheidungen entstehen, wie Personen erfasst werden und wo Grenzen gezogen sind – oder überschritten werden. In einer Gesellschaft, die sich Freiheit und Rechtsstaatlichkeit auf die Fahnen schreibt, darf es keinen Raum für Blackbox-Überwachung geben. Schon gar nicht in durch die Polizei.
Mehr zu Digitalpolitik: Verfügbar bis auf Widerruf