taz.de -- Überwachungskameras in Gefängnissen: Lückenlose Auswertung

Niedersachsens Landtag erlaubt Künstliche Intelligenz zur Auswertung von Überwachungsvideos in Gefängnissen. Dabei bleiben Fragen offen.

Bild: Automatisierte Auswertung im Sinne der Gefangenen? Überwachungskameras in der JVA Düsseldorf

Osnabrück taz | Prävention von Suiziden, von Gewalt. Das hört sich ja erst mal positiv an. Ein höheres Gut als das Leben gibt es nicht, sein Schutz ist wichtig. Aber die Novelle des Niedersächsischen Justizvollzugsgesetzes, die der hannoversche Landtag kürzlich beschlossen hat, geht dabei sehr weit. Nach [1][drei Jahren Beratung], geprägt von der Uneinigkeit der Großen Koalition, öffnet sie den Weg für den Einsatz Künstlicher Intelligenz (KI) im Justizvollzug. Die Video-Überwachung von Inhaftierten soll damit erweitert werden, als automatisierte, algorithmenbasierte Situations- und Gegenstandserkennung. Ein harter Eingriff in die informationelle Selbstbestimmung.

Bisher werden die Kamera-Aufzeichnungen in Justizvollzugsanstalten von Menschen kontrolliert. Aber die Fülle der Bilder auf den Monitorwänden ist groß, die Personaldecke ist dünn, Echtzeitüberprüfung oft unmöglich. Die KI soll assistieren und Alarm auslösen, wenn sich [2][Eigen- oder Fremdgefährdung] anbahnt.

Marco Genthe, Sprecher für Justizvollzug des Landesvorstands der FDP, ist skeptisch. Der Einsatz von KI, sagte Genthe vergangene Woche im Landtags-Plenum, sei „völlig unklar reguliert“. Seine Partei enthielt sich bei der Abstimmung.

Auch Volker Bajus, sozialpolitischer Sprecher der Grünen, hat starke Bedenken. Die Dauer der Datenspeicherung sei „völlig willkürlich gewählt“, sagt er im Plenum – im Prinzip können die Daten, auch wenn nichts passiert ist, eine Woche lang aufbewahrt werden, was im Rahmen der Suizidprävention absolut sinnlos ist.

Bajus tritt vor allem Christian Calderone entgegen, dem rechtspolitischen Sprecher der CDU-Fraktion, der im Plenum sagt, die CDU stelle sich [3][KI-Videoüberwachung] auch in anderen Bereichen von Haftanstalten und außerhalb von Haftanstalten vor. „Uns Grüne treibt die Sorge, dass KI-gestützte Videoüberwachung nicht nur der Unterstützung dienen soll“, sagt Bajus der taz. „Hier wird auch so manche staatliche Kontrollfantasie beflügelt, wenn KI Stück für Stück, mit gefälligen Sicherheitsargumenten, ausgeweitet werden soll.“ Eine Totalüberwachung sei „für alle freiheitsliebenden Demokrat*innen eine Horrorvorstellung“.

Suizidprävention in Gefängnissen, ist Bajus überzeugt, könne „nur durch gute sozialpsychologische Betreuung gewährleistet“ werden. In den JVAs mangele es an Personal. „Statt für Abhilfe zu sorgen, versucht die Große Koalition mit einem modern klingenden Pilotprojekt von Missständen abzulenken.“

Besonders pikant: Schon Ende Dezember 2021 wurde die Ausschreibung für das Projekt gestartet, Ende März 2022 der Auftrag dafür erteilt – weit vor der Verabschiedung der gesetzlichen Grundlage für den Einsatz von KI. Drei Jahre Zeit haben das Forschungszentrum Informatik in Karlsruhe und VOMATEC Innovations nun, für rund eine Million Euro den Justiz-Einsatz von KI zu erforschen. Die Test-Justizvollzugsanstalt ist in Oldenburg.

Was dazu an Technik installiert wird, wer und was durch sie überwacht wird, nach welchen Kriterien die KI eingreift? „Die Fragen können zum jetzigen Zeitpunkt noch nicht beantwortet werden“, sagt Hans-Christian Rümke, Sprecher des Niedersächsischen Justizministeriums, auf taz-Anfrage. Das Projekt stehe am Anfang.

Schon im März 2021 hatte Niedersachsens Landesbeauftragte für den Datenschutz in einer [4][Stellungnahme] zum Forschungsvorhaben gesagt: „Der Einsatz von KI-Systemen bedeutet in der Regel einen tiefen Eingriff in die Grundrechte und Freiheiten der betroffenen Personen.“ Eine Beobachtung sämtlicher Hafträume sowie gemeinschaftlich genutzter Bereiche sei kaum zu rechtfertigen. Im Gesetz steht jetzt: „bestimmte Bereiche“.

„Personal ist knapp und teuer“, sagt der Osnabrücker Rechtsanwalt Thomas Klein, der als Strafverteidiger Inhaftierte vertritt. „Da scheint es verlockend, auf die Technik zu vertrauen. Dabei geht es doch darum, die Haftsituation für Gefangene so zu gestalten, dass es gar nicht zu Situationen kommt, die Menschen an Suizid denken zu lassen.“ Das gelte auch für Gewalttätigkeiten, „die ja auch nicht aus dem Nichts kommen“.

365 Fälle physischer Gewalt unter Gefangenen wurden 2021 in Niedersachsens Gefängnissen dokumentiert. In den letzten fünf Jahren lag diese Zahl immer zwischen knapp unter 300 und knapp über 400, eine Aufwärtstendenz gibt es also nicht. 18 Suizidversuche gab es 2021 und sechs vollzogene Suizide. Auch hier ist in den vergangenen fünf Jahren keine Steigerung zu beobachten. Natürlich ist jeder Fall ist einer zu viel. Aber eine besondere Dringlichkeit scheint es nicht zu geben.

Die Gesetzesnovelle widerspricht sich im Übrigen selbst: Indem sie die Mindestbesuchsdauer pro Monat halbiert, trage sie potenziell dazu bei, dass seelische Notlagen sich vertiefen, die eventuell in Gewalt oder Suizid münden, sagt Rechtsanwalt Klein. Er wünscht sich stattdessen mehr persönliche Zuwendung durch mehr empathisches JVA-Personal und mehr und bessere Kontaktmöglichkeiten zu den Menschen draußen.

30 May 2022

[1] /Ueberwachung-im-Knast/!5755071

[2] /Bedingungen-in-deutschen-Haftanstalten/!5787900

[3] /Video-Ueberwachung-am-Suedkreuz/!5607914

[4] https://lfd.niedersachsen.de/startseite/infothek/presseinformationen/einsatz-von-kunstlicher-intelligenz-im-justizvollzug-nur-unter-wahrung-der-personlichkeitsrechte-198588.html

AUTOREN

Harff-Peter Schönherr

TAGS

Schwerpunkt Überwachung

Niedersachsen

Gefängnis

Schwerpunkt Künstliche Intelligenz

Strafvollzug

Wissenschaft

Datenschutz

Algorithmus

ARTIKEL ZUM THEMA

Mit KI gegen Wolfsrisse: Rotkäppchens Roboter

Trotz vorhandener Elektrozäune reißen Wölfe oft Schafe. Forscher*innen der Uni Bremen wollen die Gatter mit Künstlicher Intelligenz verbessern.

Künstliche Intelligenz im Krieg: Im Angesicht des Todes

Das ukrainische Militär setzt Gesichtserkennung ein, um tote russische Soldaten zu identifizieren. Die Technik wirft seit einiger Zeit Fragen auf.

Algorithmen und Kriminalität: Er wird, er wird nicht, er wird …

Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines Menschen herausfinden, ob der straffällig wird. Aber will man das?