Die deutsche Justiz kämpft mit einem Überlastungsproblem. Künstliche Intelligenz könnte helfen, doch rechtliche und ethische Hürden bleiben.
Die deutsche Justiz steht unter Druck: Am Ende des Jahres 2023 waren laut Statistischem Bundesamt über 900.000 Verfahren unbearbeitet. Die steigende Anzahl an Massenverfahren und die überlastete Justizverwaltung erschweren die Wahrung der Gerechtigkeit. Personalmangel und steigende Fallzahlen führen zu einem Rückgang der Anklagequote, und lange Verfahren können Strafrabatte zur Folge haben.
Generalstaatsanwältin Margarete Koppers betont, dass es nötig sein wird, Aufgaben an KI-Systeme zu delegieren. Ein Beispiel für den technologischen Fortschritt sind KI-gestützte Richterassistenz-Systeme wie „Codefy“, das Richter in der Analyse umfangreicher Akten unterstützt. So wird die Justiz zunehmend digitalisiert und auf Künstliche Intelligenz ausgerichtet.
Deutschland hat im Vergleich zu anderen Ländern Nachholbedarf bei der Digitalisierung der Justiz. So sollen bis 2030 mehr als 25 Prozent der Richterstellen neu besetzt werden, doch der Fachkräftemangel erschwert dies. Das Bundesministerium für Justiz plant, mit bis zu 200 Millionen Euro bis 2026 eine KI-gestützte Infrastruktur zu schaffen. Digitale Assistenzsysteme, die etwa auf Grundlage von Massenverfahren Muster erkennen oder Akten automatisiert bearbeiten, könnten das Personal entlasten.
Unter dem Begriff „Justice Tech“ laufen verschiedene Projekte, die KI in der Justiz etablieren sollen. Ein „KI-Marktplatz für die Justiz“ soll bis 2026 als Plattform entstehen, auf der geprüfte Applikationen zur Aktenstrukturierung und Entscheidungsfindung verfügbar sind. Die E-Akte und der elektronische Rechtsverkehr werden als Basisinfrastruktur aufgebaut, die dann mit KI-Tools wie „AKIRA“ (Allgemeine KI-Richterassistenz) erweitert werden sollen. Bayern und Berlin arbeiten an einem gemeinsamen Forschungsprojekt für ein generatives Sprachmodell der Justiz (GSJ), das die juristische Arbeit erleichtern könnte.
Der AI Act der EU, der 2026 in Kraft tritt, stuft KI-Systeme im Bereich der Strafverfolgung und Justiz als Hochrisiko ein. Solche Systeme müssen strengen Vorschriften zur Datensicherheit und Transparenz entsprechen und dürfen nur unter menschlicher Aufsicht arbeiten. Systeme, die nicht direkt auf die Urteilsfindung Einfluss nehmen, gelten hingegen als weniger riskant.
Die Frage der Verantwortung ist jedoch ein zentraler Aspekt: Wer haftet, wenn die KI irrt? Der Europäische Gerichtshof betont in einem Leitfaden zur Digitalisierung der Justiz, dass die Rolle des Richters und der menschlichen Verantwortung zentral bleiben muss. Maschinen fehlt das Verständnis für menschliches Verhalten und ethische Werte, die in Entscheidungen berücksichtigt werden.
KI kann eine bedeutende Unterstützung im Backoffice der Justiz sein, um Verfahren zu beschleunigen und die Effizienz zu steigern. Doch die Entscheidungshoheit muss beim Menschen liegen. Die Herausforderung besteht darin, eine Balance zu finden, in der KI als Werkzeug eingesetzt wird, ohne die menschliche Entscheidungsgewalt zu ersetzen. Nur so kann die Justiz der zunehmenden Verfahrenslast begegnen und gleichzeitig die Integrität des Rechtssystems bewahren.
Alle weiteren Informationen erhalten Sie in unserer Datenschutzerklärung