In der Justiz wird der Einsatz Künstlicher Intelligenz erprobt. Das ist wichtig, muss aber gut durchdacht sein.
In den USA müssen sich zwei Anwälte vor Gericht verantworten. Sie haben eine Fluggesellschaft auf Schadensersatz verklagt. Die Klagebegründung hatte ChatGPT geliefert und dabei einen Präzedenzfall schlicht erfunden. Der Einsatz sogenannter "Large Language Models" in der Rechtspflege ist auch hierzulande Thema. Nach dem Ansatz des EU-Parlaments für die KI-Verordnung, die aktuell diskutiert wird, ist "General Purpose AI" wie die ChatGPT-Anwendung für sich genommen nicht risikobehaftet.
Nur den Anbietern eines "Foundation Models", also des mit vielen Daten trainierten Modells als Basis der Anwendung, werden in einem neu geschaffenen Artikel besondere Pflichten auferlegt. Werden sie eingehalten, gilt der darauf fußende Bot als sicher.
Es klingt plausibel, dass nicht die Technik gefährlich ist, sondern der Mensch, der sie nutzt. Was aber, wenn der Mensch, der nach der KI-Verordnung auf die Stopptaste drücken können muss, eine Technik einsetzt, die er weder verstehen noch beherrschen kann?
Grundsätzlich erlaubt: General Purpose AI
Die Nutzung einer Software wie ChatGPT beruht auf einem Foundation Model, bei dessen Datenbasis die Herkunft intransparent ist und bei dem es nicht auf richtig, falsch, erlaubt, verboten, für den Kontext sinnvoll, sinnlos oder gar schädlich ankommt.
Wer den Bot als Anwalt nutzt, handelt nach dem Entwurf der KI-Verordnung erlaubt. Für die Nutzung kommt es auf die allgemeinen Regeln an. Unterbreitet der Anwalt bewusst einen falschen Sachverhalt, dann kann das Betrug sein. Das Recht muss der Richter aber selbst prüfen.
Setzt er ChatGPT ein, etwa um zu recherchieren, einen juristischen Dialog zum Fall zu führen oder gar einen Lösungsvorschlag im Urteil zu übernehmen, ist das heikel. Juristische Digitalkompetenz reicht jedenfalls dann nicht aus, wenn die Funktion des Bots zwar weder verstanden noch beherrscht werden kann, wohl aber Ergebnisse hervorbringt, die plausibel sind.
Justiz-Projekt in Bayern und NRW
Bayern und Nordrhein-Westfalen haben ein Projekt zur Entwicklung eines "Generativen Sprachmodells der Justiz" gestartet, das Gerichte etwa in Massenverfahren entlasten soll. Hier geht es um Verbraucherschutz mit schematischen Prüfungen zur Rechtsdurchsetzung im Zivilrecht, etwa in "Diesel-Fällen". Nicht nur in der Onlinekriminalität, sondern auch in der allgemeinen Verbrechensbekämpfung wird ein maßvoller Einsatz von KI als unverzichtbar für einen effektiv arbeitenden Rechtsstaat eingeschätzt.
Bei Bots in der Justiz sollte es nicht um so etwas wie ChatGPT gehen, sondern um speziell trainierte Modelle und darauf aufbauende Systeme mit klarer Verantwortlichkeit. Diese müssten speziell für den Einsatz in der Justiz aktualisiert werden mit dafür ausgewählten vollständigen Daten, etwa aus Gesetzes- und Urteilsdatenbanken, sowie nach transparenten Kriterien eingespeister Literatur trainiert und in Echtzeit.
So etwas kostet viel Geld. Ein staatliches Rechenzentrum oder auch ein privates Unternehmen müsste Verantwortung übernehmen für die Datenbasis, das Training und den Betrieb des Systems, dessen Optimierungsziele und Kontexte und den Korridor der Entscheidungen.
Roboter als Sachverständige?
Die Nutzung müsste gegebenenfalls allen Parteien nach festen Regeln offenstehen, damit dessen Ergebnisse – etwa in der Revision – hinterfragt werden können. Der Bot könnte wie eine Art Sachverständiger behandelt werden. Sachverständige werden aufgrund ihrer Kompetenz benannt und es sind Gegengutachten möglich. Das müsste auch für KI gelten. Der Ansatz ist aber riskant.
Wenn KI-Systeme im Prozess gegeneinander antreten wie Schachcomputer und sich nur noch selbst überprüfen können, ist der Rechtsstaat abgeschafft. Dem Sprachmodell müssten daher die Grenzen seiner Hilfstätigkeit genau vorgegeben werden. Und es müsste den Rechtsanwender in die Lage versetzen, seine justizielle oder richterliche Entscheidung autonom zu treffen. Der Computer müsste im konkreten Fall verlässlich und transparent offenlegen, auf welchen Parametern und auf Basis welcher Daten für welchen Kontext sein Vorschlag basiert.
Dem Superhirn misstrauen
Wie ein Richter es schaffen soll, dem digitalen Superhirn nicht vertrauensvoll zu folgen, sondern dessen Vorschlag mit dem erforderlichen Misstrauen zu prüfen, bleibt sein Problem. Das hat zwar auch der Arzt, der eine KI-assistierte Diagnose verwerfen will. Nachdem er dem Patienten die Diagnose der KI und seine Zweifel transparent gemacht hat, muss dieser selbstbestimmt und eigenverantwortlich entscheiden. Richter entscheiden demgegenüber im Namen des Volkes als Treuhänder des Rechtsstaats über Dritte.
Lesen Sie auch:
- Vorsicht bei ChatGPT: Was nach Fakten klingt, sind oft keine
- ChatGPT: Wie reguliert man eine Weltmaschine?
Der Roboterrichter ist verboten
Wenn KI-Entwürfe wie Sachverständigengutachten in einen Prozess einflössen, müssten wirksame Vorkehrungen gegen eine Verantwortungsdelegation getroffen werden. Vielleicht besteht die richterliche Eigenleistung künftig darin, zu begründen, warum die KI den Tatbestand richtig erfasst, alle wesentlichen Punkte benannt und die unwesentlichen ausgeblendet hat und warum das Ergebnis übernommen wird.
Macht der Richter das autonom, klug und gründlich, dann ist dieses System geeignet. Anderenfalls führt es den Roboterrichter ein. Machen wir hier Fehler, hat der Rechtsstaat ein Problem.
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.