Anlassfall

Das Amtsgericht Köln hat mit Aktenzeichen 120 C 137/191 auf Grund der §§ 280 und 288 BGB erkannt:

«Die anwaltliche Geschäftsgebühr wird bei der Erstattung eines durch Algorithmus generierten Mahnschreibens ausgelöst.»

Der dort installierte Algorithmus „berechnet“ das Bestehen eines Anspruchs und generiert ein Anspruchsschreiben an die Fluggesellschaft. Damit hat der Algorithmus nach Auffassung des Gerichts genau dieselbe Dienstleistung erbracht, die ein Rechtsanwalt im mündlichen Gespräch und anschließend mit Verfassen eines Anspruchsschreibens erbringen würde.

Die entscheidende Passage lautet (Hervorhebungen PE):

«Die Geschäftsgebühr entsteht für das Betreiben des Geschäfts einschließlich der Information und für die Mitwirkung bei der Gestaltung eines Vertrags […]. Dazu gehören die anwaltliche Prüfung und Beratung über das Bestehen von Forderungen und das Verfassen eines Anspruchsschreibens unzweifelhaft dazu. Ob dies durch mündliche Besprechung mit dem Rechtsanwalt, der den Anspruch in seinem Kopf prüft, oder Nutzen eines vorher durch einen Rechtsanwalt programmierten und geprüften Algorithmus geschieht, ist aus Sicht des Gerichts nicht maßgeblich.»

Das Gericht stellt also die Mitwirkung bei der Gestaltung eines Vertrags durch eine*n Anwalt*Anwältin der funktional und im Ergebnis gleichen Leistung durch einen Computeralgorithmus gleich. Es liegen hier zwei Denkfehler vor, die ich als blinden ontologischen Fleck gegenüber Legaltech bezeichnen möchte:

Sich auf den Fall einlassen («Rechtliche Diagnose»2)

Ein algorithmisch getriebenes System (Künstliche Intelligenz Machine Learning, «Legal Tech») arbeitet rein syntaktisch, es fehlt jede kontextbezogene Sozialkompetenz.

Ein*e Anwalt*Anwältin hat die (zumindest moralische) Verpflichtung, eingangs eine Diagnose zu stellen und zu prüfen, ob er*sie zuständig ist oder nicht und ob er dem*r potenziellen Mandaten*in akkurat mit seiner*ihrer Fachkunde helfen kann oder nicht. Ein Computer kann das prinzipiell nicht: Da er keine Probleme hat, die sein Überleben gefährden könnten, fehlt ihm dafür schlichtweg jede Intelligenz, sie kann auch niemals nachgerüstet werden.

Selbst wenn hier also die Voraussetzungen für ein «Tätigwerden» als Anwendung des Algorithmus gegeben sein sollten, ändert es nichts daran, dass der Algorithmus dies selber nicht prüfen kann. Schon aus diesem Grund kann er keinem menschlichen Akteur gleichgestellt werden, selbst wenn es hier rein zufällig gestimmt haben mag oder auch dann, wenn es zu 30% oder 75% zutreffen mag.

Ein*e Anwalt*Anwältin die Fälle einfach löst, ohne dafür zuständig zu sein und dies inhaltlich auch leisten zu können, der*die wäre schlichtweg inkompetent. Genau das trifft auf den Computer regelmässig zu.

Einen Fall lösen

Die Zuständigkeit und Eingangsprüfung vorausgesetzt, argumentiert das Gericht, das es egal sei, ob ein Algorithmus oder ein Mensch nach den anzuwendenden Regeln den Fall löst.

Das ist gleichermassen falsch: Ein Automat kann die Regeln nur formal nachahmen, sie aber nicht inhaltlich anwenden. Der formal dokumentierte und dokumentierbare Gedankengang hat mit dem konkreten inhaltlichen Denkvollzug durch einen Menschen nichts gemein. Auch hier kommt zwar – im besten Fall und bei Standardfällen – häufig das gleiche oder etwas ähnliches heraus.

Der Computer kann nur raten.

Das Problem dabei ist, dass wir aber im Vorhinein nicht wissen können, ob es stimmen wird oder nicht. Es handelt sich um einen (durch Maschinenlernen) qualifzierten Zufall, der aber zufällig bleibt: Der Computer rät lediglich, er ist unfähig etwas zu begründen. Das Problem der Argumentation des Gerichts ist hier, dass es im Nachhinein die Unmassgeblichkeit des Denksubstrats mit der erfolgten Richtigkeit der Lösung begründet, die im Einzelfall aber keineswegs immer gegeben ist.

Aus rechtsstaatlichen Gründen muss die inhaltliche Nachvollziehbarkeit und Begründbarkeit im Denkvollzug juristischem Handeln zugrunde liegen. Der hier durchkommende sogenannte Funktionalismus, der sich lediglich auf statistischen Wahrscheinlichkeiten gründet kann einem rechtlich qualifizierten Vorgehen niemals das Wasser reichen.

Resümee

Dem Gericht ist vermutlich nicht bewusst, welchem letztendlich ideologisch verblendetem Gedankengut (sogenannter «Digitalismus»3) es hier Vorschub leitet und wie es damit selbst zur Selbstabschaffung der Juristerei beiträgt.

Die Unabhängigkeit vom «Denksubstrat» hatte schon Turing in seinem berühmten Turing-Test zu Grunde gelegt, fälschlicherweise4: Nur weil Menschen eine Software für KI Maschinenlernen schaffen und betreiben, die etwas generiert, von dem man glauben könnte, dass es von einem Menschen stammt, bedeutet nicht, dass diese Software intelligent ist und die gleiche Leistung erbracht hat, wie wenn sie von einem Mensch stammte. Es fehlt dabei komplett die Innenseite des Gedankens, das Nachvollziehen von juristischen Denkregeln entsprechend ihrem propositionalen Gehalt und damit zusammenhängend die Fähigkeit zur jederzeitigen Begründung. Es fehlt komplett die intentionale Fähigkeit, rechtliche Zusammenhänge korrekt und nachvollziehbar zu bewerten und danach zu handeln.

Die Justiz bereitet mit solchen Argumenten ihre eigene Abschaffung vor.

Nichts spricht dagegen, solche Lösungen unter im Vorhinein transparent definierten Bedingungen zur Kostenreduktion einzusetzen, sofern deren Ergebnisse von Menschen nachprüfbar bleiben. Sie aber, wie es das Gericht tut, diese Leistung finanziell genau gleich zu bewerten, ist grundfalsch. Die Richter*innen bereiten den Boden vor, durch Automaten ersetzt zu werden und das Recht, wie wir es bisher kannten kurzerhand abzuschaffen. Ohne situative Diagnose, ohne semantischen Denkvollzug, und ohne Begründungsoption bleibt vom Rechtswesen und seinen demokratischen Grundwerten nämlich nichts mehr übrig. Das Gericht schreibt damit ohne Not dem Algorithmus etwas zu, was er nicht leisten kann (Antropomorphismus) und bereitet damit Argumenten für seine eigene Abschaffbarkeit Vorschub. Das kann man nur als gruselig bezeichnen5.

Referenzen


  1. Amtsgericht Köln, 120 C 137/19 ↩︎

  2. Hier zugrundegelegte Arbeitsdefinition zur «rechtlichen Diagnose» als situativer Eingangsprüfung: Bewertung der rechtlichen Ausgangssituation einer natürlich oder juristischen Person und der zugrunde liegenden Ziele. Bevor eine Handlungsweise vorgeschrieben wird, sollte eine Diagnose gestellt werden. Juristen haben die moralische Verpflichtung, eine Diagnose zu stellen, bevor sie Maßnahmen vorschreiben und Rechtsakte setzen. Ein Versäumnis, dies zu tun, würde als inkompetent betrachtet werden. Siehe auch Selbstdiagnose. Kann nur von fachkundigen Menschen durchgeführt und nicht intentional gleichwertig automatisiert werden. Entspricht der pragmatische, kontextabhängigen und sozial verankerten Deutung von Situationen. ↩︎

  3. Horx, Matthias (2019): Das postdigitale Zeitalter, Zukunftsinstitut ↩︎

  4. Gabriel, Markus (2018): KI als Denkmodell, Petersberger Gespräche - Villa Hammerschmitt ↩︎

  5. Mara, Martina (2016): Die Antropomorphismus-Falle, Zukunftsinstitut ↩︎