Legaltech als «delirium digitalis»

Die alte Welt liegt im Sterben, die neue ist noch nicht geboren: Es ist die Zeit der Monster. Antonio Gramsci (1937)

«Jede Reise beginnt mie einem ersten Schritt»

Der Titel des Aufsatzes «Der Richterautomat ist möglich - Semantik ist nur eine Illusion”1 von Axel Adrian hatte mein Interesse geweckt: Adrian ist Honorarprofessor an der Rechts- und Wirtschaftswissenschaftlichen Fakultät der Universität Erlangen-Nürnberg, seine Dissertation über “Grundprobleme einer juristischen (gemeinschaftsrechtlichen) Methodenlehre”2 wurde 2008 mit dem Promotionspreis der Universität ausgezeichnet.

Der Aufsatz umfasst 44 Seiten und hat die Zielsetzung, «ein philosophisches Konzept zur Erklärung von sprachlicher Bedeutung zu liefern, um eine entsprechende Programmarchitektur für einen „Lawbot“ zu entwickeln» (S 78). Er endet wie so viele prophetische KI-Aufsätze mit einem Verweis auf die Zukunft: «Es ist noch ein langer Weg, bis ein solcher Richterautomat einen Turing-Test bestehen kann, aber jede Reise beginnt mit einem ersten Schritt.» (S 121)

Die vom Autor avisierte Flughöhe und seine Absicht, es aus der Perspektive einer «allgemeinen Wissenschaftstheorie» darzustellen, beeindruckt. Schliesslich mangelt es der Rechtstheorie und der Rechtsinformatik schon seit längerem an solchen grundlegenden Überlegungen, um den seit Jahrzehnten vernachlässigten reflektierenden rechtsmethodischen Anschluss an die aktuellen, sich fast überstürzenden digitalen Entwicklungen auch nur ansatzweise wieder herzustellen.

Umso bedauerlicher, dass das Vorhaben des Autors wie eine irrlichternde Rakete an der Vielzahl von Widersprüchen, in denen er sich hoffnungslos verzettelt, scheitert.

Unrealisierbarkeit - nach den eigenen Ansprüchen

Adrian ist sich dessen wohl intuitiv bewusst, wenn er zu Beginn schreibt (S 78):

“Wenn es am Ende jemals gelingen sollte, die hier vorgestellte Theorie in der Praxis zu testen, wird eine entscheidende Bedingung dafür gewesen sein, dass Mitglieder aus verschiedenen Wissenschaften in der Lage waren, sich „zu verstehen“ und als Team zu kooperieren, was, wie noch zu zeigen sein wird, aus erkenntnistheoretischen Gründen eigentlich gar nicht möglich sein kann."

Nur weil sich «Mitglieder aus verschiedenen Wissenschaften» verstehen, bedeutet dies einerseits noch lange nicht, dass sich seine Theorie, dass ein Richterautomat möglich sei, testen lassen wird. Er hält aber sogar das aus erkenntnistheoretischen Gründen, die er selbst darlegen möchte (!), für unmöglich. Seine «Theorie» wird sich also nach seiner eigenen Meinung nie in der Praxis testen lassen.

Schon nach seiner eigenen Meinung ist somit eine entscheidende Bedingung zur Realisierung seiner Theorie aus erkenntnistheoretischen Gründen nicht möglich.

Zudem lässt Adrian eigentliche und mit Händen zu greifende Gründe aus, wegen denen sich seine Theorie mit Sicherheit nie in der Praxis realisieren wird lassen:

So ist beispielsweise das Commonsense Kowledge Problem oder das Problem der Word-Sense Disambiguation seit den 1960er Jahren ungelöst.

Der unbefangene Rezensent fragt sich, warum der Autor dieser Erkenntnis unverdrossen über 40 weitere Seiten und über 100 Fussnoten hat folgen lassen, wenn er schon zu Beginn feststellt, das seine Theorie unrealisierbar ist und er den überhöhten Anspruch in der Überschrift nie wird einlösen können, analog zu § 275 BGB impossibilium nulla est obligatio.

Strukturelle Schwäche der Argumentationsarchitektur

Die Schwäche der Argumentationsarchitektur entfaltet sich freilich schon kurz davor in Fussnote 1: Adrian ordnet sich hier konstruktivistisch ein. Darunter versteht er, dass «keinerlei außerhalb von uns selbst vorgegebene Richtigkeitskriterien […] nutzbar gemacht werden können»3. Seinen philosophischen Ansatz bezeichnet er vor allem auch als pragmatisch […], da (syntaktische) Bedeutung (und Erkenntnis) nur durch eigenes Tun (letztlich durch den Akt des Unterscheidens) erzeugt» werde.

Dieser Ansatz entspricht im Ergebnis gängigen Konzepten für Künstliche Intelligenz Machine-Learning, die Semantik und Pragmatik durch Syntax substitutieren wollen. Sie führen zwangsläufig in einen technischen Autismus4. Wenngleich die enorm hohe Rechenleistung diesen Konzepten Auftrieb gegeben hat, so sind sie von sich aus nicht lernfähig. Diese Ansätze scheitern somit regelmässig daran, neue Situationen richtig einzuordnen, was schon tödliche Folgen5 hatte6.

Nach dem amerikanischen Pragmatismus entsteht Bedeutung und Wahrheit durch Handlungen, durch die sich zeigt, welche Ideen der Realität entsprechen und funktionieren. Das kommt im James zugeschriebenen Zitat «truth is what works» zum Ausdruck, er spricht sogar vom «Barwert der Wahrheit», der entsteht wenn sich durch ideengeleitetes Tun Handlungsabsichten realisieren lassen7.

«Bedeutung» entsteht aus der Perspektive des amerikanischen Pragmatismus durch die situative Übereinstimmung einer absichtsvoll geladenen Idee mit der Realität.

«Syntax» ermöglicht laut Peirce intersubjektive Kommunikation, ist aber gerade nicht «Bedeutung»: Der Ausdruck «(syntaktische) Bedeutung» ist in diesem Kontext deshalb so bedeutungsfrei wie der Aufsatz und die Theorie von Adrian insgesamt.

Da sich diese Theorie selbst nach den Aussagen des Autors nicht realisieren lässt, ist sie also (auch aber nicht nur) aus Sicht des Pragmatismus offensichtlich falsch.

Die Theorie des Autors ist selbst nach seinen eigenen Kriterien falsch.

Falsches digitales Bewusstein

Der enorme Aufwand und Fleiss zur Kollagierung seiner Gedankenströme, die der Autor mit diesem Aufsatz an den Tag legt, ist eine grosse vertane Chance. Denn mehr Klarheit, Transparenz und Aufklärung über die geeigneten Rahmen- und Einsatzbedingungen von KI im Recht und insgesamt wären dringend notwendig.

Durch das klare Aufzeigen belastbarer Einsatszbedingungen könnte sich das Rechtswesen, die Rechtsinformatik und engagierte Jurist*innen von vorherrschenden digitalen Erlösungsversprechen aus den USA emanzipieren und einen eigenständigen Weg verfolgen. Dieser kann, entsprechende Nüchternheit und Fachkunde vorausgesetzt, sachnäher sein und wertschöpfendere Lösungen jenseits von Kostensenkung und Gewinnabsichten ermöglichen, die sich in der Praxis entfalten und dem Druck der LegalTech-Industrie selbstbewusst inhaltliche Substanz und europäische Werte entgegen setzen könnten.

Der Aufsatz von Adrian ist ein prägnanter Ausdruck für falsches digitales Bewusstsein.

Das zeichnet sich, in Anlehnung an der Deutung von Ideologie als falschem Bewusstein bei Karl Marx dadurch aus, dass zwar eine starke Teilhabe an der Wirklichkeit besteht, diese aber mit all ihren Ausdrucksformen, Aktionen, Absichten und Wünschen einem fatalen Irrtum unterliegt: Dass so nämlich der Tod produziert wird und nicht das Leben5.

Adrian möchte das Rechtssystem einem Automaten unterordnen, von dem er insgeheim wohl weiss, dass er nie funktionieren wird. Er degradiert den realen menschlichen Rechtsvollzug, das Lösen von Rechtsällen und die tagtägliche Aktualisierung unserer Rechtswerte und Regeln durch fachkundige Juristinnen und Juristen zu einer automatisierbaren mechanischen Tätigkeit. Die resultierenden statischen Texte als Ergebnisse der Anwendung von juristischer menschlicher Intelligenz, verklärt er als «Sprachquanten» erklärungsfrei, Semantik und Pragmatik als herausragende Leistungen jeder juristischen Tätigkeit verschiebt er entkernt wie in einem faulen Taschenspielertrick in die Syntax.

Damit fällt er in wissenschaftlicher Hinsicht nicht nur auf den Stand verklärter KI-Erwartungen aus den 1960er Jahren zurück, sondern in philosophischer auf den vor über 100 Jahren. Bereits Husserl hatte sich 19xx darüber lustig gemacht, das manche Maschinengeschnatter als formales Nachhüpfen mit dem echtem intentionalen Denkvollzug durch einen Menschen verwechseln. Angesichts dieses Aufsatzes wäre ihm wohl auch das Lachen vergangen.

Positiv gewendet also Entwarnung: Semantik ist keine Illusion und es einen solchen Richterautomaten wird es in dieser Form ganz sicher niemals geben!

Adrian's «semantikfreie» Gedankengänge

Die Menge der Fussnoten und Referenzen ist beeindruckend (106 insgesamt) – die Liste an unklaren Bezügen, unlogischen und zu weit hergeholten Schlussfolgerungen allerdings auch. Fast scheint es, könnte man spöttisch anmerken, als würde Adrian seine These «Semantik ist eine Illusion» sehr ernst nehmen, ganz nach dem Motto «walk the talk». Er möchte über Wasser gehen, wer sich die Fussnoten näher anschaut, merkt bald dass es keine tragfähigen Pontons sind sondern eher Bleigewichte, die heftig in den Abgrund zerren.

Wenigstens gehört es nicht zu Adrian's Programm, einige inzwischen doch deutlich aus der Zeit gefallenen aber immer noch auf Konferenzen stetig propagierten Ansätze für logische Programmierung, Ontologien und Wissensrepräsentationen aus den 1980er Jahren weiter künstlich am Leben zu erhalten.

Das ist ihm anzurechnen, selbst wenn es recht zaghaft geschieht und er letztendlich eine nähere inhaltliche Auseinandersetzung schon an dieser Stelle, wo es noch leicht fiele, ausschlägt: In Fussnote 2 grenzt er seinen Ansatz von einigen Arbeiten ab, in Fussnote 3 merkt er an, dass er sich als Jurist schwer tue, seinen Ansatz einzuordnen – und listet gleichzeitig Referenzen auf, mit denen er sich eben schwer tut. Schade, denn die Schwächen und mangelnden Umsetzungserfolge vieler dieser mehr als in die Jahre gekommenenen rechtsinformatischen Ansätze wären es wert, deutlicher herausgearbeitet zu werden.

Tatsächlich werden einige dieser inzwischen Jahrzehnte alten Ansätze heute noch regelmässig von einigen institutionalisierten Akademikern (die männliche Form ist hier Absicht) weiter propagiert. So wird beispielsweise stur behauptet, dass die seit Jahrzehnten existierenden Ansätze für juristische Ontologien schon funktionieren würden, wenn man halt endlich welche erstellen würde. Vielleicht glauben deren Protagonisten das tatsächlich selber und sehen die grundsätzlichen erkenntnistheoretischen Probleme, dass sich Rechtmethodik nicht auf logische Begriffsnetze beschränken lässt und sich juristischer Denkfreude und Klarheit so nicht abbilden lässt, immer noch nicht.

Formale Systeme können nicht widerspruchsfrei definiert werden.

Adrian stellt diese erkenntnistheoretische Sackgasse, in der sich einige dieser vor Jahrzehnten eifrig verfolgten Konzepte befinden, gut im Abschnitt IV dar: Formale Systeme können nicht widerspruchsfrei verfeinert werden und falls man dies versucht, so steigt die mögliche Variabilität zu stark an («Fluch der Dimensionalität»). Eine Einsicht, die zwar schon 1976 im Artikel Destruction and Creation von John Boyd8 differenzierter formuliert worden ist, vielen aber wegen dessen universitätsfernen Kontexts immer noch nicht geläufig sein dürfte.

Diese Einsichten machen das Kraut aber nicht fett.

Der semantische Griff ins syntaktische Klo

Dass Adrian sich ausgerechnet an Peirce vergreift9, um seine Behauptung, dass es keine Semantik gäbe, zu untermauern, führte zu einer akuten intellektuellen Notsituation des Autors, die die allzu derbe Überschrift hoffentlich entschuldbar macht: Immerhin hat gerade Peirce mit dem triadischen Zeichenbegriff das “Konzept der Zeichenbedeutung” postuliert (Eco zitiert nach Homberger/Wikipedia) und die Möglichkeit intersubjektiver Kommunikation, die von Adrian verneint wird, in den Mittelpunkt gestellt.

Peirce hat das Konzept der semantischen Zeichenbedeutung postuliert.

Dass ins Gegenteil zu verkehren erfordert Chuzpe und wird von Adrian handwerklich so durchgeführt:

  1. Während Peirce und sein Mitbegründer des amerikanischen Pragmatismus William James10 den Bewusstseinsstrom als Abfolge von mentalen Zuständen mit bestimmten Qualitäten (also Qualia) verstanden, entstehen bei Adrian aus diesem lebendigen inneren Reichtum “Aus einem unendlichen Bewusstseinsstrom […] Sprachquanten". (Hervorhebung PE)

  2. Sprachquanten? Dieser im Hinblick auf Quanten und Quantencomputer und sich darauf beziehende esoterische Literatur überladene Begriff wird etwas später denkbar banal umrissen: Sprachquanten sind als Menge «an juristischen Büchern, Urteilen und Texten» nichts anderes als juristische Textsorten und Dokumente.

  3. Dieses juristische Schriftgut wird von Adrian im nächsten Abschnitt gnadenlos semantisch entblösst und rein quantitativen Datendurchsatzrechnungen zu unterwerfen, in Fussnote 66: «Meine Dissertation hat, wie man durch Nachzählen abschätzen kann, insgesamt nur zwischen 5.000.000 und 6.000.000 Zeichen».

Vom Menschen als Symbol bei Peirce zum Abschätzen duch Nachzählen der Zeichen in der eigenen Dissertation: Tatsächlich kann muss man angesichts dieses Gedankengangs als Leser*in festhalten, dass semantikarme Argumentationsketten jedenfalls möglich sind.

Der Autor beweist zweifelsfrei, dass semantikfreie Schlüsse möglich sind.

Wie sich im nächsten Abschnitt zeigt, glaubt Adrian dann tatsächlich, dass man durch eine computergestützte formal-syntaktische Analyse nach Zeichenketten, (ein «Fischen nach Sprachquanten») in statischen juristischen Texten «sinnvolle bzw. bedeutsame Sprachquanten bzw. Ketten von Sprachquanten mit Hilfe von Computern sichtbar und handhabbar» machen könne (S 103). Damit soll ein Richterautomat befähigt werden, Urteile zu fällen!

Dieser syntaktische Ansatz hatte mit dem Werk Chomsky's11 Auftrieb erhalten. Daraus entwickelten sich technische Auszeichnungssprachen (Markup) wie SGML, XML und HTML und seit den 1970er Jahren neben klassischen Ansätzen wie der von Salton neue Konzepte für Computerlinguistik und Information Retrieval. Nach wie vor ist Relevanz und Bedeutung (Semantik) für Computer nur indirekt über die Syntax und nie direkt erschliessbar (so schon Rijsbergen im persönlichen Gespräch 1995).

Nach seiner Meinung müsse «Sprache […] zur Gewinnung dieser syntaktischen Struktur [..] nur selbstreferenziell» angewendet werden, da laut Wittgenstein und dem linguistic turn «Bedeutung durch referentielle Bezugnahmen der Sprache auf etwas anderes als Sprache nicht erlangt werden» könne.

Schon in Fussnote 1 hat Adrian einen möglichen Bezug zur Realität verneint (!) und wundert sich dann (S 85) darüber, dass «einige Juristen immer noch dem Irrtum unterliegen, dass die natürliche Sprache in irgendeiner Art […] mit den Phänomenen der Realität verbunden» sei. Was seinen Artikel betrifft, wenn Sie mir den Sarkasmus verzeihen, dürfte er damit allerdings tatsächlich recht haben.

Nun kann man über die konkrete Art der Verbindung von Realität und Sprache sicher unterschiedlicher Meinung sein, selbst aus einer trockenen systemtheoretischen Sicht nach Art von Niklas Luhmann gibt es aber zumindest die Idee einer losen Kopplung zwischen beiden.

Eine komplette Auflistung und Dokumentation aller fragwürdigen Schlüsse und Annahmen in diesem Aufsatz wäre wohl Stoff für einige Aufsätze oder gar ein Buch und sprengt den zeitlichen und inhaltlichen Rahmen dieses Formats hier.

Ich versuche deshalb im nächsten Abschnitt eine pointierte rechtsphilosophische Einordnung:

Einordnung

Die trotz der Materialfülle und einiger lucidum intervallum offenkundige logisch lückenhafte und erratische «Argumentation» von Adrian lässt einem erleichtert aufatmen: Hurra, es gibt eine (juristische) Semantik! Hurra, es wird, ja es kann nach dieser «Logik» sicher nie einen Rechtsautomaten geben!

Welche fehlerhaften Grundannahmen von Adrian liegen dem aber zu Grunde?

Die im Titel behauptete These, Semantik sei eine Illusion, wird von Adrian nur mit Verweis auf den frühen Wittgenstein und den linguistic turn begründet, freilich ohne die spätere Sicht von Wittgenstein zu berücksichtigen und ohne den linguistic turn entsprechend einzuordnen (vgl. z. B. Das Ende des linguistic turn?). Die These wird nicht nur nicht erhärtet sondern im Gegenteil laufend als Argument und Dogma eingebracht und in Übereinstimmung mit dem funktionalistischen KI-Ansatz und der Ideologie des Digitalismus.

Funktionalismus und Digitalismus

Das Hauptproblem des ganzen Aufsatzes ist, dass Adrian nur gesprochene oder geschriebene sprachliche Äusserungen überhaupt gelten lässt. Auch mit «Sprachquanten» meint er ja lediglich juristische Textartefakte. Wenn Adrian nur juristische Texte oder explizite Sprechakte als Träger von Intelligenz gelten lässt, so geht er – auch wenn er sich am Anfang als Idealisten und Anti-Empiristen bezeichnet – implizit von einem rein materialistischen Erkenntnisbild aus, das geistiges ausklammert.

Gedanken als reale mentale Zustände physischer Systeme existieren für Adrian nicht. Dass Jurist*innen denken können und sich darüber intersubjektiv austauschen können, verkennt er gänzlich.

Adrian erkennt zwar an, dass Sprache und deren Verwendung gelernt wird (S 88ff). Jeder Mensch erhalte so ein “holistisches Netz”, das ihn oder sie individuell auszeichne. Kommunikation erlaube aber nur den Austausch von Worten und Zeichen (als Syntax), «deren semantische Bedeutung aus prinzipiellen Gründen […] nicht geklärt werden» könne. Es sei deshalb (S 91) «hilfreich, zu erkennen, dass man aus prinzipiellen, philosophischen Gründen gar nicht verstanden werden» könne (Hervorhebung PE).

Die «Idee einer semantischen Bedeutung der natürlichen Sprache» sei «nur eine Illusion der Menschen […]. Menschen simulieren also nur, dass die natürliche Sprache eine semantische Bedeutung hätte».

Zu behaupten, dass Menschen nur simulieren, dass Sprache für sie Bedeutung hätte, widerspricht diametral der psychischen Realität und der Eigenwahrnehmung aller Menschen12.

Adrian schliesst hier aus der Tatsache, dass Symbole (als Zeichen, im Unterschied zu Indizes und Ikonen) arbiträr gesetzt und benutzt werden, dass sie keine Bedeutung hätten. Er bringt dafür Quines Beispiel, bei dem jemand auf ein vorbeilaufende Kaninchen weist und “Gavagai” sagt (S 89). Natürlich funktioniert sprachliche Kommunikation semantisch, aber nur wenn die Begriffe mit Erfahrung verknüpft sind. Deshalb lernt man Sprachen und studiert Rechtswissenschaften. Das ist so banal, dass es fast schwer fällt, darauf hinzuweisen.

Selbst die kontextuelle Bezugnahme von Sprechakten zur inferentiellen Generierung von Semantik nach Brandom (S 91) lehnt Adrian nach der Anmerkung, dass diese Theorie «viel komplexer und komplizierter ist, als dies hier dargestellt werden kann» mit dem erneuten axiomatischen Hinweis ab, «Es ist den Menschen aus prinzipiellen Gründen […] nicht möglich, semantische Bedeutung auszutauschen».

Adrian liegt hier nicht nur aus der Sicht des gewöhnlichen Hausverstands falsch:

  • Menschen wissen sehr präzise, ob sie etwas verstanden haben und verstanden worden sind. Menschen kommunizieren fast ausschliesslich, um Bedeutung und Sinn auszutauschen – selbst wenn es nur um das Verstehen eines Witzes geht. Niemand würde sagen, dass ein guter Witz keinerlei Bedeutung (Semantik) hat. Und jede*r weiss, ob er oder sie die Pointe verstanden hat oder nicht.

  • In philosophischer Hinsicht können Gedanken als mentale Zustände mit bestimmten (Bedeutungs-)Qualitäten verstanden werden. Gedanken könne sich auf Tatsachen des Universums/der Natur beziehen («Die Sonne scheint.») oder auf Tatsachen der Rechtssphäre («Mietrecht existiert») oder auf andere Gedanken (z. B. auf Absichten «Ich muss noch den Gewährleistungsanspruch prüfen.»).

  • Semantisch und inhaltlich verstanden beweist unser juristisches System tagtäglich, dass sich Jurist*innen über juristische Sachverhalte und Begriffe austauschen können und dass sie sich über das schuldhafte an der Schuld oder das kontokorrentmässige am Kontokorrentkredit verständigen können. Eine objektivierte oder gar objektive Rechtsphänomenologie ist wegen der nicht nur subjektiven sondern auch propositionalen Qualität von Ideen ganz selbstverständlich möglich. Sie wird auch von der Rechtswissenschaft seit Jahrhunderten kultiviert und gelebt.

  • Indem Adrian nur auf Sprachartefakte als Ergebnis juristischer Denktätigkeit abstellt und diese wie eine Nebelgranate als «Sprachquanten» bezeichnet, folgt er im Grunde einem panpsychischen Ansatz. Nach diesen wird die (ungeistige) Natur mit Geist aufgeladen: Materie ist demnach das aktuelle lokale Ergebnis einer grossen Berechnung die live abläuft. Nach Adrian sind die juristischen Schrifstücke als Sprachquanten die in die Materie internalisierten panpsychischen Denkprozesse.

Das schreibt er zwar nicht, aber nur so kann man das von ihm behauptete Ergebnis überhaupt erklärbar machen. (Die Frage, ob es sinnvoll ist, hier noch etwas retten zu wollen, einmal aussen vor gelassen.)

Bei Adrian sind es juristische Texte, die als Sprachquanten gedanklich mit Geist beseelt werden und über deren maschinenverarbeitete syntaktische Simulation juristische Expertise aus der Maschine kommen soll.

Da «in den Rechtswissenschaften keine Einigkeit darin» bestehe «wie der juristische Entscheider die semantische Bedeutung korrekt aus dem Text „herauszuholen“» (S 83) habe und wegen der (nicht belastbaren) Hinweise auf Wittgenstein und den linguistic turn leugnet Adrian das geistvolle der juristischen Tätigkeit und des juristischen Sachverstands komplett und verschiebt es wie in einem Taschenspielertrick in die physische Realität der Texte als “Sprachquanten”, um von dort von ihm deus-ex-machine glorios wider hervorgeholt zu werden und aufzuerstehen.

Adrian übersieht dabei, dass alle juristischen Schriftartefakte lediglich das Ergebnis einer geistigen juristischen Tätigkeit sind und nicht deren Quelle.

Trotz dieses überzogenen Ansatzes ist Adrian klar, dass seine Maschine sehr viel menschliche Semantik im Vorlauf benötigt und dass «menschliche Juristen» weiter erforderlich bleiben, um die Maschine quasi zu füttern (S 105). Er sieht weiters ein, dass «unsere Maschine […] ihre Stärke in der Klärung rechtlicher Fragen und nicht in der Erstellung des rechtlich relevanten Sachverhaltes» hätte.

Das ist vollkommen richtig, ein lucidum intervallum: Warum das aber so ist, wenn Menschen Semantik doch nur simulieren, bleibt im Dunkeln.

Der semantikfreie Richterautomat würde also, selbst nach Adrian, nur funktionieren, wenn er mit möglichst semantisch aufgeladenen und mit juristischem Verstand vorsortierten Inhalten gefüttert werden würde.

Worauf Adrian gar nicht eingeht ist die Frage, nach welchen Algorithmen dieser Richterautomat denn eine juristische Bedeutung mit konkretem Bezug auf einen Rechtsfall herausholen soll. Wäre er der Frage nachgegangen, so hätte er erkennen müssen, dass KI lediglich eine Denkausführung nach einem vordefinierten formalen Schema und auf einem hinterlegten formalen Gebiet ermöglicht, aber keinen realen Denkvollzug im wirklichen Leben darstellt. Schon alleine wegen dieser Tatsache wird ein Richterautomat nie möglich sein oder werden.

Da künstliche Intelligenz Maschinenlernen immer unterkomplex ist, kann es nie Probleme der realen Welt lösen.

Da die von der künstlichen Intelligenz vom Maschinenlernen verwendeten Denkmodelle zudem immer unterkomplex zur realen juristischen Wirklichkeit sind, können sie rein systemtheoretisch nie deren akkurat Probleme lösen (Ashybs Law), so wie bei Malen nach Zahlen nie ein echte Kunstwerk entstehen wird.

Der Turing-Test

Laut Adrian soll es möglich sein, «eine Theorie zu entwerfen, die erklärt, warum eine Maschine […] juristische Sprache so umfassend simulieren können müsste, dass ein Rechtsfall insgesamt entschieden werden kann.»

Eine Maschine kann alleine schon deshalb nie einen Rechtsfall lösen, weil sie nicht einmal in der Lage ist, einen solchen als solchen zu erkennen. Als Gegenstand kann ein Computer keine Probleme haben, also kann er auch nicht intelligent sein – Intelligenz als Fähigkeit, Probleme zu lösen (so Markus Gabriel).

Adrian verwechselt hier den Anschein von Fallösung mit echter Fallösung, also die künstliche Intelligenz als modellabhängige Landkarte mit dem realen rechtlichen «Gelände». Die Simulation der juristischen Sprache als statisches Substrat von etwas lebendig geistig Gedachtem hat mit dem zugrundeliegenden realen Denkvollzug so viel zu tun wie das Foto Ihres Lebensmenschen in der Geldtasche mit dem realen Menschen dahinter. (Wie Einstein angeblich über ein ihm gezeigtes Foto anmerkte: Aha, das ist also Ihre Frau, die ist aber wirklich sehr klein.)

Laut Adrian soll die Maschine dann mit dem Turing-Test dahingehend getestet werden, ob «der Text von einer Mehrheit von Juristen für sinnvoll erachtet wird». Das genügt ihm schon um seine im Titel überhöhten Erlösungsversprechen zu begründen. Inhaltlich (sic!) kann der Turing-Test das aber nicht leisten:

Mit einem erfolgreich absolvierten Turing-Test können Sie nur vermuten, dass ihr Gegenüber die Intelligenz einer echten Person haben könnte, nicht dass diese tatsächlich intelligent ist. Das ist ja genau das Problem des Turing-Tests, dass er von Intelligenz als Ausstattung von Lebewesen fürs Überleben abstrahiert und diese reduzierte funktional verstehen möchte13.

Das ist ungefähr so, also ob bei Google Captchas, die nichts anderes als einen Turing-Test darstellen, das Erkennen einer Brücke oder einer Verkehrsampel mit der Ingenieursintelligenz gleichgesetzt wird, die benötigt wird, um die Brücke oder die Verkehrsampel zu bauen:

Nur weil ein Text von Juristen mit einem hohen Anteil bekannter Phrasen als juristisch sinnvoll Text erachtet wird, sagt das nichts über seine Qualität im konkreten Fall aus.

Gerade moderne KI-Systeme scheitern zudem daran, ihre Aussagen begründen zu können. Eine solche Begründungsnotwendigkeit ist aber eine wesentliche Grundlage unseres Rechts- und Demokratieverständnisses. Ohne Begründungskraft könnte ein Richterautomat, wie ihn Adrian sich wünscht, nur in einem totalitären System regelkonform eingesetzt werden.

Zusammenfassung

Adrian hat einen Ausweg gesucht, um Legaltech und der KI-Forschung, vielleicht sogar einem konkreten Projektantrag einen theoretischen Unterbau zu liefern. Dieser Versuch ist grandios gescheitert – Adrian fuhr gewissermassen mit Vollgas in die Sackgasse und schlug an der abschliessenden Betonwand hart auf.

Dass so ein Aufsatz (1) in einer renommierten juristischen Zeitschrift erscheint und (2) nicht weiter diskutiert, (3) kritisiert und (4) von der Rechtsgemeinschaft klar zurückgewiesen wird, zeigt nur allzudeutlich, wie schwach Rechtstheorie, Rechtssethik und Rechtsphilosophie als Geisteswissenschaften geworden sind. Es zeigt auch, in welchem Ausmass ein falsches digitales Rechtsbewusstein um sich gegriffen hat.

Sein Aufsatz wirft angesichts seiner sprunghaften und collageartigen «Argumentation», der axiomatischen Eingangsthese, die nicht weiter reflektiert oder begründet wird und ideologische Züge und Zwänge aufweist, grundlegende Fragen auf. Der einseitig überhöhte Erwartungsdruck im Titel kontrastiert an vielen Stellen eigenartig mit vernünftigen Anmerkungen. Der an vielen Stellen durchtriefende materialistische Digitalismus, der jede juristische Geistestätigkeit und jahrtausendealte juristische Denkschulen einfach ignoriert, ertränkt freilich auch diese richtigen Ansätze zwischendurch.

Es wirkt entlastend, wenn sich die Unhaltbarkeit der beiden Thesen in der Überschrift zeigt: Es kann auf Grund dieser Argumentationsketten sicher nie einen Richterautomaten geben und Semantik ist definitiv keine Illusion. Das war eigentlich sowieso schon klar, es tut aber gut, sich dessen vergewissert zu haben.

Um den berühmten NRC-Report aus 1966 (!) zu paraphrasieren, darf ich angesichts dieses Aufsatzes gerne und aus gutem Grund behaupten, dass «ein Rechtsautomat teurer, ungenauer und langsamer als jede juristische Problemlösung» wäre, wenn es denn einen gäbe («machine translation was more expensive, less accurate and slower than human translation»). Das Ziel war damals, für den Geheimdienst ein Übersetzungsprogramm aus dem Russischen zu entwickeln, und so die militärische Sicherheit zu erhöhen14.

Wenn Adrian andererseits meint, dass auf dieser Basis «der juristische Obersatz, also das Recht, von der Maschine und nicht durch einen menschlichen Richter „konstruiert“» werden soll, wird es richtig gruselig: Der Gedanke, dass für solche Forschungen öffentliche Gelder ausgegeben werden oder so ein Automat eines Tages tatsächlich normativ wirksam aufgestellt werden soll, ist einfach nur abstossend.

Dass Adrian eine LegalTech-Ausbildung leitet und dort mit hoher Wahrscheinlichkeit diese digitalistische Ideologie im Ausbildungskontext propagiert, wirkt gleichermassen besorgniserregend. Denn das Rechtssystem ist über weite Strecken schon zu weit weg von den Rechtssubjekten, deren Alltag es regelt.

Nach Gabriel kann Denken als Ausübung der Fähigkeit eines Lebewesens, verstanden werden, sich selbst in seiner Stellung zu bestimmen, und zwar auch in Bezug auf sein Denken.

Es geht also darum, die bestehende Kapazität der Menschen im Rechtssystem juristisch denken zu können, auch im Hinblick auf deren Ressourcen und Ausstattungen, zu stärken, nicht es weiter zu technisieren und damit unmenschlicher und entrückter zu machen.

Es wäre höchste Zeit, dass sich die Rechtsinformatik als Handlungswissenschaft endlich den gesellschaftlichen Auswirkungen stellt und sich auf die nachhaltige Unterstützung von juristischen Tätigkeiten und von menschlich relevanten und substanziellen Vorgängen fokussiert. Um mit Steve Jobs zu sprechen: Rechtsinformatische Digitalisierung als Fahrrad für Juristen, nicht als ideologischer Digitalimsus. Angesichts der Dominanz des vorherrschenden falschen digitalen Rechtsbewusstseins – gerade in LegalTech Kontext – wird es aber wohl noch einige Zeit dauern, bis solche, dem Menschen und dem demokratischen Rechtssystem zugewandte Lösungen aktiv entwickelt werden.

Epilog

Dieser bemerkenswerte Aufsatz von Adrian stellt in eigenartiger Weise eine Ausprägung der Thesen dar, die er vertritt:

  1. Er ist nicht nur realitätsfern, er ist überhaupt mit der Realität nicht verbunden (so wie er das von der Sprache behauptet). Weder mit der realen der KI-Forschung seit den 1960er Jahren, mit dem Stand der Computerlinguistik noch mit zeitmässen (rechts-)philosophischen Theorien der geistigen Gegenwart oder der Vergangenheit.

  2. Wenn er Peirce nutzt, um daraus die Unmöglichkeit von Semantik abzuleiten, das semiotische Konzepte also einfach ins Gegenteil verdreht oder erst gar nicht versteht, ist er tatsächlich inhaltsfrei.

  3. Er vermischt verschiedene wissenschaftliche Ansätze an der Wortoberfläche zu einem bedeutungsfreien Sammelsurium, bei dem man fast an die tippenden Affen denken muss, die mit einer ganz geringen Wahrscheinlichkeit auch einmal ein sinnvolles Buch erzeugen – oder zumindest eines, das man auf den ersten Blick dafür halten könnte.

  4. Er würde den Turingtest bestehen: Auf den ersten Blick ist es ein akademisch ernstzunehmender Aufsatz. Man hält ihn für wissenschaftlich. Er könnte von einem Menschen geschrieben sein, der sich mit der Materie auskennt.

Dass der Beitrag überhaupt in einem rechtswissenschaftlichen Journal erschienen ist, deutet auf eine tiefe Krise des Rechts, auf eine sehr tiefe Krise. Das Recht versteht die Welt offenbar nicht mehr. Es ist in einem Paradigmenwechsel verfangen, den es selbst noch gar nicht richtig wahrnimmt. Das Rechtssystem ist nicht mehr national, hierarchisch, und normativ tonangebend. Das Digitale und die Globalisierung haben ihm stark zugesetzt. Es gibt immer mehr rechtsfreie Räume und für das Recht schwer einordenbare Phänomene wie Digitale Währungen.

Dem Recht ist deshalb jedes Mittel recht, und erst recht die modernen digitalen – um nur am Leben zu bleiben, bis hin zur freiwilligen Selbstaufgabe. Der Stolz der Rechtsphilosophie und der juristische Selbstwert haben sich selbst aufgegeben. Das Recht hat abgedankt. Es ist nicht einmal in der Lage seine eigene Verfahrenheit zu erkennen, geschweige denn den eigenen Paradigmenwechsel zu orchestrieren. In diese Notlage sticht der westamerikanisch geprägte Digitalismus hinein, der transhumanisch den Menschen vom Menschen erlösen möchte.

Auf dieser Erlösungsideologie segelt letztendlich dieser Artikel: Er gibt – freilich vollkommen unberechtigte – Hoffnung, dass das Recht auch im digitalen eine Funktion haben kann. Wenn nur endlich der erste Schritt gesetzt ist und geforscht wird, darf es in Zukunft Rechtsautomaten zuarbeiten! Ohne rechtstheoretisches Fundament, mit einer Rechtsinformatik die sich auf selbst auf Rechtsdogmatik beschränkt hat und selbstreferentiell nie über ihre ersten Forschungen hinausgekommen ist, ohne eine Rechtsphilosophie, die halbwegs auf der Höhe der Zeit ist, fehlt ihr jedes Kriterium, um so einen Beitrag wie den von Adrian zu entlarven.

Während Firmen wie IBM oder GE bei ähnlich gelagerten Annahmen inzwischen Milliardenverluste schultern mussten und sich an den Rand ihrer wirtschaftlichen Überlebensfähigkeit brachten15, sind akademische Institutionen in Deutschland offenbar geistig frei finanziert Räume für solche Fakekonzepte.

Post Scriptum

Dass es auch anders geht, und zwar auch in Deutschland, beweist Professor Markus Gabriel16 mit seinem Forschungszentrum «Center for Science and Thought» für KI in Bonn. Er hat die Klarheit und interdisziplinäre Kompetenz um tatsächlich vorne dran zu sein an der Erforschung von Konzepten der künstlichen Intelligenz, die ihren Namen auch verdienen. Seinen Ausführungen verdanke ich die notwendige Klarheit um die hochgradige Problematik des Artikels zu erkennen und zu analysieren, wobei sämtliche möglichen Fehler oder Missverständnisse seiner Ausführungen natürlich meine eigenen bleiben.

Literatur

Das Ende des “linguistic turns”? http://www.ruhr-uni-bochum.de/philosophy/staff/newen/download/Stellungnahmen.pdf

https://www.sandbothe.net/52.0.html

wenn er sprache als realität setzt, kommt er genau in das problem des widerspruchs von systemen hinein


xxx ideologie bei marx Notwendig falsches Bewusstsein bedeutet, dass die Wirklichkeit, einschliesslich dessen, was man empirische Wirklichkeit nennt, etwas ist, das sich in einem konsequent simulierten, gefälschten, wenn man so will, in einem getäuschten Verhältnis präsentiert Es bedeutet einen funktionierenden Zugriff auf Welt zu haben in der notwendig falsches Bewusstein bedeutet,

einen funktionierenden Zugriff auf Welt zu haben in der meine Aktionen, mein Erkenntnisvemrögen, mene ausreichen um in einem Bestand an Wirklichkeit völlig zuverlässig zu operieren

mit Ausnahme einer etnschiedenen verkennung, nämlich dass mein mein effizientes Verhalten,in der dieer welt mein effizientes Leben in dieser welt der Exzess meiner wünsche und deren Befriedigung verkenne ein ding: Hinter all diesenerkenntnissen Wünschen, Tätigkeiten produziere ich den eigenen Tod , ohne es zu wissen

leben zu glauben währnd ich den tod produueire. xxx

Jede Der Aufsatz suggeriert awirkt in der aktuellen form wie

leben zu glauben währen ich den eigenen tod produzeire Literaturwissenschaftler Joseph Vogl, Jahrgang 1957, https://www.faz.net/aktuell/feuilleton/ideologie-falsches-bewusstsein-eine-begriffsklaerung-1737553.html


  1. Adrian, Axel (2017): «Der Richterautomat ist möglich - Semantik ist nur eine Illusion”, Rechtstheorie, Bd. 48 (2017), Heft 1: S. 77–121 ↩︎

  2. Adrian, Axel (2009): Grundprobleme einer juristischen (gemeinschaftsrechtlichen) Methodenlehre”, Schriften zur Rechtstheorie, Band 254 ↩︎

  3. Zwar geht der radikale Konstruktivismus nach Glasersfeld von einer subjektiven Konstruktion von Realität aus. Selbst der radikale Konstruktivismus versteht kognitive Strukturen aber auch als Ergebnis einer Anpassungsleistung um Viabilität zu ermöglichen. Trotz der vom radikalen Konstruktivismus angenommenen Unmöglichkeit, objektive Realität wahrzunehmen, schliesst dies subjektive sprachliche Kommuniation und Bedeutung nicht in der Eindeutigkeit aus, die Adrian im ganzen Aufsatz an mehreren Stellen wiederholt und arbiträr behauptet. ↩︎

  4. Ebenhoch/Gantner (2018): Das Recht in der KI-Falle, Folie 13. Qualia gehen dadurch verloren, es kommt zu einem technischen Autismus. ↩︎

  5. Da Implementierungen auf dieser Basis wegen ihrer rein formalen Parametrisierung und einer blossen statistischen Korrelationsbasis nicht «mitdenken», nur reproduktiv wirken und keine aktiven Denkvollzüge gestalten können, scheitern sie regelmässig als Ratgeber, es handelt sich eher um «Rategeber». ↩︎

  6. Ebenhoch/Gantner (2018): Das Recht in der KI-Falle, Folie 21. ↩︎

  7. James, Williams: Der Wahrheitsbegriff des Pragmatismus (S 37). ↩︎

  8. Boyd, John Raymond (1976): Destruction and Creation ↩︎

  9. Peirce, Charles Sanders (1868): Some Consequences of Four Incapacities, Journal of Speculative Philosophy (1868) 2, 140-157. ↩︎

  10. James, Williams (1890): The Principles of Psychology. 2 Bände. Henry Holt and Company, New York 1890, hier Band 1, 336 – «the ‘stream’ of subjective consciousness». ↩︎

  11. Chomsky, Noam (1957): Syntactic Structures. Mouton, Den Haag 1957, de Gruyter, Berlin/New York 1989. ISBN 90-279-3385-5 ↩︎

  12. Wenn sie sich einen Finger einklemmen und von einem nahen Menschen Mitgefühl erhalten sind sowohl die Realität als auch die Kommunikation real und nicht simuliert. ↩︎

  13. Turing, Alan (1950): Computing Machinery and Intelligence, Mind 49: 433-460. ↩︎

  14. Dass Argument, dass eben diese Aussage falsch ist, weil es inzwischen viel leistungsfähigere Übersetzungsprogramme gäbe, ist zwar richtig, zeigt aber genau das Problem, wie sich an einem kleinen Beispiel zeigt: DeepL-Übersetzung Versetzen wir uns gedanklich in den kalten Krieg und nehmen wir an, die Amerikaner haben den russischen Satz: “nicht, mit dem bomben abwerfen warten!” abgefangen. Sie geben dies heute in die mit einiger Wahrscheinlichkeit beste öffentlich verfügbare Übersetzungsengine DeepL ein und erhalten: “not wait to drop the bombs!". Nicht unwahrscheinlich, dass sie sich dann verteidigen möchten und dass ein Krieg beginnt, weil es ein Computer falsch übersetzt hatte. Hier zeigt sich, dass Machine Learning, Legal- und Fintech selbst bei weiteren Verbesserungen nie Ratgeber sein können, sondern nur «Rategeber». ↩︎

  15. Ebenhoch, Peter (2020): Die Zipperlein des Dr. Watson. Dumm, wie Digitalisierung scheitern kann. ↩︎

  16. Gabriel, Markus (2018): KI als Denkmodell, Petersberger Gespräche ↩︎