Syntaktischer Materialismus - Rechtstheoretischer Digitalismus auf Irrwegen

Die alte Welt liegt im Sterben, die neue ist noch nicht geboren: Es ist die Zeit der Monster. Antonio Gramsci (1937)

Einleitung

Der Titel des Aufsatzes «Der Richterautomat ist möglich - Semantik ist nur eine Illusion”1 von Axel Adrian hatte mein Interesse geweckt. Adrian ist Honorarprofessor an der Rechts- und Wirtschaftswissenschaftlichen Fakultät der Universität Erlangen-Nürnberg, seine Dissertation über “Grundprobleme einer juristischen (gemeinschaftsrechtlichen) Methodenlehre”2 wurde 2008 mit dem Promotionspreis der Universität ausgezeichnet.

Der Aufsatz umfasst 44 Seiten und hat zur Idee, «ein philosophisches Konzept zur Erklärung von sprachlicher Bedeutung zu liefern, um eine entsprechende Programmarchitektur für einen „Lawbot“ zu entwickeln» (S 78) und endet wie so viele prophetische KI-Aufsätze mit einem Verweis auf die Zukunft: «Es ist noch ein langer Weg, bis ein solcher Richterautomat einen Turing-Test bestehen kann, aber jede Reise beginnt mit einem ersten Schritt.» (S 121)

Die philosophische Flughöhe einer «allgemeinen Wissenschaftstheorie» ist anspruchsvoll und die Ambition, ja – wie sich noch zeigen wird – die Tollkühnheit des Autors beeindruckend.

Schliesslich mangelt es der Rechtstheorie und der Rechtsinformatik schon seit längerem an grundlegenden Überlegungen, um den seit Jahrzehnten vernachlässigten reflektierenden rechtsmethodischen Anschluss an die aktuellen, sich fast überstürzenden digitalen Entwicklungen auch nur ansatzweise wieder herzustellen.

Umso bedauerlicher, dass festgestellt werden muss, das das Vorhaben des Autors wie eine irrlichternde Rakete daneben geht.

Adrian ist sich dessen wohl bewusst, wenn er zu Beginn auf Seite 78 schreibt:

“Wenn es am Ende jemals gelingen sollte, die hier vorgestellte Theorie in der Praxis zu testen, wird eine entscheidende Bedingung dafür gewesen sein, dass Mitglieder aus verschiedenen Wissenschaften in der Lage waren, sich „zu verstehen“ und als Team zu kooperieren, was, wie noch zu zeigen sein wird, aus erkenntnistheoretischen Gründen eigentlich gar nicht möglich sein kann."

Zwar dürfte es noch wesentlich mehr entscheidende Gründe geben, die er im Aufsatz gar nicht erwähnt:

So ist beispielsweise das Commonsense Kowledge Problem oder das Problem der Word-Sense Disambiguation seit den 1960er Jahren ungelöst.

Selbst nach seiner Meinung ist aber eine entscheidende Bedingung zur Realisierung seiner Theorie aus erkenntnistheoretischen Gründen nicht möglich.

Man fragt sich, warum er an dieser Stelle 40 weitere Seiten geschrieben hat, wenn er schon zu Beginn feststellt, das seine Theorie sich nie realisieren wird lassen? Adrian hat es mit diesem Aufsatz jedenfalls einer Lösung nicht näher bringen können. Das ist sehr bedauerlich. Mehr Klarheit, Transparenz und Aufklärung über die geeigneten Rahmen- und Einsatzbedingungen von KI im Recht wären dringend notwendig. Durch das klare Aufzeigen der Grenzen könnten sich nämlich die Juristen und Europa von vorherrschenden digitalen Erlösungsversprechen aus den USA emanzipieren und einen eigenständigen Weg verfolgen der sachnäher ist und wertschöpfendere Lösungen ermöglichen würde, die sich in der Praxis bewähren würden.

Positiv gewendet also Entwarnung: Semantik ist keine Illusion und es einen solchen Richterautomaten wird es sicher niemals geben!

Adrian's «semantikfreie» Gedankengänge

Die Menge der Fussnoten und Referenzen ist beeindruckend (106 insgesamt) – die Liste an unklaren Bezügen, unlogischen und zu weit hergeholten Schlussfolgerungen allerdings auch. Fast scheint es, könnte man spöttisch anmerken, als würde Adrian seine These «Semantik ist eine Illusion» sehr ernst nehmen, ganz nach dem Motto «walk the talk».

Wenigstens gehört es nicht zu Adrian's Programm, die inzwischen doch deutlich aus der Zeit gefallenen aber immer noch auf Konferenzen stetig propagierten Ansätze für logische Programmierung, Ontologien und Wissensrepräsentationen aus den 1980er Jahren weiter künstlich am Leben zu erhalten.

Das ist ihm positiv anzurechnen, selbst wenn es recht zaghaft geschieht: In Fussnote 2 grenzt er seinen Ansatz von einigen Arbeiten ab, in Fussnote 3 merkt er an, dass er sich als Jurist schwer tue, seinen Ansatz einzuordnen – und listet gleichzeitig Referenzen auf, mit denen er sich eben schwer tut. Schade, denn die Schwächen und mangelnden Umsetzungserfolge vieler dieser mehr als in die Jahre gekommenenen rechtsinformatischen Ansätze wären es wert, deutlicher herausgearbeitet zu werden.

Tatsächlich wird heute noch regelmässig von akademischen Bürokraten (die männliche Form ist hier Absicht) behauptet, dass die seit Jahrzehnten schon existierenden Ansätze für juristische Ontologien schon funktionieren würden, wenn man halt endlich welche erstellen würde. Vielleicht glauben deren Protagnisten das tatsächlich selber und sehen die grundsätzlichen erkenntnistheoretischen Probleme, dass sich Rechtmethodik nicht auf logische Begriffsnetze beschränken lässt, immer noch nicht.

Formale Systeme können nicht widerspruchsfrei definiert werden.

Adrian stellt diese erkenntnistheoretische Sackgasse, in der sich einige dieser vor Jahrzehnten eifrig verfolgten Konzepte befinden, gut im Abschnitt IV dar: Formale Systeme können nicht widerspruchsfrei verfeinert werden und falls man dies versucht, so steigt die mögliche Variabilität zu stark an («Fluch der Dimensionalität»). Eine Einsicht, die zwar schon 1976 im Artikel Destruction and Creation von John Boyd3 differenzierter formuliert worden ist, vielen aber wegen dessen universitätsfernen Kontexts immer noch nicht geläufig sein dürfte.

Diese Einsichten machen das Kraut aber nicht fett.

Der semantische Griff ins semiotische Klo

Dass Adrian sich ausgerechnet an Peirce vergreift4, um seine Behauptung, dass es keine Semantik gäbe, zu untermauern, führte zu einer akuten intellektuellen Notsituation des Autors, die die allzu derbe Überschrift hoffentlich entschuldbar macht: Immerhin hat gerade Peirce mit dem triadischen Zeichenbegriff das “Konzept der Zeichenbedeutung” postuliert (Eco zitiert nach Homberger/Wikipedia).

Peirce hat das Konzept der semantischen Zeichenbedeutung postuliert.

Dass ins Gegenteil zu verkehren erfordert Chuzpe und wird von Adrian handwerklich so durchgeführt:

  1. Während Peirce und sein Mitbegründer des amerikanischen Pragmatismus William James5 den Bewusstseinsstrom als Abfolge von mentalen Zuständen mit bestimmten Qualitäten (also Qualia) verstanden, entstehen bei Adrian aus diesem lebendigen inneren Reichtum “Aus einem unendlichen Bewusstseinsstrom […] Sprachquanten” (Hervorhebung PE): Sprachquanten?

  2. Dieser im Hinblick auf Quanten und Quantencomputer konnotativ vorbelastete Begriff wird etwas später denkbar banal umrissen: Sprachquanten sind die Menge «an juristischen Büchern, Urteilen und Texten». «Sprachquanten» sind also nichts anderes als juristische Textsorten.

  3. Dieses juristische Schriftgut wird von Adrian im nächsten Abschnitt gnadenlos semantisch entblösst und rein quantitativen Datendurchsatzrechnungen zu unterwerfen, in Fussnote 66: «Meine Dissertation hat, wie man durch Nachzählen abschätzen kann, insgesamt nur zwischen 5.000.000 und 6.000.000 Zeichen».

Vom Menschen als Symbol bei Peirce zum Abschätzen duch Nachzählen der Zeichen in der eigenen Dissertation: Tatsächlich kann muss man angesichts dieses Gedankengangs als Leser*in festhalten, dass semantikarme Argumentationsketten jedenfalls möglich sind.

Semantikfreie Schlüsse sind möglich.

Wie sich im nächsten Abschnitt zeigt, glaubt Adrian dann tatsächlich, dass man durch eine computergestützte formal-syntaktische Analyse nach Zeichenketten, (ein «Fischen nach Sprachquanten») in statischen juristischen Texten «sinnvolle bzw. bedeutsame Sprachquanten bzw. Ketten von Sprachquanten mit Hilfe von Computern sichtbar und handhabbar» könne (S 103), die einen Richterautomaten befähigen sollen, Urteile zu fällen!

Dieser syntaktische Ansatz hatte mit dem Werk Chomsky's6 Auftrieb erhalten. xml, html xxx erhielt und seit den 1970er Jahren praktiziert und wisseschaftlich als Computerlinguistik und Information Retrieval weit entwickelt worden sind, und auch von Salton oder Rijsbergen – wobei sich nach letzterem gezeigt hat, dass «Relevanz» (also Semantik/Bedeutung) nie syntaktisch erschliessbar sei (im persönlichen Gespräch 1995).

Nach seiner Meinung müsse «Sprache […] zur Gewinnung dieser syntaktischen Struktur [..] nur selbstreferenziell» angewendet werden, da laut Wittgenstein und dem linguistic turn «Bedeutung durch referentielle Bezugnahmen der Sprache auf etwas anderes als Sprache nicht erlangt werden» könne.

Schon in Fussnote 1 hat Adrian einen möglichen Bezug zur Realität verneint (!) und wundert sich dann (S 85) darüber, dass «einige Juristen immer noch dem Irrtum unterliegen, dass die natürliche Sprache in irgendeiner Art […] mit den Phänomenen der Realität verbunden» sei. (Ja, Sie haben richtig gelesen.)

Nun kann man über die konkrete Art der Verbindung von Realität und Sprache sicher unterschiedlicher Meinung sein, selbst aus einer trockenen systemtheoretischen Sicht nach Art von Niklas Luhmann gibt es aber zumindest die Idee einer losen Kopplung zwischen beiden.

Eine komplette Auflistung und Dokumentation aller fragwürdigen Schlüsse und Annahmen in diesem Aufsatz wäre wohl Stoff für einige Aufsätze oder gar ein Buch und sprengt den zeitlichen und inhaltlichen Rahmen dieses Formats hier.

Ich versuche deshalb im nächsten Abschnitt eine pointierte rechtsphilosophische Einordnung:

Einordnung

Die trotz der Materialfülle und einiger lucidum intervallum offenkundige logisch lückenhafte und erratische «Argumentation» von Adrian lässt einem erleichtert aufatmen: Hurra, es gibt eine (juristische) Semantik! Hurra, es wird, ja es kann nach dieser «Logik» sicher nie einen Rechtsautomaten geben!

Welche fehlerhaften Grundannahmen von Adrian liegen dem aber zu Grunde?

Die im Titel behauptete These, Semantik sei eine Illusion, wird von Adrian nur mit Verweis auf den frühen Wittgenstein und den linguistic turn begründet, freilich ohne die spätere Sicht von Wittgenstein zu berücksichtigen und ohne den linguistic turn entsprechend einzuordnen (vgl. z. B. Das Ende des linguistic turn?). Die These wird nicht nur nicht erhärtet sondern im Gegenteil laufend als Argument und Dogma eingebracht und in Übereinstimmung mit dem funktionalistischen KI-Ansatz und der Ideologie des Digitalismus.

Metaphysischer Realismus

Das Hauptproblem des ganzen Aufsatzes ist, dass Adrian nur gesprochene oder geschriebene sprachliche Äusserungen überhaupt gelten lässt. Auch mit «Sprachquanten» meint er ja lediglich juristische Textartefakte. Wenn Adrian nur juristische Texte oder explizite Sprechakte gelten lässt, so geht er implizit von einem rein materialistischen Weltbild aus, das geistiges ausklammert.

Gedanken als reale mentale Zustände physischer Systeme existieren für Adrian nicht. Dass Jurist*innen denken können und sich darüber austauschen können, verkennt er gänzlich.

Adrian erkennt zwar an, dass Sprache und deren Verwendung gelernt wird (S 88ff). Jeder Mensch erhalte so ein “holistisches Netz”, das ihn oder sie individuell auszeichne. Kommunikation erlaube aber nur den Austausch von Worten und Zeichen (als Syntax), «deren semantische Bedeutung aus prinzipiellen Gründen […] nicht geklärt werden» könne. Es sei deshalb (S 91) «hilfreich, zu erkennen, dass man aus prinzipiellen, philosophischen Gründen gar nicht verstanden werden» könne (Hervorhebung PE).

Die «Idee einer semantischen Bedeutung der natürlichen Sprache» sei «nur eine Illusion der Menschen […]. Menschen simulieren also nur, dass die natürliche Sprache eine semantische Bedeutung hätte».

Zu behaupten, dass Menschen nur simulieren, dass Sprache für sie Bedeutung hätte, widerspricht diametral der psychischen Realität und der Eigenwahrnehmung aller Menschen.

Adrian schliesst hier aus der Tatsache, dass Symbole (als Zeichen, im Unterschied zu Indizes und Ikonen) arbiträr gesetzt und benutzt werden, dass sie keine Bedeutung hätten. Er bringt dafür Quines Beispiel, bei dem jemand auf ein vorbeilaufende Kaninchen weist und “Gavagai” sagt (S 89). Natürlich funktioniert sprachliche Kommunikation semantisch, aber nur wenn die Begriffe mit Erfahrung verknüpft sind. Deshalb lernt man Sprachen und studiert Rechtswissenschaften. Das ist so banal, dass es fast schwer fällt, darauf hinzuweisen.

Selbst die kontextuelle Bezugnahme von Sprechakten zur inferentiellen Generierung von Semantik nach Brandom (S 91) lehnt Adrian nach der Anmerkung, dass diese Theorie «viel komplexer und komplizierter ist, als dies hier dargestellt werden kann» mit dem erneuten axiomatischen Hinweis ab, «Es ist den Menschen aus prinzipiellen Gründen […] nicht möglich, semantische Bedeutung auszutauschen».

Adrian liegt hier nicht nur aus der Sicht des gewöhnlichen Hausverstands falsch:

  • Menschen wissen sehr präzise, ob sie etwas verstanden haben und verstanden worden sind. Menschen kommunizieren fast ausschliesslich, um Bedeutung und Sinn auszutauschen – selbst wenn es nur um das Verstehen eines Witzes geht. Niemand würde sagen, dass ein guter Witz keinerlei Bedeutung (Semantik) hat. Und jede*r weiss, ob er oder sie die Pointe verstanden hat oder nicht.

  • In philosophischer Hinsicht können Gedanken als mentale Zustände mit bestimmten (Bedeutungs-)Qualitäten verstanden werden. Gedanken könne sich auf Tatsachen des Universums/der Natur beziehen («Die Sonne scheint.») oder auf Tatsachen der Rechtssphäre («Mietrecht existiert») oder auf andere Gedanken (z. B. auf Absichten «Ich muss noch den Gewährleistungsanspruch prüfen.»).

  • Semantisch und inhaltlich verstanden beweist unser juristisches System tagtäglich, dass sich Jurist*innen über juristische Sachverhalte und Begriffe austauschen können und dass sie sich über das schuldhafte an der Schuld oder das kontokorrentmässige am Kontokorrentkredit verständigen können. Eine objektivierte oder gar objektive Rechtsphänomenologie ist möglich.

Indem Adrian nur auf Sprachartefakte als Ergebnis juristischer Denktätigkeit abstellt und diese wie eine Nebelgranate als «Sprachquanten» bezeichnet, folgt er im Grunde einem panpsychischen Ansatz. Nach diesen wird die (ungeistige) Natur mit Geist aufgeladen: Materie ist demnach das aktuelle lokale Ergebnis einer grossen Berechnung die live abläuft. Nach Adrian sind die juristischen Schrifstücke als Sprachquanten die in die Materie internalisierten panpsychischen Denkprozesse. Das schreibt er zwar nicht, aber nur so kann man das von ihm behauptete Ergebnis überhaupt erklärbar machen. (Die Frage, ob das überhaupt sinnvoll ist und da nicht zu viel in den Brunnen gefallen ist, einmal aussen vor gelassen.)

Bei Adrian sind es juristische Texte, die als Sprachquanten gedanklich mit Geist beseelt werden und über deren maschinenverarbeitete syntaktische Simulation juristische Expertise aus der Maschine kommen soll.

Da «in den Rechtswissenschaften keine Einigkeit darin» bestehe «wie der juristische Entscheider die semantische Bedeutung korrekt aus dem Text „herauszuholen“» (S 83) habe und wegen der (nicht belastbaren) Hinweise auf Wittgenstein und den linguistic turn leugnet Adrian das geistvolle der juristischen Tätigkeit und des juristischen Sachverstands komplett und verschiebt es wie in einem Taschenspielertrick in die physische Realität der Texte als “Sprachquanten”, um von dort von ihm deus-ex-machine glorios wider hervorgeholt zu werden und aufzuerstehen.

Adrian übersieht dabei, dass alle juristischen Schriftartefakte lediglich das Ergebnis einer geistigen juristischen Tätigkeit sind und nicht deren Quelle.

Trotz dieses überzogenen Ansatzes ist Adrian klar, dass seine Maschine sehr viel menschliche Semantik im Vorlauf benötigt und dass «menschliche Juristen» weiter erforderlich bleiben, um die Maschine quasi zu füttern (S 105). Er sieht weiters ein, dass «unsere Maschine […] ihre Stärke in der Klärung rechtlicher Fragen und nicht in der Erstellung des rechtlich relevanten Sachverhaltes» hätte.

Das ist vollkommen richtig, ein lucidum intervallum: Warum das aber so ist, wenn Menschen Semantik doch nur simulieren, bleibt im Dunkeln.

Der semantikfreie Richterautomat würde also, selbst nach Adrian, nur funktionieren, wenn er mit möglichst semantisch aufgeladenen und mit juristischem Verstand vorsortierten Inhalten gefüttert werden würde.

Worauf Adrian gar nicht eingeht ist die Frage, nach welchen Algorithmen dieser Richterautomat denn eine juristische Bedeutung mit konkretem Bezug auf einen Rechtsfall herausholen soll. Wäre er der Frage nachgegangen, so hätte er erkennen müssen, dass KI lediglich eine Denkausführung nach einem vordefinierten formalen Schema und auf einem hinterlegten formalen Gebiet ermöglicht, aber keinen realen Denkvollzug im wirklichen Leben darstellt. Schon alleine wegen dieser Tatsache wird ein Richterautomat nie möglich sein oder werden. Da die von der KI verwendeten Denkmodelle immer unterkomplex zur realen juristischen Wirklichkeit sind, können sie rein systemtheoretisch nie deren akkurat Probleme lösen (Ashybs Law), so wie bei Malen nach Zahlen nie ein echte Kunstwerk entstehen wird.

Der Turing-Test

Laut Adrian soll es möglich sein, «eine Theorie zu entwerfen, die erklärt, warum eine Maschine […] juristische Sprache so umfassend simulieren können müsste, dass ein Rechtsfall insgesamt entschieden werden kann.»

Eine Maschine kann alleine schon deshalb nie einen Rechtsfall lösen, weil sie nicht einmal in der Lage ist, einen solchen als solchen zu kennen. Als Gegenstand kann ein Computer keine Probleme haben, also kann er auch nicht intelligent sein, als Fähigkeit, Probleme zu lösen (so Markus Gabriel).

Adrian verwechselt hier den Anschein von Fallösung mit echter Fallösung, also die künstliche Intelligenz als modellabhängige Landkarte mit dem realen rechtlichen «Gelände». Die Simulation der juristischen Sprache als statisches Substrat von etwas lebendig geistig Gedachtem hat mit dem zugrundeliegenden realen Denkvollzug so viel zu tun wie das Foto Ihres Lebensmenschen in der Geldtasche mit dem realen Menschen dahinter. (Wie Einstein angeblich über ein ihm gezeigtes Foto anmerkte: Das ist Ihre Frau, die ist aber wirklich sehr klein.)

Laut Adrian soll die Maschine dann mit dem Turing-Test dahingehend getestet werden, ob «der Text von einer Mehrheit von Juristen für sinnvoll erachtet wird». Das genügt ihm schon um seine im Titel überhöhten Erlösungsversprechen zu begründen. Inhaltlich (sic!) kann der Turing-Test das aber nicht leisten:

Mit einem erfolgreich absolvierten Turing-Test können Sie aber nur vermuten, dass ihr Gegenüber die Intelligenz einer echten Person haben könnte, nicht dass diese tatsächlich intelligent ist. Das ist ja genau das Problem des Turing-Tests, dass er von Intelligenz als Ausstattung von Lebewesen fürs Überleben abstrahiert und es rein funktional verstehen möchte7.

Das ist ungefähr so, also ob bei Google Captchas, die nichts anderes als einen Turing-Test darstellen, das Erkennen einer Brücke oder einer Verkehrsampel mit der Ingenieursintelligenz gleichgesetzt wird, die benötigt wird, um die Brücke oder die Verkehrsampel zu bauen:

Nur weil ein Text von Juristen mit einem hohen Anteil bekannter Phrasen als juristisch sinnvoll Text erachtet wird, sagt nichts über seine Qualität im konkreten Fall aus.

Gerade moderne KI-Systeme scheitern zudem daran, ihre Aussagen begründen zu können. Eine solche Begründungsnotwendigkeit ist aber eine wesentliche Grundlage unseres Rechts- und Demokratieverständnisses. Ohne Begründungskraft könnte ein Richterautomat nur in einem totalitären System regelkonform werden.

Zusammenfassung

Adrian hat einen Ausweg gesucht, um Legaltech und der KI-Forschung, vielleicht sogar einem konkreten Projektantrag einen theoretischen Unterbau zu liefern. Dieser Versuch ist grandios gescheitert – Adrian fuhr gewissermassen mit Vollgas in die Sackgasse und schlug an der abschliessenden Betonwand hart auf.

Dass so ein Aufsatz (1) in einer renommierten juristischen Zeitschrift erscheint und (2) nicht weiter diskutiert, (2) kritisiert und (3) von der Rechtsgemeinschaft klar zurückgewiesen wird, zeigt nur allzudeutlich, wie schwach Rechtstheorie, Rechtssethik und Rechtsphilosophie als Geisteswissenschaften geworden sind.

Sein Aufsatz wirft angesichts seiner sprunghaften und collageartigen «Argumentation», der axiomatischen Eingangsthese, die nicht weiter reflektiert oder begründet wird und fast ideologische Züge aufweist, grundlegende Fragen auf. Der einseitig überhöhte Erwartungsdruck im Titel kontrastiert an vielen Stellen eigenartig mit vernünftigen Anmerkungen und wirkt stellenweise fast wie ein venire contra factum proprium. Der an vielen Stellen durchtriefende materialistische Digitalismus, der jede juristische Geistestätigkeit und jahrtausendealte juristische Denkschulen einfach ignoriert, ertränkt freilich auch diese richtigen Ansätze zwischendurch.

Es wirkt entlastend, wenn sich die Unhaltbarkeit der beiden Thesen in der Überschrift zeigt: Es kann auf Grund dieser Argumentationsketten sicher nie einen Richterautomaten geben und Semantik ist definitiv keine Illusion. Das war eigentlich sowieso schon klar, es tut aber gut, sich dessen vergewissert zu haben.

Um den berühmten NRC-Report aus 1966 (!) zu paraphrasieren, darf ich angesichts dieses Aufsatzes gerne und aus gutem Grund behaupten, dass «ein Rechtsautomat teurer, ungenauer und langsamer als jede juristische Problemlösung» wäre, wenn es denn einen gäbe («machine translation was more expensive, less accurate and slower than human translation»). Das Ziel war damals, für den Geheimdienst ein Übersetzungsprogramm aus dem Russischen zu entwickeln, und so die militärische Sicherheit zu erhöhen8.

Wenn Adrian andererseits meint, dass auf dieser Basis «der juristische Obersatz, also das Recht, von der Maschine und nicht durch einen menschlichen Richter „konstruiert“» werden soll, wird es allerdings so richtig gruselig: Der Gedanke, dass für solche Forschungen öffentliche Gelder ausgegeben werden oder so ein Automat eines Tages tatsächlich normativ wirksam aufgestellt werden soll, ist einfach nur abstossend.

Dass Adrian eine LegalTech-Ausbildung leitet und dort mit hoher Wahrscheinlichkeit diese digitalistische Ideologie im Ausbildungskontext propagiert, wirkt gleichermassen besorgniserregend. Denn das Rechtssystem ist über weite Strecken schon zu weit weg von den Rechtssubjekten, deren Alltag es regelt.

Nach Gabriel kann Denken als Ausübung der Fähigkeit eines Lebewesens, verstanden werden, sich selbst in seiner Stellung zu bestimmen, und zwar auch in Bezug auf sein Denken.

Es geht also darum, die bestehende Kapazität der Menschen im Rechtssystem juristisch denken zu können, auch im Hinblick auf deren Ressourcen und Ausstattungen, zu stärken, nicht es weiter zu technisieren und damit unmenschlicher und entrückter zu machen.

Es wäre höchste Zeit, dass sich die Rechtsinformatik als Handlungswissenschaft endlich den gesellschaftlichen Auswirkungen stellt und sich auf die nachhaltige Unterstützung von juristischen Tätigkeiten und von menschlich relevanten und substanziellen Vorgängen fokussiert. Um mit Steve Jobs zu sprechen: Rechtsinformatische Digitalisierung als Fahrrad für Juristen, nicht als ideologischer Digitalimsus.

Epilog

Dieser bemerkenswerte Aufsatz von Adrian stellt in eigenartiger Weise eine Ausprägung der Thesen dar, die er vertritt:

  1. Er ist nicht nur realitätsfern, er ist überhaupt mit der Realität nicht verbunden (so wie er das von der Sprache behauptet). Weder mit der realen der KI-Forschung seit den 1960er Jahren, mit dem Stand der Computerlinguistik noch mit zeitmässen (rechts-)philosophischen Theorien der geistigen Gegenwart oder der Vergangenheit.

  2. Wenn er Peirce nutzt, um daraus die Unmöglichkeit von Semantik abzuleiten, das semiotische Konzepte also einfach ins Gegenteil verdreht oder erst gar nicht versteht, ist er tatsächlich inhaltsfrei.

  3. Er vermischt verschiedene wissenschaftliche Ansätze an der Wortoberfläche zu einem bedeutungsfreien Sammelsurium, bei dem man fast an die tippenden Affen denken muss, die mit einer ganz geringen Wahrscheinlichkeit auch einmal ein sinnvolles Buch erzeugen – oder zumindest eines, das man auf den ersten Blick dafür halten könnte.

  4. Er würde den Turingtest bestehen: Auf den ersten Blick ist es ein akademisch ernstzunehmender Aufsatz. Man hält ihn für wissenschaftlich. Er könnte von einem Menschen geschrieben sein, der sich mit der Materie auskennt.

Dass der Beitrag überhaupt in einem rechtswissenschaftlichen Journal erschienen ist, deutet auf eine tiefe Krise des Rechts, auf eine sehr tiefe Krise. Das Recht versteht die Welt offenbar nicht mehr. Es ist in einem Paradigmenwechsel verfangen, den es selbst noch gar nicht richtig wahrnimmt. Das Rechtssystem ist nicht mehr national, hierarchisch, und normativ tonangebend. Das Digitale und die Globalisierung haben ihm stark zugesetzt. Es gibt immer mehr rechtsfreie Räume und für das Recht schwer einordenbare Phänomene wie Digitale Währungen.

Dem Recht ist deshalb jedes Mittel recht, und erst recht die modernen digitalen – um nur am Leben zu bleiben, bis hin zur freiwilligen Selbstaufgabe. Der Stolz der Rechtsphilosophie und der juristische Selbstwert haben sich selbst aufgegeben. Das Recht hat abgedankt. Es ist nicht einmal in der Lage seine eigene Verfahrenheit zu erkennen, geschweige denn den eigenen Paradigmenwechsel zu orchestrieren. In diese Notlage sticht der westamerikanisch geprägte Digitalismus hinein, der transhumanisch den Menschen vom Menschen erlösen möchte.

Auf dieser Erlösungsideologie segelt letztendlich dieser Artikel: Er gibt – freilich vollkommen unberechtigte – Hoffnung, dass das Recht auch im digitalen eine Funktion haben kann. Wenn nur endlich der erste Schritt gesetzt ist und geforscht wird, darf es in Zukunft Rechtsautomaten zuarbeiten! Ohne rechtstheoretisches Fundament, mit einer Rechtsinformatik die sich auf selbst auf Rechtsdogmatik beschränkt hat und selbstreferentiell nie über ihre ersten Forschungen hinausgekommen ist, ohne eine Rechtsphilosophie, die halbwegs auf der Höhe der Zeit ist, fehlt ihr jedes Kriterium, um so einen Beitrag wie den von Adrian zu entlarven.

Während Firmen wie IBM oder GE bei ähnlich gelagerten Annahmen inzwischen Milliardenverluste schultern mussten und sich an den Rand ihrer wirtschaftlichen Überlebensfähigkeit brachten9, sind akademische Institutionen in Deutschland offenbar geistig frei finanziert Räume für solche Fakekonzepte.

Post Scriptum

Dass es auch anders geht, und zwar auch in Deutschland, beweist Professor Markus Gabriel10 mit seinem Forschungszentrum für KI in Bonn. Er hat die Klarheit und interdisziplinäre Kompetenz um tatsächlich vorne dran zu sein an der Erforschung von Konzepten der künstlichen Intelligenz, die ihren Namen auch verdienen. Seinen Ausführungen verdanke ich die notwendige Klarheit um die hochgradige Problematik des Artikels zu erkennen und zu analysieren, wobei sämtliche möglichen Fehler oder Missverständnisse seiner Ausführungen natürlich meine eigenen bleiben.

Links

  1. Vergleiche auch das wissenschaftlich in einer ganz anderen seriöse Liga spielende Forschungscenter «Center for Science and Thought», dem Prof. Gabriel vorsteht.

Literatur

Das Ende des “linguistic turns”? http://www.ruhr-uni-bochum.de/philosophy/staff/newen/download/Stellungnahmen.pdf

https://www.sandbothe.net/52.0.html

wenn er sprache als realität setzt, kommt er genau in das problem des widerspruchs von systemen hinein


  1. Adrian, Axel (2017): «Der Richterautomat ist möglich - Semantik ist nur eine Illusion”, Rechtstheorie, Bd. 48 (2017), Heft 1: S. 77–121 ↩︎

  2. Adrian, Axel (2009): Grundprobleme einer juristischen (gemeinschaftsrechtlichen) Methodenlehre”, Schriften zur Rechtstheorie, Band 254 ↩︎

  3. Boyd, John Raymond (1976): Destruction and Creation ↩︎

  4. Peirce, Charles Sanders (1868): Some Consequences of Four Incapacities, Journal of Speculative Philosophy (1868) 2, 140-157. ↩︎

  5. James, Williams (1890): The Principles of Psychology. 2 Bände. Henry Holt and Company, New York 1890, hier Band 1, 336 – «the ‘stream’ of subjective consciousness». ↩︎

  6. Chomsky, Noam (1957): Syntactic Structures. Mouton, Den Haag 1957, de Gruyter, Berlin/New York 1989. ISBN 90-279-3385-5 ↩︎

  7. Turing, Alan (1950): Computing Machinery and Intelligence, Mind 49: 433-460. ↩︎

  8. Dass Argument, dass eben diese Aussage falsch ist, weil es inzwischen viel leistungsfähigere Übersetzungsprogramme gäbe, ist zwar richtig, zeigt aber genau das Problem, wie sich an einem kleinen Beispiel zeigt DeepL-Übersetzung: Versetzen wir uns gedanklich in den kalten Krieg und nehmen wir an, die Amerikaner haben den russischen Satz: “nicht, mit dem bomben abwerfen warten!” abgefangen. Sie geben dies heute in die mit einiger Wahrscheinlichkeit beste öffentlich verfügbare Übersetzungsengine DeepL ein und erhalten: “not wait to drop the bombs!". Nicht unwahrscheinlich, dass sie sich dann verteidigen möchten und dass ein Krieg beginnt, weil es ein Computer falsch übersetzt hatte. Hier zeigt sich, dass Machine Learning, Legeal und Fintech selbst bei weiteren Verbesserungen nie Ratgeber sein können, sondern nur «Rategeber». ↩︎

  9. Ebenhoch, Peter (2020): Die Zipperlein des Dr. Watson. Dumm, wie Digitalisierung scheitern kann. ↩︎

  10. Gabriel, Markus (2018): KI als Denkmodell, Petersberger Gespräche ↩︎