Falsches digitales Rechtsbewusstsein – Legaltech als «delirium digitalis» (Teil 2)

Die Stimme der Vernunft ist leise. Siegmund Freud

Einordnung

Die trotz der Materialfülle und einiger lucidum intervallum offenkundige logisch lückenhafte und erratische «Argumentation» von Adrian lässt einem erleichtert aufatmen: Hurra, es gibt eine (juristische) Semantik! Hurra, es wird, ja es kann nach dieser «Logik» sicher nie einen Rechtsautomaten geben!

Welche fehlerhaften Grundannahmen von Adrian liegen dem aber zu Grunde?

Die im Titel behauptete These, Semantik sei eine Illusion, wird von Adrian nur mit Verweis auf den frühen Wittgenstein und den linguistic turn begründet, freilich ohne die spätere Sicht von Wittgenstein zu berücksichtigen und ohne den linguistic turn entsprechend einzuordnen (vgl. z. B. Das Ende des linguistic turn?). Die These wird nicht nur nicht erhärtet sondern im Gegenteil laufend als Argument und Dogma eingebracht und in Übereinstimmung mit dem funktionalistischen KI-Ansatz und der Ideologie des Digitalismus.

Funktionalismus und Digitalismus

Das Hauptproblem des ganzen Aufsatzes ist, dass Adrian nur gesprochene oder geschriebene sprachliche Äusserungen überhaupt gelten lässt. Auch mit «Sprachquanten» meint er ja lediglich juristische Textartefakte. Wenn Adrian nur juristische Texte oder explizite Sprechakte als Träger von Intelligenz gelten lässt, so geht er – auch wenn er sich am Anfang als Idealisten und Anti-Empiristen bezeichnet – implizit von einem rein materialistischen Erkenntnisbild aus, das geistiges ausklammert.

Gedanken als reale mentale Zustände physischer Systeme existieren für Adrian nicht. Dass Jurist*innen denken können und sich darüber intersubjektiv austauschen können, verkennt er gänzlich.

Adrian erkennt zwar an, dass Sprache und deren Verwendung gelernt wird (S 88ff). Jeder Mensch erhalte so ein “holistisches Netz”, das ihn oder sie individuell auszeichne. Kommunikation erlaube aber nur den Austausch von Worten und Zeichen (als Syntax), «deren semantische Bedeutung aus prinzipiellen Gründen […] nicht geklärt werden» könne. Es sei deshalb (S 91) «hilfreich, zu erkennen, dass man aus prinzipiellen, philosophischen Gründen gar nicht verstanden werden» könne (Hervorhebung PE).

Die «Idee einer semantischen Bedeutung der natürlichen Sprache» sei «nur eine Illusion der Menschen […]. Menschen simulieren also nur, dass die natürliche Sprache eine semantische Bedeutung hätte».

Zu behaupten, dass Menschen nur simulieren, dass Sprache für sie Bedeutung hätte, widerspricht diametral der psychischen Realität und der Eigenwahrnehmung aller Menschen1.

Adrian schliesst hier aus der Tatsache, dass Symbole (als Zeichen, im Unterschied zu Indizes und Ikonen) arbiträr gesetzt und benutzt werden, dass sie keine Bedeutung hätten. Er bringt dafür Quines Beispiel, bei dem jemand auf ein vorbeilaufende Kaninchen weist und “Gavagai” sagt (S 89). Natürlich funktioniert sprachliche Kommunikation semantisch, aber nur wenn die Begriffe mit Erfahrung verknüpft sind. Deshalb lernt man Sprachen und studiert Rechtswissenschaften. Das ist so banal, dass es fast schwer fällt, darauf hinzuweisen.

Selbst die kontextuelle Bezugnahme von Sprechakten zur inferentiellen Generierung von Semantik nach Brandom (S 91) lehnt Adrian nach der Anmerkung, dass diese Theorie «viel komplexer und komplizierter ist, als dies hier dargestellt werden kann» mit dem erneuten axiomatischen Hinweis ab, «Es ist den Menschen aus prinzipiellen Gründen […] nicht möglich, semantische Bedeutung auszutauschen».

Adrian liegt hier nicht nur aus der Sicht des gewöhnlichen Hausverstands falsch:

  • Menschen wissen sehr präzise, ob sie etwas verstanden haben und verstanden worden sind. Menschen kommunizieren fast ausschliesslich, um Bedeutung und Sinn auszutauschen – selbst wenn es nur um das Verstehen eines Witzes geht. Niemand würde sagen, dass ein guter Witz keinerlei Bedeutung (Semantik) hat. Und jede*r weiss, ob er oder sie die Pointe verstanden hat oder nicht.

  • In philosophischer Hinsicht können Gedanken als mentale Zustände mit bestimmten (Bedeutungs-)Qualitäten verstanden werden. Gedanken könne sich auf Tatsachen des Universums/der Natur beziehen («Die Sonne scheint.») oder auf Tatsachen der Rechtssphäre («Mietrecht existiert») oder auf andere Gedanken (z. B. auf Absichten «Ich muss noch den Gewährleistungsanspruch prüfen.»).

  • Semantisch und inhaltlich verstanden beweist unser juristisches System tagtäglich, dass sich Jurist*innen über juristische Sachverhalte und Begriffe austauschen können und dass sie sich über das schuldhafte an der Schuld oder das kontokorrentmässige am Kontokorrentkredit verständigen können. Eine objektivierte oder gar objektive Rechtsphänomenologie ist wegen der nicht nur subjektiven sondern auch propositionalen Qualität von Ideen ganz selbstverständlich möglich. Sie wird auch von der Rechtswissenschaft seit Jahrhunderten kultiviert und gelebt.

  • Indem Adrian nur auf Sprachartefakte als Ergebnis juristischer Denktätigkeit abstellt und diese wie eine Nebelgranate als «Sprachquanten» bezeichnet, folgt er im Grunde einem panpsychischen Ansatz. Nach diesen wird die (ungeistige) Natur mit Geist aufgeladen: Materie ist demnach das aktuelle lokale Ergebnis einer grossen Berechnung die live abläuft. Nach Adrian sind die juristischen Schrifstücke als Sprachquanten die in die Materie internalisierten panpsychischen Denkprozesse.

Das schreibt er zwar nicht, aber nur so kann man das von ihm behauptete Ergebnis überhaupt erklärbar machen. (Die Frage, ob es sinnvoll ist, hier noch etwas retten zu wollen, einmal aussen vor gelassen.)

Bei Adrian sind es juristische Texte, die als Sprachquanten gedanklich mit Geist beseelt werden und über deren maschinenverarbeitete syntaktische Simulation juristische Expertise aus der Maschine kommen soll.

Da «in den Rechtswissenschaften keine Einigkeit darin» bestehe «wie der juristische Entscheider die semantische Bedeutung korrekt aus dem Text „herauszuholen“» (S 83) habe und wegen der (nicht belastbaren) Hinweise auf Wittgenstein und den linguistic turn leugnet Adrian das geistvolle der juristischen Tätigkeit und des juristischen Sachverstands komplett und verschiebt es wie in einem Taschenspielertrick in die physische Realität der Texte als “Sprachquanten”, um von dort von ihm deus-ex-machine glorios wider hervorgeholt zu werden und aufzuerstehen.

Adrian übersieht dabei, dass alle juristischen Schriftartefakte lediglich das Ergebnis einer geistigen juristischen Tätigkeit sind und nicht deren Quelle.

Trotz dieses überzogenen Ansatzes ist Adrian klar, dass seine Maschine sehr viel menschliche Semantik im Vorlauf benötigt und dass «menschliche Juristen» weiter erforderlich bleiben, um die Maschine quasi zu füttern (S 105). Er sieht weiters ein, dass «unsere Maschine […] ihre Stärke in der Klärung rechtlicher Fragen und nicht in der Erstellung des rechtlich relevanten Sachverhaltes» hätte.

Das ist vollkommen richtig, ein lucidum intervallum: Warum das aber so ist, wenn Menschen Semantik doch nur simulieren, bleibt im Dunkeln.

Der semantikfreie Richterautomat würde also, selbst nach Adrian, nur funktionieren, wenn er mit möglichst semantisch aufgeladenen und mit juristischem Verstand vorsortierten Inhalten gefüttert werden würde.

Worauf Adrian gar nicht eingeht ist die Frage, nach welchen Algorithmen dieser Richterautomat denn eine juristische Bedeutung mit konkretem Bezug auf einen Rechtsfall herausholen soll. Wäre er der Frage nachgegangen, so hätte er erkennen müssen, dass KI lediglich eine Denkausführung nach einem vordefinierten formalen Schema und auf einem hinterlegten formalen Gebiet ermöglicht, aber keinen realen Denkvollzug im wirklichen Leben darstellt. Schon alleine wegen dieser Tatsache wird ein Richterautomat nie möglich sein oder werden.

Da künstliche Intelligenz Maschinenlernen immer unterkomplex ist, kann es nie Probleme der realen Welt lösen.

Da die von der künstlichen Intelligenz vom Maschinenlernen verwendeten Denkmodelle zudem immer unterkomplex zur realen juristischen Wirklichkeit sind, können sie rein systemtheoretisch nie deren akkurat Probleme lösen (Ashybs Law), so wie bei Malen nach Zahlen nie ein echte Kunstwerk entstehen wird.

Der Turing-Test

Laut Adrian soll es möglich sein, «eine Theorie zu entwerfen, die erklärt, warum eine Maschine […] juristische Sprache so umfassend simulieren können müsste, dass ein Rechtsfall insgesamt entschieden werden kann.»

Eine Maschine kann alleine schon deshalb nie einen Rechtsfall lösen, weil sie nicht einmal in der Lage ist, einen solchen als solchen zu erkennen. Als Gegenstand kann ein Computer keine Probleme haben, also kann er auch nicht intelligent sein – Intelligenz als Fähigkeit, Probleme zu lösen (so Markus Gabriel).

Adrian verwechselt hier den Anschein von Fallösung mit echter Fallösung, also die künstliche Intelligenz als modellabhängige Landkarte mit dem realen rechtlichen «Gelände». Die Simulation der juristischen Sprache als statisches Substrat von etwas lebendig geistig Gedachtem hat mit dem zugrundeliegenden realen Denkvollzug so viel zu tun wie das Foto Ihres Lebensmenschen in der Geldtasche mit dem realen Menschen dahinter. (Wie Einstein angeblich über ein ihm gezeigtes Foto anmerkte: Aha, das ist also Ihre Frau, die ist aber wirklich sehr klein.)

Laut Adrian soll die Maschine dann mit dem Turing-Test dahingehend getestet werden, ob «der Text von einer Mehrheit von Juristen für sinnvoll erachtet wird». Das genügt ihm schon um seine im Titel überhöhten Erlösungsversprechen zu begründen. Inhaltlich (sic!) kann der Turing-Test das aber nicht leisten:

Mit einem erfolgreich absolvierten Turing-Test können Sie nur vermuten, dass ihr Gegenüber die Intelligenz einer echten Person haben könnte, nicht dass diese tatsächlich intelligent ist. Das ist ja genau das Problem des Turing-Tests, dass er von Intelligenz als Ausstattung von Lebewesen fürs Überleben abstrahiert und diese reduzierte funktional verstehen möchte2.

Das ist ungefähr so, also ob bei Google Captchas, die nichts anderes als einen Turing-Test darstellen, das Erkennen einer Brücke oder einer Verkehrsampel mit der Ingenieursintelligenz gleichgesetzt wird, die benötigt wird, um die Brücke oder die Verkehrsampel zu bauen:

Nur weil ein Text von Juristen mit einem hohen Anteil bekannter Phrasen als juristisch sinnvoll Text erachtet wird, sagt das nichts über seine Qualität im konkreten Fall aus.

Gerade moderne KI-Systeme scheitern zudem daran, ihre Aussagen begründen zu können. Eine solche Begründungsnotwendigkeit ist aber eine wesentliche Grundlage unseres Rechts- und Demokratieverständnisses. Ohne Begründungskraft könnte ein Richterautomat, wie ihn Adrian sich wünscht, nur in einem totalitären System regelkonform eingesetzt werden.

Zusammenfassung

Adrian hat einen Ausweg gesucht, um Legaltech und der KI-Forschung, vielleicht sogar einem konkreten Projektantrag einen theoretischen Unterbau zu liefern. Dieser Versuch ist grandios gescheitert – Adrian fuhr gewissermassen mit Vollgas in die Sackgasse und schlug an der abschliessenden Betonwand hart auf.

Dass so ein Aufsatz (1) in einer renommierten juristischen Zeitschrift erscheint und (2) nicht weiter diskutiert, (3) kritisiert und (4) von der Rechtsgemeinschaft klar zurückgewiesen wird, zeigt nur allzudeutlich, wie schwach Rechtstheorie, Rechtssethik und Rechtsphilosophie als Geisteswissenschaften geworden sind. Es zeigt auch, in welchem Ausmass ein falsches digitales Rechtsbewusstein um sich gegriffen hat.

Sein Aufsatz wirft angesichts seiner sprunghaften und collageartigen «Argumentation», der axiomatischen Eingangsthese, die nicht weiter reflektiert oder begründet wird und ideologische Züge und Zwänge aufweist, grundlegende Fragen auf. Der einseitig überhöhte Erwartungsdruck im Titel kontrastiert an vielen Stellen eigenartig mit vernünftigen Anmerkungen. Der an vielen Stellen durchtriefende materialistische Digitalismus, der jede juristische Geistestätigkeit und jahrtausendealte juristische Denkschulen einfach ignoriert, ertränkt freilich auch diese richtigen Ansätze zwischendurch.

Es wirkt entlastend, wenn sich die Unhaltbarkeit der beiden Thesen in der Überschrift zeigt: Es kann auf Grund dieser Argumentationsketten sicher nie einen Richterautomaten geben und Semantik ist definitiv keine Illusion. Das war eigentlich sowieso schon klar, es tut aber gut, sich dessen vergewissert zu haben.

Um den berühmten NRC-Report aus 1966 (!) zu paraphrasieren, darf ich angesichts dieses Aufsatzes gerne und aus gutem Grund behaupten, dass «ein Rechtsautomat teurer, ungenauer und langsamer als jede juristische Problemlösung» wäre, wenn es denn einen gäbe («machine translation was more expensive, less accurate and slower than human translation»). Das Ziel war damals, für den Geheimdienst ein Übersetzungsprogramm aus dem Russischen zu entwickeln, und so die militärische Sicherheit zu erhöhen3.

Wenn Adrian andererseits meint, dass auf dieser Basis «der juristische Obersatz, also das Recht, von der Maschine und nicht durch einen menschlichen Richter „konstruiert“» werden soll, wird es richtig gruselig: Der Gedanke, dass für solche Forschungen öffentliche Gelder ausgegeben werden oder so ein Automat eines Tages tatsächlich normativ wirksam aufgestellt werden soll, ist einfach nur abstossend.

Dass Adrian eine LegalTech-Ausbildung leitet und dort mit hoher Wahrscheinlichkeit diese digitalistische Ideologie im Ausbildungskontext propagiert, wirkt gleichermassen besorgniserregend. Denn das Rechtssystem ist über weite Strecken schon zu weit weg von den Rechtssubjekten, deren Alltag es regelt.

Nach Gabriel kann Denken als Ausübung der Fähigkeit eines Lebewesens, verstanden werden, sich selbst in seiner Stellung zu bestimmen, und zwar auch in Bezug auf sein Denken.

Es geht also darum, die bestehende Kapazität der Menschen im Rechtssystem juristisch denken zu können, auch im Hinblick auf deren Ressourcen und Ausstattungen, zu stärken, nicht es weiter zu technisieren und damit unmenschlicher und entrückter zu machen.

Es wäre höchste Zeit, dass sich die Rechtsinformatik als Handlungswissenschaft endlich den gesellschaftlichen Auswirkungen stellt und sich auf die nachhaltige Unterstützung von juristischen Tätigkeiten und von menschlich relevanten und substanziellen Vorgängen fokussiert. Um mit Steve Jobs zu sprechen: Rechtsinformatische Digitalisierung als Fahrrad für Juristen, nicht als ideologischer Digitalimsus. Angesichts der Dominanz des vorherrschenden falschen digitalen Rechtsbewusstseins – gerade in LegalTech Kontext – wird es aber wohl noch einige Zeit dauern, bis solche, dem Menschen und dem demokratischen Rechtssystem zugewandte Lösungen aktiv entwickelt werden.

-# Das falsche Weltbild – nach Husserl

Das Konzept des falschen Weltbilds nach Marx lässt sich auch aus Sicht von Husserl darstellen.

Nach Husserl erfahren wir Gegenstände und Gedanken subjektiv. Bewusstsein ist bei ihm nach Brentano immer Bewusstsein von oder über etwas. Über diese reine Subjektivität des Sinneseindrucks und der momentanen mentalen Vorstellung hinaus erleben wir in räumlicher und zeitlicher Perspektive unterschiedliche Facetten eines solchen Objekts. Husserl nennt diese Abschattierungen.

Wir können diese, im Unterschied zu Machine Learning und Computern (als Turing-Maschinen), problemlos dem gleichen Bezugsobjekt zuordnen: Auch wenn wir den Tisch von oben oder hinten sehen, wissen wir, es ist der gleiche Tisch. Auch wenn wir nicht über Eigentum als Nutzungs- sondern als Ausschlussrecht für andere erörtern, wissen wir, das wir über die rechtliche Institution Eigentum sprechen und nicht über ein anderes Thema. Dadurch transzendiert sich die konkrete Wahrnehmung zu kommunizierbaren propositionalen Gedankeninhalten. Husserl nennt dies eidetische Reduktion. Diese propositionalen Gedankeninhalte als Bewusstsein von etwas treten gegenüber den konkreten Sinneseindrücken häufig zurück. Optische Täuschungen und Kunstobjekte können uns dann wieder darauf aufmerksam, das wir häufig zu rasch und unbewusst vom Sinneseindruck auf den propositionalen Gehalt schliessen.

So werden wir regelmässig enttäuscht: Es ist kein Holzboden, sondern nur ein Laminat. Die Fahrer für Uber sind vielleicht doch Angestellte und nicht Selbständig. Da unser Bewusstsein, von unserem Tod abgesehen, grundsätzlich zeitlich offen ist, können wir diese Täuschungen freilich korrigieren, für uns selbst und im intersubjektiven Dialog. Dieser wird durch die Geteiltheit des Bewusstseinshorizonts möglich, in dem wir uns alle befinden.

Dass vermeintliche Problem, subjektiv die objektive Welt nicht erkennen zu können, löst sich durch die Einsicht auf, dass ich nicht passiv die Welt erkennen muss, sondern dass die Welt auch mich erkennen kann. Der Tisch ist so beschaffen, dass ich ihn als Tisch wahrnehmen kann. Er realisiert sich als solcher gewissermassen erst in der situativen Subjekt-Objekt Kopplung. Dass wir mit unserem Bewusstsein alle die gleiche Fähigkeit zu dieser Kopplung haben, ermöglicht uns gemeinsame Teilhabe an der Welt.

Wegen der Möglichkeit einer Täuschung und der zeitlichen Offenheit erfolgt unser Lebensvollzug vor einem Erwartungshorizont: Selbst wenn ich mich irre oder enttäuscht werden, weiss ich, dass es danach weitergeht und sich neue Ansichten auftun werden. Unsere Welt bleibt valide, selbst wenn wir uns getäuscht haben. Wir greifen selbstverständlich nach dem nächsten Gegenstand oder Gedanken und nie ins Leere, ins Nichts.

Husserl spricht von der Endgeltung als weltbezogenem Seinsglauben als der natürlichen Einstellung. Dazu gehört auch unsere Freiheit Themen aufzugreifen und nachzuverfolgen, unsere Perspektive zu wählen4. Wir stellen unsere Eindrücke und unser Dasein gewissermassen regelmässig auf die Bühne unseres Lebens, als eine Art “Weltboden” und reflektieren fortlaufend aktiv, was dort abläuft und wie wir uns das weitere Programm vorstellen. Husserl spricht vom “Vermöglichen”: Unsere Wahlmöglichkeit ist nicht vollkommen frei, sondern regelmässig an die aktuelle Situation und an unseren Erwartungshorizonkt geknüpft. Wir setzen unsere Wahrnehmung in einen Erwartungshorizont, vor dem wir wir unser Dasein entwickeln und fortschreiben.

Das falsche Bewusstsein, also Ideologien und auch Verschwörungserklärungen würde ich nach Husserl entsprechend als Irrtum über den Erwartungshorizont beschreiben. Er entsteht aus einem Mangel an Reflexion, einem Mangel an Abstand. Es schwimmt naiv im Strom des Mitlebens dahin und lässt sich den Verweishorizont, das Vermöglichen von den Umständen und den Gegenständen diktieren. Es entsteht durch einen zu engen Horizont und der Faulheit, sich reflektierend darüber hinaus zu erheben.

Genau das ist das grundlegende Problem dieses Artikels. Adrian schwimmt im Strom seiner Gedanken vor einem vordefinierten Erwartungshorizont, den er schon in der Überschrift festsetzt, dahin. Fast alle zitierten wissenschaftlichen Aufsätze sind für ihn lediglich dekorative Assoziationspunkte, mit denen er seine Illusion vor einem fixen Deutungskorsett des Digitalismus ausschmückt. In fahriger Weise zwingt er so mit Gewalt die Semantik von Peirce in die Syntax, nur um seine These zu stützen. Sein Erwartungshorizont leuchtet so grell, dass er die über 100 Fussnoten wie hohle Orden präsentiert, ohne sie inhaltlich zu erschliessen. Seine intellektuelle Elastitzität wird dadurch so schmerzhaft gering, dass er sogar mögliche inhaltliche Mitstreiter für seine These wie die inferentiale Semantik nach Brandom arbiträr und ohne Begründung abräumt.

Damit steht dieser Artikel der Idee einer verantwortlichen, offenen und zukunftsgerichteten Entwicklung und Gestaltung des Rechts, des Rechtswesens und der entsprechenden Nutzung und Erschliessung digitaler Optionen und Möglichkeiten dafür diametral entgegen. Er verfolgt dagegen die Agenda eines blinden Digitalismus, der ungehemmten Kommerzialisierung, Automatisierung und formalen Entkernung des Rechts, die letztlich zu Legaltech als menschenfeindlichem, paternalistischem, kostengünstigem und willkürlichem Kontrollinstrument führen wird. So ähnlich, wie wir das schon sowohl in extrem liberalen und in extrem autokratischen Staaten verfolgen können.

Der schwache Trost, der angesichts der oberflächlichen und teilweise fast satirisch wirkenden seichten Argumentationstiefe und der daraus resultierenden fehlenden Überzeugungskraft des Artikels aufkommt, wird freilich durch die Tatsache der starken institionalen und akademischen Verankerung des Autors etwas schal. Wenn führende Institutionen nicht mehr in der Lage sind, das wissenschaftlich unbefangene und vorurteilslose Niveau halbwegs aufrecht zu erhalten, muss man weiterhin weitere derart niveaulose Artikel im akademischen Kontext befürchten.

Epilog

Dieser bemerkenswerte Aufsatz von Adrian stellt in eigenartiger Weise eine Ausprägung der Thesen dar, die er vertritt:

  1. Er ist nicht nur realitätsfern, er ist überhaupt mit der Realität nicht verbunden (so wie er das von der Sprache behauptet). Weder mit der realen der KI-Forschung seit den 1960er Jahren, mit dem Stand der Computerlinguistik noch mit zeitmässen (rechts-)philosophischen Theorien der geistigen Gegenwart oder der Vergangenheit.

  2. Wenn er Peirce nutzt, um daraus die Unmöglichkeit von Semantik abzuleiten, das semiotische Konzepte also einfach ins Gegenteil verdreht oder erst gar nicht versteht, ist er tatsächlich inhaltsfrei.

  3. Er vermischt verschiedene wissenschaftliche Ansätze an der Wortoberfläche zu einem bedeutungsfreien Sammelsurium, bei dem man fast an die tippenden Affen denken muss, die mit einer ganz geringen Wahrscheinlichkeit auch einmal ein sinnvolles Buch erzeugen – oder zumindest eines, das man auf den ersten Blick dafür halten könnte.

  4. Er würde den Turingtest bestehen: Auf den ersten Blick ist es ein akademisch ernstzunehmender Aufsatz. Man hält ihn für wissenschaftlich. Er könnte von einem Menschen geschrieben sein, der sich mit der Materie auskennt.

Dass der Beitrag überhaupt in einem rechtswissenschaftlichen Journal erschienen ist, deutet auf eine tiefe Krise des Rechts, auf eine sehr tiefe Krise. Das Recht versteht die Welt offenbar nicht mehr. Es ist in einem Paradigmenwechsel verfangen, den es selbst noch gar nicht richtig wahrnimmt. Das Rechtssystem ist nicht mehr national, hierarchisch, und normativ tonangebend. Das Digitale und die Globalisierung haben ihm stark zugesetzt. Es gibt immer mehr rechtsfreie Räume und für das Recht schwer einordenbare Phänomene wie Digitale Währungen.

Dem Recht ist deshalb jedes Mittel recht, und erst recht die modernen digitalen – um nur am Leben zu bleiben, bis hin zur freiwilligen Selbstaufgabe. Der Stolz der Rechtsphilosophie und der juristische Selbstwert haben sich selbst aufgegeben. Das Recht hat abgedankt. Es ist nicht einmal in der Lage seine eigene Verfahrenheit zu erkennen, geschweige denn den eigenen Paradigmenwechsel zu orchestrieren. In diese Notlage sticht der westamerikanisch geprägte Digitalismus hinein, der transhumanisch den Menschen vom Menschen erlösen möchte.

Auf dieser Erlösungsideologie segelt letztendlich dieser Artikel: Er gibt – freilich vollkommen unberechtigte – Hoffnung, dass das Recht auch im digitalen eine Funktion haben kann. Wenn nur endlich der erste Schritt gesetzt ist und geforscht wird, darf es in Zukunft Rechtsautomaten zuarbeiten! Ohne rechtstheoretisches Fundament, mit einer Rechtsinformatik die sich auf selbst auf Rechtsdogmatik beschränkt hat und selbstreferentiell nie über ihre ersten Forschungen hinausgekommen ist, ohne eine Rechtsphilosophie, die halbwegs auf der Höhe der Zeit ist, fehlt ihr jedes Kriterium, um so einen Beitrag wie den von Adrian zu entlarven.

Während Firmen wie IBM oder GE bei ähnlich gelagerten Annahmen inzwischen Milliardenverluste schultern mussten und sich an den Rand ihrer wirtschaftlichen Überlebensfähigkeit brachten5, sind akademische Institutionen in Deutschland offenbar geistig frei finanziert Räume für solche Fakekonzepte.

Post Scriptum

Dass es auch anders geht, und zwar auch in Deutschland, beweist Professor Markus Gabriel6 mit seinem Forschungszentrum «Center for Science and Thought» für KI in Bonn. Er hat die Klarheit und interdisziplinäre Kompetenz um tatsächlich vorne dran zu sein an der Erforschung von Konzepten der künstlichen Intelligenz, die ihren Namen auch verdienen. Seinen Ausführungen verdanke ich die notwendige Klarheit um die hochgradige Problematik des Artikels zu erkennen und zu analysieren, wobei sämtliche möglichen Fehler oder Missverständnisse seiner Ausführungen natürlich meine eigenen bleiben.

Literatur

Notizen

Das Ende des “linguistic turns”? http://www.ruhr-uni-bochum.de/philosophy/staff/newen/download/Stellungnahmen.pdf

https://www.sandbothe.net/52.0.html

wenn er sprache als realität setzt, kommt er genau in das problem des widerspruchs von systemen hinein


xxx ideologie bei marx Notwendig falsches Bewusstsein bedeutet, dass die Wirklichkeit, einschliesslich dessen, was man empirische Wirklichkeit nennt, etwas ist, das sich in einem konsequent simulierten, gefälschten, wenn man so will, in einem getäuschten Verhältnis präsentiert Es bedeutet einen funktionierenden Zugriff auf Welt zu haben in der notwendig falsches Bewusstein bedeutet,

einen funktionierenden Zugriff auf Welt zu haben in der meine Aktionen, mein Erkenntnisvemrögen, mene ausreichen um in einem Bestand an Wirklichkeit völlig zuverlässig zu operieren

mit Ausnahme einer etnschiedenen verkennung, nämlich dass mein mein effizientes Verhalten,in der dieer welt mein effizientes Leben in dieser welt der Exzess meiner wünsche und deren Befriedigung verkenne ein ding: Hinter all diesenerkenntnissen Wünschen, Tätigkeiten produziere ich den eigenen Tod , ohne es zu wissen

leben zu glauben währnd ich den tod produueire. xxx

Jede Der Aufsatz suggeriert awirkt in der aktuellen form wie

leben zu glauben währen ich den eigenen tod produzeire Literaturwissenschaftler Joseph Vogl, Jahrgang 1957, https://www.faz.net/aktuell/feuilleton/ideologie-falsches-bewusstsein-eine-begriffsklaerung-1737553.html


  1. Wenn sie sich einen Finger einklemmen und von einem nahen Menschen Mitgefühl erhalten sind sowohl die Realität als auch die Kommunikation real und nicht simuliert. ↩︎

  2. Turing, Alan (1950): Computing Machinery and Intelligence, Mind 49: 433-460. ↩︎

  3. Dass Argument, dass eben diese Aussage falsch ist, weil es inzwischen viel leistungsfähigere Übersetzungsprogramme gäbe, ist zwar richtig, zeigt aber genau das Problem, wie sich an einem kleinen Beispiel zeigt: DeepL-Übersetzung Versetzen wir uns gedanklich in den kalten Krieg und nehmen wir an, die Amerikaner haben den russischen Satz: “nicht, mit dem bomben abwerfen warten!” abgefangen. Sie geben dies heute in die mit einiger Wahrscheinlichkeit beste öffentlich verfügbare Übersetzungsengine DeepL ein und erhalten: “not wait to drop the bombs!". Nicht unwahrscheinlich, dass sie sich dann verteidigen möchten und dass ein Krieg beginnt, weil es ein Computer falsch übersetzt hatte. Hier zeigt sich, dass Machine Learning, Legal- und Fintech selbst bei weiteren Verbesserungen nie Ratgeber sein können, sondern nur «Rategeber». ↩︎

  4. Gurvitsch spricht hier vom Bewusstseinsfeld. Gurvitsch, Aron (1974): Das Bewusstseinsfeld, De Gruyter ↩︎

  5. Ebenhoch, Peter (2020): Die Zipperlein des Dr. Watson. Dumm, wie Digitalisierung scheitern kann. ↩︎

  6. Gabriel, Markus (2018): KI als Denkmodell, Petersberger Gespräche ↩︎