Letzten Monat habe ich an einem Montagnachmittag Juro – unser Produkt für Vertragsmanagementsoftware – vorgeführt. Unser Verkaufsteam war beschäftigt und ich dachte, es würde Spaß machen. Wir verkaufen an Anwälte und diese Person war Assistentin des Leiters der Rechtsabteilung eines mittelständischen Unternehmens. Ich habe die hochrangigen Botschaften durchgegangen, die wir normalerweise verwenden, um diese Meetings zu gestalten, und dann, bevor ich mich auf das Produkt konzentrierte, habe ich gefragt, ob sie bisher Fragen hatten.

“Ja, danke Richard – kannst du mir sagen, ob es KI macht?”

Verwirrend. Ich bin mir nicht sicher, ob KI etwas ist, was man “macht”, aber trotzdem: “Ja, wir haben maschinelles Lernen im Produkt – aber darf ich fragen, warum? Was möchtest du gerne erreichen?”

“Ich bin mir nicht sicher — Ich muss nur wissen, ob es KI hat. OK, das tut es. Macht es Blockchain?“

Selbstverständlich ist dies ein ziemlich schrecklicher Weg, um rechtliche Prozesse in Angriff zu nehmen: die Technologie an die erste Stelle zu setzen und die Menschen an die letzte Stelle. Dieser Ansatz, bei dem der Hype um die Technologie völlig von dem getrennt ist, was die Menschen tatsächlich brauchen, ist ebenso wenig hilfreich, wie es üblich ist.

Die Wahrheit ist, dass der Umgang mit Gesetzen und rechtlichen Prozessen für die meisten Menschen stressig ist. Menschen und Unternehmen befassen sich in entscheidenden Momenten mit rechtlichen Fragen: Hauskauf, Klage vor Gericht, Einstellung eines neuen Mitarbeiters, Neukundengewinnung. Aber anstatt nett, freundlich und menschlich zu sein, sind diese Prozesse oft stressig, verwirrend und beängstigend.

Jeder hasst Anwälte

Anwälte genießen nicht immer das Vertrauen ihrer Mandanten – und das sage ich als ehemaliger Anwalt. Eine Princeton-Studie ergab, dass der Durchschnittsmensch sie hoch für Kompetenz, aber schlecht für Vertrauen und Wärme bewertet. Rechtliches bleibt für die meisten Menschen unklar und schwierig. Und während die Technologie die Rechtsbranche auf allen Ebenen verändert – insbesondere bei der Anwendung von KI – hat sie ihr Potenzial, den Menschen eine bessere Rechtserfahrung zu bieten, nicht voll ausgeschöpft, anstatt die Arbeit für große Anwaltskanzleien einfach effizienter und profitabler zu machen.

Die Rechtsbranche hat zumindest ihre Reise mit KI begonnen, wobei Anwendungen des maschinellen Lernens in fast allen Arbeitsabläufen in Anwaltskanzleien entstanden sind. Die Vertragsprüfung war die erste Kategorie, die wirklich an Fahrt gewann, wobei Anwaltskanzleien benannte Einheiten und optische Zeichenerkennung einsetzten, um ihren Mandanten mitzuteilen, was in ihren Verträgen steht. Andere Anwendungen von KI befassten sich mit rechtlichen Aufgaben wie Abrechnung, Zeitmanagement, E-Discovery und Rechtsforschung. Dies alles ist ermutigend, für Endnutzer bringt es jedoch nicht viel.

Wie die KI die Rechtserfahrung der Menschen prägen wird

Die gute Nachricht ist, dass die KI, durchdacht eingesetzt, das Potenzial hat, die Rechtserfahrung echter Menschen tiefgreifend zu verändern, indem sie die geheimnisvollen und undurchdringlichen Prozesse für alle zugänglicher und menschlicher macht.

Hier sind vier Faktoren, die wir berücksichtigen müssen, um dies zu verwirklichen.

1. Chatbots ins Spiel bringen

Joshua Browder gründete DoNotPay vor vier Jahren, ursprünglich als App um Parktickets anzufechten. Seitdem wurde es um mehr als 1.000 Chatbots erweitert und zog auf diesem Weg Investitionen von Andreesen Horowitz an. DoNotPay verwendet KI (unterstützt von IBMs Watson), um automatisch Dokumente zu generieren, um verschiedene Verstöße und Bußgelder anzufechten, so dass Endbenutzer in der Lage sind, stressige Rechtsverfahren auf ihren Handys zu bewältigen.

Aber während DoNotPay in einigen Kreisen gefeiert wurde, stieß es in anderen auf Feindseligkeit – sogar auf Klagen. Recht ist ein reglementierter Beruf, bei dem Anwälte anerkannte Qualifikationen benötigen, um bestimmte “geschützte Tätigkeiten” auszuüben – und diese Tätigkeiten stehen Laien nicht offen, geschweige denn Algorithmen. Einige Anwälte wollen nicht, dass Software ihre geheimen Königreiche oder ihre abrechenbaren Stunden übernimmt.

Wenn die KI die Erfahrung des Rechts wirklich menschlicher machen wird, kann diese Einstellung nicht überleben. Wenn ein Chatbot das, was du tust, schneller, billiger und mit einem besseren Erlebnis für den Endbenutzer reproduzieren kann, dann verdient deine Aktivität es, “geschützt” zu sein? Würdest du als Anwalt nicht lieber deine Zeit damit verbringen, einen echten Mehrwert zu schaffen? Chatbots helfen Menschen bereits bei ihren Bankgeschäften, Hypotheken, Einkäufen und Versorgungsleistungen – es gibt keinen Grund, warum es legal anders wäre, wenn die KI den Menschen eine zugängliche Erfahrung bietet, direkt am Ort der Notwendigkeit. Die Pioniere von Stanford und Suffolk haben diese Herausforderung angenommen – es ist nur eine Frage der Zeit, bis die Aufsichtsbehörden aufholen.

2. Verträge, die Maschinen lesen können

Ein Rechtsvertrag ist im Kern nur der schriftliche Ausdruck einer Beziehung: eine Reihe von Versprechungen, die regeln, wie zwei Parteien miteinander umgehen. Verträge sollten etwas zu feiern sein; leider hassen die meisten Menschen sie. Untersuchungen der IACCM haben ergeben, dass 83% der Menschen mit dem Vertragsprozess unzufrieden sind. Das Unterschreiben, Scannen, Posten und letztendlich der Verlust von Dokumenten macht das Vergeben von Verträgen grundsätzlich unfreundlich und unkooperativ, wobei die Beziehungen zwischen Menschen und Unternehmen von Anfang an beschädigt werden.

Dies ist teilweise auf das Standardformat der Verträge zurückzuführen – statische Dateien in Word-Dokumenten oder PDFs. Sie bestehen aus unstrukturierten Daten, die schwer zu durchsuchen sind. Audit-Trails der Aktivität gehen verloren, zusammen mit dem Verhandlungsverlauf. Dieser archaische Prozess ist der Grund, warum ein Paar, das ein Haus kauft, die Hypothek online in einem Chatfenster mit einem digitalen Makler arrangieren kann, aber wenn es um den eigentlichen Kaufvertrag geht, werden sie wahrscheinlich ein gescanntes, dreispaltiges, fast unlesbares Papierdokument erhalten, das sie versuchen müssen, zu entschlüsseln. Die Vertragsmanagementsoftware hat trotz des technischen Fortschritts immer noch Schwierigkeiten, dieses Problem zu lösen.

Aber wenn Verträge maschinenlesbar sind, können sie von Anfang an kollaborativ und dynamisch sein. Unternehmen müssen keine Anwaltskanzleien bezahlen, um herauszufinden, was in ihren Verträgen steht, da sie durchsuchbar sein werden. Wenn unsere Hauskäufer die Änderungen in ihren Eigentumsübertragungsdokumenten nicht verstehen, können sie in der Versionshistorie zurückgehen und Kommentare hinterlassen, die ihre Anwälte dann beantworten.

Noch besser ist, dass Modelle des maschinellen Lernens beginnen können, die Problemklauseln zu verstehen, die die Leser verwirren, und sie während des Entwurfs markieren und Alternativen in Klartext vorschlagen. Wenn der Wortlaut einer Klausel wahrscheinlich dazu führt, dass sich die Leser den Kopf kratzen und mehr Geld für Anwälte ausgeben, um es zu erklären, dann kann die KI das Problem im Entwurf erkennen und es bei den Autoren markieren. Wenn die KI das Wiederaufleben der einfachen Sprache beim Verfassen unterstützen kann, kann dies nur dazu beitragen, die Recht menschlicher zu gestalten.

3. Die Zukunft vorhersagen (und entscheiden)

Die Prognosefähigkeit von KI in Bezug auf Big Data könnte auf jeder Ebene des Rechtssystems transformativ sein. Wenn es Menschen und Unternehmen hilft, Risiken zu erkennen, die sich aus einer bestimmten Vorgehensweise ergeben könnten, könnten sie kostspielige Rechtsstreitigkeiten vermeiden, bevor sie entstehen. Wenn eine rechtliche Angelegenheit unvermeidbar ist, können wir anhand von Vorhersageanalysen abschätzen, wie lange dies voraussichtlich dauern und wie viel es voraussichtlich kosten wird. Wenn wir den Menschen ein besseres Verständnis der Konsequenzen ihrer rechtlichen Strategien vermitteln können, könnte dies helfen, schwierige und stressige Ergebnisse für die Endnutzer zu vermeiden.

Einige Unternehmen haben bereits damit begonnen, öffentliche Datensätze zu verwenden, um dies zu ermöglichen. In New York hat Premonition alle öffentlich verfügbaren Daten zusammengestellt, anhand derer die Gewinnquoten für eine bestimmte Rechtsfrage vor jedem Gericht und jedem Richter vorhergesagt werden können. Ziel ist es, potenzielle Antragsteller zu dem Ort zu führen, an dem sie wahrscheinlich das beste Ergebnis erzielen. Wenn wir feststellen können, ob eine Klage vor einem bestimmten Gericht erfolgreich sein wird, können wir dann feststellen, ob sie irgendwo erfolgreich sein wird – und fällen wir dabei nicht effektiv ein vorhersehbares Urteil durch KI?

Ob dies möglich oder wünschenswert ist, ist eine ganz andere Frage – die mich zu meinem nächsten Punkt bringt.

4. Ohne die Vorurteile der Vergangenheit zu reproduzieren

Der Einsatz von KI zur Verbesserung der Erfahrungen der Menschen mit dem Rechtssystem bietet auch die Möglichkeit, Befangenheit von der Justiz abzubauen. Theoretisch sollten algorithmische Entscheidungen frei von historischen Vorurteilen sein, die Minderheiten in ihren Interaktionen mit der Justiz betreffen; die KI sollte agnostisch sein, wenn es um Faktoren wie Ethnizität, Geschlecht und sexuelle Orientierung geht. Die bisherigen Ergebnisse zeigen jedoch ein anderes Bild.

Die Behörden in den USA haben bereits damit begonnen, die KI zu nutzen, um die Schwerstarbeit bei Rechtsverfahren mit hohem Berechnungsaufwand zu leisten, z.B. die Zuweisung von Risikopunkten an Verhaftete, um festzustellen, wie wahrscheinlich es ist, dass sie wieder straffällig werden. In einer Studie von ProPublica fanden die Forscher jedoch heraus, dass die von der KI generierten Ergebnisse, die mehr als 7.000 Menschen in Florida zugewiesen wurden, “bemerkenswert unzuverlässig” waren; über die gesamte Bandbreite der potenziellen Straftaten hinweg waren die Vorhersagen mit nur 61 Prozent etwas genauer als der Wurf einer Münze. Wenn Leben und Freiheit auf dem Spiel stehen, ist das einfach nicht gut genug.

Schlimmer noch, das System verschärfte die Rassenunterschiede, anstatt sie zu beseitigen: Es stufte schwarze Angeklagte ungefähr mit doppelter Wahrscheinlichkeit als Kriminelle ein, als weiße Angeklagte. Diese Vorurteile stellen ein wesentliches Risiko dar, das mit der Ausweitung des rechtlichen Aufgabenbereichs der KI einhergeht. Vorurteile können überwunden werden, aber es wird Arbeit erfordern; es wäre ein großer Rückschritt, wenn wir die Vorurteile und Ungleichheiten veralteter Rechtsverfahren in unsere neue, von der KI gesteuerte Welt bringen würden.

Die mangelnde Transparenz bei der Entscheidungsfindung ist ebenfalls ein Problem. In der Studie von ProPublica war es den Angeklagten unmöglich, die Gründe für die Punktzahl zu verstehen: Algorithmen für maschinelles Lernen zeigen ihre Funktionsweise nicht, was es schwierig macht, ihre Entscheidungen in Frage zu stellen. Ein gesundes Rechtssystem, das die Rechtsstaatlichkeit respektiert, ist ein System, in dem Gerechtigkeit nicht nur praktiziert wird, sondern als praktiziert gilt – die Teilnehmer müssen verstehen können, warum eine bestimmte Entscheidung in einem bestimmten Gerichtsverfahren getroffen wurde, oder sie haben keine Anleitung, um ihnen zu helfen, den Streit beim nächsten Mal zu vermeiden. Wenn Modelle des maschinellen Lernens aktive Teilnehmer an rechtlichen Prozessen werden sollen, muss ihre Argumentation transparent sein. Andernfalls werden rechtliche Risiken noch unfreundlicher und nicht menschlicher.

Weniger Künstliches, mehr Intelligenz

Der Eingriff der KI in jedes Rechtsverfahren – vom hochwertigen Handelsgeschäft bis hin zu alltäglichen Teilen der Justiz – scheint unaufhaltsam zu sein. Aber die Übersetzung der transformativen Kraft der KI in ein humaneres Rechtssystem, wenn möglich, ist nicht unvermeidlich. Es bedarf bewusster, intelligenter Anstrengungen von Technologieunternehmen, Anbietern, Regulierungsbehörden, öffentlichen Institutionen und Bildungseinrichtungen, um sicherzustellen, dass die Endbenutzer im Mittelpunkt unseres Interesses bleiben. Die KI kann das Recht sicherlich humaner machen – aber nur, wenn der Mensch sie tatsächlich dazu zwingt.