Wie KI die Arbeit von Juristen verändert
Zwischen LegalTech und Robo-Anwalt
Es gibt kaum eine Kanzlei, die etwas auf sich hält, ohne einen Bibliotheksraum mit endloser Rechtsliteratur, Kommentaren und Gesetzestexten. Gerne in wertigem Leder gebunden und eine eindrucksvolle Umgebung für Mandantenbesprechungen. Das wirkt aus der Zeit gefallen - jedoch nur für juristische Laien, die erwarten, dass es in Rechtsfragen die eine gültige Antwort gibt, die ihnen am besten Google auf Knopfdruck präsentiert. Das strukturierte Prüfen von Sachverhalten gegen Tatbestände von Rechtsnormen ist dagegen für Juristen eine Welt, in der auch 2023 der routinierte Griff zum gedrucktem Gesetzesband sinnvoll und effizient sein kann. Aber selbstverständlich ist auch im Rechtswesen „LegalTech“ seit Jahren das große Thema und die Digitalisierung schreitet voran. Schließlich gibt es viele Aufgaben in Kanzleien, Staatsanwaltschaften und an Gerichten, die davon profitieren können. Im aktuellen Aufmerksamkeits-Hype rund um ChatGPT und die rasanten Fortschritte der Künstlichen Intelligenz, ist natürlich die Frage legitim, ob wir bald in bestimmten Aufgabenbereichen Robo-Anwälte sehen werden und wie -auch etwas weniger futuristisch- die KI, die Arbeit von Juristen heute und in Zukunft verändert.
Wie in allen, auch standesrechtlich streng regulierten, Berufsgruppen gilt: Striktes Ablehnen ist nicht die zielführende Strategie. Wo es technologischen Fortschritt gibt, wird er genutzt. Und der Versuch des Verhinderns, Verzögerns oder Ignorieren ändert nichts daran, dass natürlich auch Juristen heute schon KI nutzen und etablierte wie auch neue Anbieter an KI-basierten Lösungen für die Juristerei arbeiten, insbesondere für die großen Kanzleien. Und eins ist klar: ChatGPT und andere Stars der Künstlichen Intelligenz, die auf Large Language Modellen beruhen, die mit einem Kessel Buntes an Internetquellen wie Wikipedia für einen ganz anderen Zweck trainiert worden sind, denken nicht juristisch und sind keine virtuelle Alternative für einen Juristen. Das Talent von ChatGPT & Co., Texte zu generieren, die nach dem Wahrscheinlichkeitsprinzip sehr souverän Fachbegriffe und Fachsprache nutzen, ändert daran nichts. Und natürlich ist ein fachspezifisches Legal-LLM denkbar, das ausschließlich auf Basis von Fachquellen und mit Betreuung durch juristische Fachexperten antrainiert wird. Die hohen Kosten und die teils signifikanten Unterschiede in den internationalen Rechtssystemen dürfte dem derzeit im Wege stehen. Was aber nicht heißt, dass nicht auch die bereits bestehenden Errungenschaften der Künstlichen Intelligenz schon eine kleine Revolution für die Arbeit von Juristen bedeuten kann. Aber eben auch Fallstricke und Gefahren.
Die Potenziale nutzen
Auch in der Juristerei eröffnet die Technologie neue Möglichkeiten und wirft gleichzeitig wichtige Fragen auf. Anwälte und das Gerichtswesen stehen vor der Herausforderung, die Potenziale von KI zu nutzen und gleichzeitig die ethischen und rechtlichen Bedenken im Blick zu behalten.
Künstliche Intelligenz kann dazu beitragen, die Qualität von Gerichtsverfahren zu verbessern. Durch die Analyse großer Datenmengen kann KI Anwälten helfen, relevante Rechtsprechungen, Präzedenzfälle und Gesetze schneller zu finden und bessere juristische Argumente zu entwickeln. Dies trägt zu einer fundierten Prozessführung bei. KI-gestützte Automatisierung kann zudem rechtliche Prozesse beschleunigen, indem sie repetitiven Aufgaben wie das Erstellen von Verträgen oder die Dokumentensichtung übernimmt. Dadurch gewinnen Anwälte Zeit für komplexe juristische Analysen und Strategien. Und KI kann umfassende Daten analysieren und Zusammenhänge erkennen, die menschlichen Anwälten entgehen könnten. Dies ermöglicht theoretisch eine gründlichere Informationsbewertung, um stärkere und besser informierte Argumente zu entwickeln.
Aber natürlich wird auch, zu Recht, schon länger über mögliche Gefahren für das Rechtssystem debattiert und dabei ähneln sich die ethischen Bedenken denen in anderen gesellschaftlichen Bereichen. Es geht immer wieder um Transparenz und um die Frage, wie autonom die KI agieren darf und wie stark sie Einfluss nehmen darf auf die nachgelagerten Entscheidungen von Menschen.
Eine der größten Sorgen besteht darin, dass KI-Systeme Rechtsstreitigkeiten bewerten und vorqualifizieren könnten, ohne menschliche Aufsicht. Dies könnte zu ungerechten Urteilen führen und das Vertrauen in das Rechtssystem beeinträchtigen. Und insbesondere in den USA, die gesellschaftlich eine hohe Sensibilität für Diskriminierung haben, wird befürchtet, dass KI-Systeme aufgrund von unzureichenden oder voreingenommenen Trainingsdaten Vorurteile entwickeln können. Wenn solche Systeme in der Juristerei eingesetzt werden, bestünde die Gefahr, dass sie bestehende gesellschaftliche Vorurteile verstärken und Diskriminierung fördern.
Wer hat Interesse am KI-Einsatz?
Berechtigte Bedenken stehen aber auch immer Interessen gegenüber. Wer hat nun das größte Interesse am Einsatz von KI im Rechtswesen?
Eigentlich alle! Staatsanwälte, Richter, Verteidiger und Anwälte, die in großen Unternehmen oder Kanzleien arbeiten, könnten ein starkes Interesse an KI haben, da sie von der beschleunigten Bearbeitung von Fällen und der Verbesserung ihrer Arbeitsabläufe profitieren könnten. Versicherungen setzen schon heute KI ein, um Versicherungsansprüche zu bewerten und Betrugsfälle zu erkennen. Und Unternehmen haben ein starkes Interesse an KI, um rechtliche Risiken zu identifizieren und Compliance-Anforderungen zu erfüllen.
Eine zentrale ethische Frage ist die Transparenz von KI-Entscheidungen. Anwälte und Gerichte müssen in der Lage sein, die Entscheidungen von KI-Systemen nachvollziehen und überprüfen zu können. Die Verantwortung für Urteile und Entscheidungen sollte weiterhin beim Menschen liegen. Der Einsatz von KI in der Juristerei erfordert den Zugriff auf umfangreiche Daten, darunter auch sensible Informationen. Die Sicherheit und Vertraulichkeit dieser Daten müssen gewährleistet sein, um Missbrauch zu verhindern. Und der Mandant sollte stets über den Einsatz von KI aufgeklärt sein. Und ja, auch Juristen passieren Fehler. Dafür gibt es Haftungsregeln und Versicherungen. Da wie sieht es mit Haftung und Fehlerkultur bei Maschinen aus? Wenn KI-Systeme fehlerhafte Urteile fällen, ist es wichtig, klare Haftungsregelungen zu schaffen. Eine offene Fehlerkultur ist notwendig, um aus solchen Fehlern zu lernen und die Technologie kontinuierlich zu verbessern.
Alle diese Überlegungen und Herausforderungen erscheinen angesichts von Interessenslage und Nutzen keine ernsthaften Hürden zu sein. Wichtig ist vor allem, dass sich Juristen intensiv mit der Funktionsweise, den Stärken und Limitationen von Künstlicher Intelligenz auseinandersetzen. Dann sind sie nicht überrascht, wenn der Mandant sie mit von ChatGPT generierten Einlassungen konfrontiert und sie kommen auch nicht in die Gefahr, selber auf von der KI „erfundene“, sehr wahrscheinliche -aber eben nicht existierende- Präzedenzfälle und Urteile hereinzufallen. Aber alleine die Fähigkeiten von existierenden KI-Lösungen, umfangreiche Akten zu durchsuchen und zu strukturieren und dann darauf basierend beim Subsumieren und bei der Entwicklung von Argumentationsketten und Repliken zu helfen, stellen einen so greifbarer Nutzen dar, dass gerade Prozessanwälte darauf sicher nicht mehr verzichten wollen. Ähnlich sieht es im Vertragswesen aus, wenn bei komplexen Projekten teilweise ein Vertrag mehrere Aktenordner umfasst.
Der Blick in die USA
Die Grenzen bei „LegalTech“, zwischen einer stärkeren Digitalisierung, komfortablen Automatikfunktionen und echter -künstlicher- Intelligenz sind natürlich fließend. Und jede Kanzleisoftware wird natürlich in Zukunft immer mehr hilfreiche Funktionen zur Erstellung von Schriftsätzen und zur Durchsuchung und Analyse von Dateien und Akten anbieten. All das hat noch nichts mit einem „Robo-Anwalt“ zu tun. Aber natürlich führt alleine die Überlastung von Gerichten und die typischerweise als sehr lang empfundene Prozessdauer dazu, dass Gedankenspiele dazu konkreter werden. Kann ein Robo-Richter demnächst gewisse lästige Standardverfahren übernehmen und kann die Pflicht für eine anwaltliche Vertretung demnächst fallweise auch durch einen Robo-Anwalt erfüllt werden, denn der Mandant einfach im Internet bucht und mit Informationen füttert?
Wie immer hilft ein Blick in die USA, die auch in Sachen standesrechtliche Debatten um den Einsatz von KI, typischerweise einen Wimpernschlag voraus sind. Was wurde und wird dort diskutiert? Bereits vor drei Jahren hat die Wirtschaftsjuristin Martina Schuster für die Kollegen der LRZ einen Blick nach Übersee geworfen und ihre Analyse ist nach wie vor wertvoll für die laufende Debatte in Deutschland.
Wie nicht anders zu erwarten ist für die Law Firms in den Staaten „Electronic Discovery“ wichtig und wertvoll. KI wird dazu eingesetzt, elektronische Daten zu durchsuchen und relevante Dokumente zu kategorisieren, was bei der Beweissammlung in komplexen Fällen hilfreich sein kann.
Ein spannendes Thema ist auch die „Litigation Prediction“. KI wird dabei zur Vorhersage von Ergebnissen in Rechtsstreitigkeiten durch Analyse von Rechtsprechung, Akten und öffentlich zugänglichen Informationen eingesetzt.
„Contract Analytics“ mittels KI unterstützt Rechtsanwälte dabei, relevante Informationen in Verträgen schneller zu identifizieren - beispielsweise Fristen, Kündigungstermine oder wichtige Klauseln. Im M&A-Segment, also bei Übernahmen, wird KI für „Due Diligence Reviews“ genutzt, um wichtige Klauseln in einer großen Anzahl von Dokumenten zu identifizieren und zusammenzufassen.
Schon mehr in Richtung kritischer autonomer Anwendung von KI geht die „Detect Deception“, also die unmittelbare Erkennung von Täuschungsversuchen – zum Beispiel bei der Grenzsicherung und in Asylverfahren. Grundsätzlich erst einmal alles Einsatzgebiete, die auch in Deutschland Rlevanz haben und noch nicht zu einem Robo-Lawyer führen.
"Duty of Competence" gilt auch für KI
Doch welche standesrechtlichen Regeln gelten für Anwälte in den USA beim KI-Einsatz?
„Duty of Competence“ besagt, dass sich Rechtsanwälte über die Vorteile und Risiken relevanter Technologien, einschließlich KI, informieren müssen, um den Sorgfaltsstandard in ihrer Rechtspraxis zu erfüllen. Ein Ignorieren von KI ist damit ein Verstoß.
Anwälte müssen ihre Mandanten zudem darüber aufklären, ob KI bei der Dienstleistungserbringung verwendet wird und mögliche Risiken und Vorteile der Technologie offenlegen. Dies besagt die „Duty to Communicate“ und sollte selbstverständlich sein.
Desweiteren regeln die „Duty of Confidentiality“ und die „Duty to Supervise“, dass Rechtsanwälte und Kanzleien angemessene Maßnahmen ergreifen müssen, um die Vertraulichkeit von Informationen in KI-Systemen zu gewährleisten und ihre Mandanten darüber zu informieren haben, wie ihre Daten behandelt werden. Sie haben außerdem die Pflicht, die Arbeit von KI-Systemen zu überwachen und sicherzustellen, dass ethische Berufspflichten eingehalten werden.
Auch hier decken sich die Standesregeln in den USA zumindest weitgehendst mit unseren oder sind zumindest ohne große Klimmzüge adaptierbar. Spannend hingegen ist, dass Us-Anwälte eine gewisse Pflicht haben sich mit dem Thema KI, zum Vorteil ihrer Mandanten, auseinanderzusetzen. Eine solche Fortschritts-Verpflichtung ist vergleichbar mit der Pflicht zur fachlichen Weiterbildung, jedoch konkret bezogen auf den Technologieeinsatz.
Digitalkompetenz als deutlicher Mehrwert für Mandanten
Dieser hier in Auszügen wiedergegebene Blick in die USA, bekräftigt die Einschätzung, dass Künstliche Intelligenz die Rechtspraxis in Deutschland und die Arbeit von Juristen maßgeblich verändern wird. Deren Digitalkompetenz kann dabei, zusammen mit der Fähigkeit der KI große Datenmengen zu untersuchen und zu analysieren, einen deutlichen Mehrwert für die Mandanten darstellen. Auch im Bereich der Vorhersagen und der Einschätzung von Prozessrisiken. Ein autonomer Einsatz der KI, insbesondere zur Vorklassifizierung oder gar zur selbständigen Entscheidung, erfordert dagegen deutlich weitreichendere Überlegung als Geschwindigkeit, Entlastung und nicht zuletzt wirtschaftliche Interessen. Diese Debatten werden weiter geführt werden. Und auch hier gilt es, sich aktiv einzubringen. Ein Hoffen, dass wir noch lange keine Robo-Lawyer oder Robo-Judges sehen werden, ist eher unrealistisch. Die liebgewonnene Bibliothek in der Kanzlei wird aber sicher nicht so schnell obsolet werden.
Der in Auszügen zitierte wissenschaftliche Artikel von Martina Schuster, LL.M in der LRZ (Schuster, LR 2020, S. 61, [●], www.lrz.legal/2020S61) lässt sich hier vollständig als PDF abrufen und nachlesen:
https://lrz.legal/images//pdf/RoboLawyer.pdf
#ki #arbeit #juristen #legaltech #roboanwalt #kanzlei #rechtsliteratur #kommentare #gesetzestexte #rechtsnormen #digitalisierung #aufmerksamkeitshype #chatgpt #kuenstlicheintelligenz #fortschritte #aufgabenbereiche #juristerei #llm #internetquellen #wikipedia #juristisch #denken #fachsprache #legalllm #fachquellen #fachexperten #kosten #rechtssysteme #errungenschaften #revolution #fallstricke #gefahren #potenziale #ethischebedenken #rechtlichebedenken #gerichtsverfahren #datenmengen #rechtssprechungen #praezedenzfaelle #gesetze #argumente #prozessfuehrung #automatisierung #vertraege #dokumentensichtung #analysen #strategien #daten #zusammenhaenge #informationen #transparenz #autonom #einfluss #entscheidungen #menschen #rechtsstreitigkeiten #vorqualifizieren #urteile #vertrauen #diskriminierung #trainingsdaten #vorurteile #interessen #staatsanwaelte #richter #verteidiger #unternehmen #kanzleien #versicherungen #versicherungsansprueche #betrugsfaelle #risiken #compliance #anforderungen #transparenz #gerichte #kisysteme #sicherheit #vertraulichkeit #missbrauch #haftungsregeln #haftung #fehlerkultur #maschinen #haftungsregelungen #funktionsweise #staerken #limitationen #praezedenzfaelle #urteile #akten #subsumieren #argumentationsketten #repliken #prozessanwaelte #vertragswesen #projekten #vertrag #aktenordner #automatikfunktionen #kanzleisoftware #schriftsaetze #dateien #prozessdauer #roborichter #standardverfahren #mandant #internet #usa