Einsatz von KI-Anwendungen in Rechtsanwaltskanzleien

KI kommt verstärkt auch in Anwaltskanzleien zum Einsatz, birgt aber durchaus berufsrechtliche Risiken. Die BRAK hat daher eine Orientierungshilfe veröffentlicht, die zeigt, wie der Einsatz von KI-Anwendungen, insbesondere von Sprachmodellen wie ChatGPT, berufsrechtskonform erfolgen kann. 

Schwerpunkt Sprachmodelle 

Die rasante Verbreitung von KI-Systemen macht auch vor Anwaltskanzleien nicht halt und kann für Rechtsanwälte deutliche Effizienzgewinne bringen. Da mit der neuen KI-Technologie allerdings auch berufsrechtliche Risiken verbunden sind, stellt die Bundesrechtsanwaltskammer (BRAK) die Orientierungshilfe Hinweise zum Einsatz von künstlicher Intelligenz zum Download bereit. Grundsätzlich haben alle KI-Tools ihre jeweiligen Besonderheiten und Risiken beim Einsatz in einer Anwaltskanzlei. Die großen Sprachmodelle wie ChatGPT bergen besondere Risiken, da sie scheinbar mühelos und in Sekundenschnelle Rechtstexte produzieren können. Der Fokus der BRAK-Orientierungshilfe liegt daher auf dem verantwortungsvollen und berufsrechtskonformen Einsatz dieser Sprachmodelle. 

Halluzinationen und unzureichendes Trainingsmaterial erfordern sorgfältige Prüfung 

KI-Sprachmodelle nutzen maschinelles Lernen, um Texte zu generieren, haben jedoch kein tatsächliches Verständnis der erzeugten Inhalte. Sie ermitteln lediglich statistische Wahrscheinlichkeiten und generieren auch falsche Informationen, sogenannte Halluzinationen: Die Inhalte erscheinen logisch zu sein, sind jedoch faktisch falsch. Diese Gefahr besteht insbesondere bei der Nutzung von ChatGPT in der rechtlichen Beratung, da unrichtige Angaben in Schriftsätzen oder Beratungen gravierende Folgen haben können. Hinzu kommen Risiken verzerrter oder verfälschter Ergebnisse durch unzureichendes bzw. einseitiges Trainingsmaterial. Diese Gefahren verdeutlichen die Notwendigkeit einer sorgfältigen Überprüfung der durch KI generierten Ergebnisse durch den Rechtsanwalt selbst, um Fehler und die daraus resultierenden haftungsrechtlichen Konsequenzen zu vermeiden. Die wichtigsten Empfehlungen der BRAK-Orientierungshilfe betreffen daher die gewissenhafte Berufsausübung, die Wahrung der Verschwiegenheitspflicht und die Transparenzpflichten

Eigenverantwortliche Überprüfung und besondere Sorgfaltspflichten 

Nach § 43 Satz 1 BRAO ist jeder Rechtsanwalt zur gewissenhaften Berufsausübung verpflichtet. Besonders relevant ist dabei der Grundsatz der höchstpersönlichen Leistungserbringung, der besagt, dass ein Rechtsanwalt seine Tätigkeit eigenverantwortlich und im Zweifel persönlich zu erbringen hat (§ 613 BGB). Dies gilt insbesondere auch dann, wenn KI-Systeme wie ChatGPT zum Einsatz kommen. Daher sollte der Einsatz von KI-Systemen lediglich zur Unterstützung einer anwaltlichen Tätigkeit eingesetzt werden und darf diese nicht ersetzen. In jedem Fall ist eine eigenverantwortliche Überprüfung und Endkontrolle der KI-Ergebnisse durch die den Rechtsanwalt erforderlich. 

Mit dem Einsatz von KI-Tools sind außerdem besondere Sorgfaltspflichten verbunden. Die Sorgfaltsanforderungen im Umgang mit KI steigen mit dem Grad der Automatisierung und dem Einsatzzweck. Werden diese nicht nur zur Unterstützung interner Arbeitsabläufe, sondern auch Mandanten gegenüber eingesetzt (z. B. bei der automatisierten Kommunikation mit Mandanten, Auto-Responder, Einsatz von Chatbots zur Mandatsaufnahme etc.), gilt ein höherer Sorgfaltsmaßstab. Es darf nicht der Eindruck entstehen, dass eine anwaltliche Prüfung und Beratung im Einzelfall nicht erforderlich sind. 

Anwaltliche Verschwiegenheitspflicht muss gewahrt bleiben 

Die anwaltliche Verschwiegenheit nach § 43a Abs. 2 BRAO muss auch beim Einsatz von KI-Tools gewahrt bleiben. Dieses Gebot erstreckt sich auf alle Informationen, die der dem Rechtsanwalt in Ausübung des Anwaltsberufes im Rahmen eines Mandats bekannt werden (§ 43a Abs. 2 Satz 2 BRAO). Daraus folgt, dass vertrauliche Mandanteninformationen auch beim Einsatz von KI-Tools geheim zu halten sind und nur unter den strengen Voraussetzungen nach § 43e BRAO an Anbieter von KI-Tools offenbart werden dürfen. Wenn möglich, sollten bei Sprachmodellen nur abstrakte Anfragen gestellt werden, die auch im Kontext keinerlei Rückschlüsse auf ein bestimmtes Mandat zulassen. Soweit es erforderlich ist, Dokumente hochzuladen, sollten diese vollständig anonymisiert sein. 

Mandanten müssen nicht zwingend über den Einsatz von KI-Tools informiert werden 

Ein Rechtsanwalt ist zwar gegenüber den Mandanten verpflichtet, über alle wesentlichen Aspekte der Mandatsbearbeitung zu informieren, hieraus ergibt sich aber nach aktuellem Stand im Grundsatz weder aus der BRAO noch aus der BORA eine berufsrechtliche Verpflichtung, Mandanten über die Nutzung von KI zu informieren. Zu beachten ist aber, dass sich Transparenzpflichten auch außerhalb des anwaltlichen Berufsrechts z. B. aus dem Vertragsrecht und/oder dem UWG ergeben können. Unabhängig davon ist ein transparenter Umgang mit KI-Tools und im Zweifel eine vertragliche Regelung mit den Mandanten empfehlenswert. 

Zu beachten sind auch noch die Transparenzpflichten nach Art. 50 KI-VO, die ab dem 02.08.2026 gelten: Für Anwaltskanzleien, die ein KI-System in eigener Verantwortung betreiben, könnte dann Art. 50 Abs. 4 Unterabsatz 2 KI-VO relevant werden, der besagt, dass eine Offenlegungspflicht besteht, wenn KI-generierter oder KI-manipulierter Text genutzt wird. Die Offenlegungspflicht besteht aber nicht, wenn ein KI-generierter oder KI-manipulierter Text von einem Rechtsanwalt überprüft und verantwortet wird. 


Weiterführende Informationen: 

Bundesrechtsanwaltskammer, Hinweise zum Einsatz von künstlicher Intelligenz (KI)