Die Welt hat ihr „next big thing“ oder um es auf gut badisch zu formulieren „neuen heißen Sch…“

Die Rede ist von Künstlicher Intelligenz, abgekürzt KI, die es zwar schon seit Jahrzehnten gibt, durch die Veröffentlichung von ChatGPT aber angeblich ihren „Iphone-Moment“ erlebt hat: Plötzlich ist die neue Technologie nicht nur in einer sehr benutzerfreundlichen Form für jede und jeden einfach verfügbar, sondern auch prominentes Thema in den Medien. Hauptsächlich geht es darum, wie KI die Arbeitswelt verändert, welche Jobs künftig wegfallen werden, welche ethischen und moralischen Fragen sich anschließen und wie man da ganze rechtlich regulieren kann, muss oder sollte.

Ich habe mir auch einen Account bei ChatGPT zugelegt und verschiedene Dinge mal ausprobiert. Und natürlich finde ich es faszinierend, wenn ich eine Frage stelle und vor meinem Auge sich in klarem, flüssigen und gut verständlichen Deutsch die Antwort aufbaut. So eine ähnliche Faszination habe ich schon mal erlebt, als ich bereits in den 90er-Jahren des letzten Jahrhunderts erstmals mit Spracherkennung experimentiert habe: Natürlich war es faszinierend, in ein Mikrofon zu sprechen und dabei zuzusehen, wie der Computer die gesprochenen Worte und Sätze zu Papier bringt.

Seitdem habe ich mehrfach versucht, Spracherkennung in meinem Kanzlei-Alltag einzuführen. In keinem einzigen Fall war ich mit dem Ergebnis zufrieden. Der Grund war jedes Mal, dass so faszinierend das magische Erscheinen von Wörtern und Sätzen auf einem Bildschirm auch wirkt, so enttäuschend die Ergebnisse im Detail waren: Wörter werden falsch geschrieben und Silben verschluckt. In den Anfängen war das noch sehr offensichtlich – man konnte es dadurch zwar leicht erkennen und korrigieren, aber ein Zeitgewinn oder die Möglichkeit zur Personaleinsparung ergab sich aufgrund des immensen Korrekturbedarfes nicht.

Meine Hoffnung war, dass sich dies mit fortschreitender Verbesserung der Technik verändern würde. Es veränderte sich auch – leider wurde die praktische Nutzbarkeit dadurch für mich noch weiter eingeschränkt. Denn je weniger offensichtlich die immer noch vorhandenen Fehler waren, desto größer wurde die Gefahr, dass sinnentstellende Fehler übersehen werden konnten. Und selbst wenn verschluckte Silben oder falsche Schreibweisen bei phonetisch ähnlich klingenden Wörtern nicht zu sinnentstellenden Fehlern führen, so dann doch beim Leser zum Eindruck, dass sich hier jemand bei Abfassung und Korrektur seiner Texte nicht hinreichend Mühe gibt.

So etwas mag für einen Produktionsbetrieb akzeptabel sein – dessen Kunden interessiert nicht, ob die Geschäftsbriefe präzise und fehlerfrei formuliert sind, sondern dass die Produkte präzise und fehlerfrei hergestellt und ausgeliefert werden. Unser Produkt ist aber ganz wesentlich das geschriebene Wort, und unserem Anspruch, den wir daran stellen und den unsere Mandaten zu Recht erwarten können, genügt das, was gängige Spracherkennungssyteme derzeit produzieren, noch nicht. Der Kontrollaufwand ist so hoch und verlangt ein Maß an Konzentration, dass es für die Sekretariate schneller und einfacher ist, von vornherein Sprachdiktate selbst zu schreiben als mit Spracherkennung erzeugte Dokumente Korrektur zu lesen.

In bestimmten Situationen nutze ich gleichwohl Spracherkennungssysteme: Nämlich wenn ich lange und komplexe Texten erstelle, in denen ich öfter Einschübe oder Umstellungen vornehme bzw. an mehreren Stellen gleichzeitig arbeite, weil sie aufeinander aufbauen. Dann ist es für mich wichtig, dass der Text, den ich diktiere, sofort in einem bearbeitbaren Dokument zur Verfügung steht, auch wenn er noch voller Erkennungsfehler steckt. In solchen Fällen kann und soll sich mein Sekretariat dann auch die Mühe machen, die so entstehenden Dokumente sorgfältig und damit aufwändig zu prüfen und zu korrigieren, auch wenn das anstrengender ist und länger dauert, als wenn es einfach einen von mir diktierten Text schreiben würde. Der Mehraufwand meines Sekretariates wird in diesem Falle mehr als kompensiert dadurch, dass ich von vornherein bessere Möglichkeiten habe, meinen Text zu strukturieren und weniger Korrekturschleifen brauche.

Die Frage ist also nicht, ob bestimmte Technologien Sinn machen. Die Frage ist, für wen und wofür sie Sinn machen und wie man sie dafür einsetzen muss. Sich das klarzumachen, ist ziemlich anstrengende Detailarbeit. Qualität im digitalen Zeitalter bedeutet aber, sich diese Arbeit zu machen, anstatt einfach unreflektiert die nächste Wundertechnologie einzusetzen.

Bezogen auf ChatGPT bedeutet das folgendes: juristische Gutachten, Verträge oder Schriftsätze, die man sich von ChatGPT erzeugen lässt, erscheinen beim ersten Durchlesen faszinierend. In den Details stecken sie jedoch voller Fehler. Es geht daher schneller und einfacher, sie komplett neu zu schreiben, als die Fehler im von ChatGPT erzeugten Dokument zu korrigieren.

Allerdings kann natürlich ein von ChatGPT erzeugtes Dokument wertvolle Anregungen liefern. Das liegt gerade am Wesen künstlicher Intelligenz, die ja Kreativität nur vortäuscht, in Wahrheit aber nur Wörter und Sätze aneinanderreiht, die in den Dokumenten, mit denen sie trainiert wurde, mit einer hohen Wahrscheinlichkeit aufeinander folgen. Deswegen aber kann sie viel schneller und umfassender feststellen, welche Aspekte eines Themas diejenigen, die darüber schreiben, häufig beschäftigen. Je nach Umfang und Qualität der Trainingsdokumente mag es sein, dass dabei Aspekte erkannt werden, die in gängigen Musterformularen oder Kommentierungen noch zu kurz kommen. Die inhaltlichen Ausführungen von ChatGPT zu diesen Aspekten sind aber nach meinen Erfahrungen jedenfalls derzeit noch zu oberflächlich und fehlerhaft, um überhaupt berücksichtigt werden zu können.

Was haben also ChatGPT und Sprecherkennungsprogramme gemeinsam? Die Faszination der Technik suggeriert eine Qualität des Ergebnisses, die tatsächlich nicht vorhanden ist. Während man bei Spracherkennungsprogrammen aber zumindest weiß, was man diktiert hat und daher zwar mühsam und aufwändig, aber immerhin das Ergebnis kontrollieren kann, ist dies bei ChatGPT ohne tiefgreifende Fachkenntnisse von der jeweiligen Materie nicht möglich.

Deswegen ersetzt ChatGPT keine Jurist:innen. Ganz im Gegenteil werden die Anforderungen an juristische Arbeit steigen, um ChatGPT oder ähnliche Systeme sinnvoll einsetzen zu können. Wahrscheinlich werden jedoch Rechtstreitigkeiten zunehmen, weil Laien, die Zeit und Geld sparen wollten, sich ihre Verträge von ChatGPT haben erstellen lassen und dann im Streitfall merken, dass es aufwändiger und teurer wird, diese Verträge zu interpretieren und die Ergebnisse dann oft nicht die gewünschten sind.

Deswegen gilt nach wie vor der gute Rat: Vertragsmuster lädt man nicht im Internet herunter und lässt sie nicht durch ChatGPT erzeugen. Wenn es wirklich um etwas geht, beauftragt man eine fähige Anwältin bzw. einen fähigen Anwalt. Sie oder er benutzt natürlich auch Muster und in manchen Fällen inzwischen auch ChatGPT – aber sie oder er kann die Substanz einschätzen, an die tatsächlichen Gegebenheiten anpassen und die richtige Anwendung erklären. Ohne diese Beratung ist jedes Muster wertlos – egal woher es letztlich stammt.