Skip to Content (custom)

Angle

Vertrauen Sie nicht Amor – Vertrauen Sie dem Black Box-Prinzip

  • Cyber Breach
  • 7 Mins

Valentinstag steht vor der Tür. Das Fest erkennt man leicht an rosafarbenen und roten Karten, Schokolade und Plüschtieren, die kurz nach Neujahr in den Regalen Ihrer Apotheke auftauchen. Traditionell dreht sich der Tag um Liebe und Freundschaft und feiert menschliche Beziehungen. Der Legende nach weiß Amor instinktiv, wer unsere wahre Liebe ist, und verbindet uns mit Pfeil und Bogen. Doch in der modernen Welt vertraut kaum jemand dem geflügelten Baby im Windelanzug. Stattdessen setzen Menschen auf Dating-Plattformen, um den richtigen Partner zu finden.

Viele melden sich voller Hoffnung bei diesen Plattformen an, ohne die Funktionsweise zu hinterfragen. Wie kann ein Computer anhand weniger Antworten den perfekten Partner ermitteln? Diese Dienste nutzen Künstliche Intelligenz (KI), um Gleichgesinnte zusammenzubringen – und das funktioniert erstaunlich gut. Millionen Menschen vertrauen KI bei der Partnersuche. Doch in der Rechtsbranche zögern viele noch, KI für ihre Arbeit einzusetzen.

Historisch gesehen zeigt sich ein Muster: Die Rechtsbranche zögert zunächst, neue Technologien zu übernehmen, erkennt aber schließlich deren Vorteile und die Bedeutung neuer Technologien für das Geschäft. Bei der Einführung von E-Mail, juristischen Rechercheplattformen und der Cloud herrschte zunächst große Skepsis – heute sind sie unverzichtbare Bestandteile der Rechtsarbeit. Im 21. Jahrhundert ist KI in den Vordergrund getreten, doch diese Technologie erweist sich für die Rechtsbranche als schwieriger zu integrieren als frühere Innovationen. Am einschüchterndsten scheint das fehlende Verständnis für die „Black Box“ der KI.

Ohne wirklich zu begreifen, was im Hintergrund passiert, haben viele Jurist:innen Angst, KI in ihre Praxis zu integrieren und sie als reguläres Geschäftswerkzeug zu akzeptieren.

Hier sind einige zentrale Gründe, warum die Rechtsbranche diese Haltung überdenken und die KI-Black-Box nutzen sollte – etwa für Aufgaben wie eDiscovery-Review, Vertragsanalysen, Privilegienprotokolle und vieles mehr.

  1. Unser Gehirn kann im Wesentlichen als Blackbox betrachtet werden, die Daten sammelt. Das individuelle Urteilsvermögen, Wissen und die Erfahrung einer Person bestimmen die Ergebnisse und die Art der Entscheidungsfindung. Dasselbe Denken sollte auf KI-Lösungen angewendet werden, die als technologische Blackbox mit Daten und Algorithmen arbeiten, um Ergebnisse zu bestimmen.

    Betrachten Sie es in diesem Kontext: Ein Anwalt erhält einen Stapel Dokumente zur Prüfung auf Privilegien und entscheidet, welche Informationen zurückgehalten oder geschwärzt werden sollen. Oder der Anwalt wird gebeten, per manueller Prüfung festzulegen, welche Dokumente in der Discovery offengelegt werden. Es gibt keine Möglichkeit zu wissen, was im Kopf des Anwalts vorgeht, aber das Gericht und die Gegenseite würden Privilegien- oder Discovery-Entscheidungen in der Regel nicht infrage stellen, solange nichts höchst verdächtig erscheint. Stattdessen verlassen sie sich auf die Expertise und die ethischen Verpflichtungen des Anwalts, um solche Entscheidungen zu treffen. Warum also eine Maschine infrage stellen, die im Wesentlichen denselben Prozess ausführt? Tatsächlich können Menschen aus einer KI-Lösung mehr Einblick in die Entscheidungsfindung gewinnen als aus menschlichen Urteilsentscheidungen.

  2. KI sollte nicht gefürchtet werden. Diese Lösungen liefern messbare Ergebnisse und sind durchweg zuverlässiger. Anwälte können den Prozess nachvollziehen, der zu einem bestimmten Ergebnis geführt hat, und diese datengestützten Erkenntnisse nutzen, um Fragen zur Methodik oder Offenlegung zu beantworten. Einen Menschen nach seinen Entscheidungen zu befragen, würde einfach nicht dieselbe Klarheit bieten. Ein Anwalt, der Technology Assisted Review verwendet, kann beispielsweise die Projektergebnisse mit dem ursprünglichen Trainingssatz vergleichen, was bestätigt, warum bestimmte Daten als relevant markiert wurden, während andere verworfen wurden. Die gründliche Schulung dieser Programme verbessert ebenfalls die Zuverlässigkeit, da weniger Raum für menschliche Fehler bleibt.

    Darüber hinaus basiert die von Anwälten genutzte KI-Technologie in der Regel auf überwachten Machine-Learning-Verfahren. Überwachtes Lernen besteht darin, dass ein Algorithmus die für das Training verwendeten Daten analysiert, kennzeichnet und bewertet. Dies unterscheidet sich von den unüberwachten Machine-Learning-Algorithmen, die für Clustering, Near-Duplicate-Erkennung und Latent Semantic Indexing verwendet werden und keinerlei Eingaben vom Benutzer erhalten und Dokumente weder bewerten noch klassifizieren. KI, die auf überwachten Machine-Learning-Verfahren basiert, sollte zögerliche Anwälte beruhigen, da hier ein menschliches Element enthalten ist, das diesen Lösungen hilft, Muster zu erlernen und Ergebnisse mit zukünftigen Daten vorherzusagen.

  3. Anwälte haben in der Vergangenheit vielen Prozessen und Technologien vertraut, ohne die Wissenschaft dahinter wirklich zu verstehen. Selbst bei etwas scheinbar Einfachem wie E-Mail gibt es Code und Technologie, die über das juristische Verständnis hinausgehen. Anwälte – wie der Rest der Welt – vertrauen einfach darauf, dass es wie erwartet funktioniert. Menschen akzeptieren auch, dass es Raum für Fehler gibt, etwa wenn Server ausgelastet sind oder E-Mail-Störungen auftreten. Dasselbe Denken gilt für alltägliche Funktionen wie das Betätigen eines Lichtschalters. Menschen verstehen möglicherweise nicht die komplexen Kabel-, Transformator- und Netzsysteme, verlassen sich aber dennoch auf den Schalter, ohne viel zu hinterfragen. Warum also dieses Denken nicht auf KI übertragen, insbesondere wenn diese Technologie die Rechtsbranche transformieren und die gesamten Workflows verbessern kann?

  4. KI ist überall. Sie ist so nahtlos in den Alltag integriert, dass Menschen oft nicht merken, dass sie sie nutzen. „Frictionless AI“ verdeutlicht, dass Menschen Dinge, mit denen sie vertraut sind, im Allgemeinen nicht infrage stellen. Nehmen wir Amazon als Beispiel. Es gibt Millionen von globalen Nutzern von Amazon, und alle verwenden KI. Amazon nutzt KI-Funktionen für verschiedene Zwecke, insbesondere um den Kontext zu verstehen, warum Menschen nach bestimmten Artikeln suchen. Deshalb werden bestimmten Kunden bestimmte Produkte angezeigt, und die Website kann vorhersagen, was ein Kunde als Nächstes benötigen könnte oder welche Suchergebnisse die beste Übereinstimmung darstellen. Wenn Menschen KI für solche Funktionen akzeptieren, warum sie nicht nutzen, um juristische Abläufe zu verbessern und bessere Geschäftsentscheidungen zu treffen?

Es ist normal, Dinge infrage zu stellen, die wir nicht verstehen, und gegenüber Technologie skeptisch zu sein, wenn ihre Funktionsweise schwer nachvollziehbar ist. Aber genauso wie wir Apps vertrauen, die uns den perfekten Valentinstagspartner finden, neue Produkte für unser Zuhause vorschlagen und personalisierte Empfehlungen liefern, sollten wir KI einladen, unsere Arbeit einfacher zu machen. Wer weiß? Die Wahl der richtigen KI-Lösung für Ihr Unternehmen könnte sich als perfektes Match erweisen.

Der Inhalt dieses Artikels dient lediglich der allgemeinen Information und stellt keine Rechtsberatung dar.

Subscribe to Future Blog Posts

Related

Related

Related