Skip to Content (custom)

Angle

KI-Entwicklung: Prompting und Problemlösung

  • eDiscovery
  • 3 mins

Die Welt der künstlichen Intelligenz (KI) entwickelt sich in rasantem Tempo weiter, insbesondere mit dem Aufkommen generativer KI-Tools. Große Sprachmodelle (Large Language Models, LLMs) wie ChatGPT haben das Potenzial, jede Aufgabe zu automatisieren oder zu beschleunigen, die die Erkennung und Generierung von Textinhalten auf einem Qualitätsniveau erfordert, das oft nicht von menschlich generiertem Text zu unterscheiden ist. Diese LLMs befinden sich noch in der Anfangsphase, so dass dem Output oft der Kontext fehlt und eine menschliche Überprüfung erforderlich ist. Dies wird sich schnell verbessern, wenn das Modell mit mehr Daten trainiert wird.

In der Rechtsbranche gibt es sowohl für die Rechtsabteilungen von Unternehmen als auch für Anwaltskanzleien eine Vielzahl von Anwendungsfällen für generative KI. Die wichtigsten kurzfristigen Möglichkeiten werden wahrscheinlich in der Optimierung interner Prozesse liegen. Beispiele hierfür sind die Generierung von Erinnerungen in Bezug auf Sicherheit, Compliance und die Zusammenfassung von Informationen in Handelsverträgen, die Einbindung generativer KI in bestehende eDiscovery-Lösungen, die Erstellung von Vorlagen und die Erstellung von Schriftsätzen.

Wie bei jeder neuen Technologie sind die Auswirkungen des Einsatzes von LLMs ein Hauptanliegen in der Rechtsbranche. Es besteht der Wunsch nach einem tieferen Verständnis der Funktionsweise dieser Technologie, um optimale Anwendungsfälle zu bestimmen und Risiken zu begrenzen. Prompt Engineering und Problemformulierung sind zwei Bereiche, die weiter erforscht werden sollten, da diese Prozesse den Weg für besser ausgebildete Modelle ebnen.

Prompt-Engineering

Prompt-Engineering bezieht sich auf den Prozess des Verstehens und der Verfeinerung der Fragen, die ein Benutzer einem KI- oder LLM-System stellt, um optimale Ergebnisse zu erzielen. Die Fähigkeit, Fragen zu optimieren, führt zu besseren Ergebnissen bei minimalem Aufwand an Hin- und Herfragen. Benutzer haben festgestellt, dass das bloße Stellen von Fragen ohne strategische Überlegungen zu generischen oder falschen Ergebnissen führen kann. Branchenführer in diesem Bereich helfen bei der Formulierung dieser Aufforderungen, die sich als wertvoll erweisen und das Risiko in den bereits erwähnten juristischen Anwendungsfällen begrenzen werden.

Es haben sich bewährte Verfahren herauskristallisiert, wie man strategisch Fragen stellen kann. Dazu gehört die Aufforderung an die Tools, dem Nutzer mitzuteilen, was er sonst noch braucht, um eine bestimmte Aufgabe zu erledigen oder ein Problem zu lösen, ein bestimmtes Rahmenwerk auf ein Problem anzuwenden oder so zu tun, als sei er eine Person in einem bestimmten Beruf. Aufforderungen wie diese helfen dabei, LLMs zu den richtigen Daten zu leiten, personalisiertere Ergebnisse auszugeben und im Laufe der Zeit durch Gesprächsverläufe zu verfeinern. Beispielsweise würde die Aufforderung "Tu so, als wärst du ein Tutor für die Anwaltsprüfung" das Tool zu Trainingsdaten speziell aus diesem Bereich führen. Mit mehr Kontext können die Bots maßgeschneiderte Antworten generieren und das Risiko, falsche Informationen zu erhalten, wird verringert.

Die schnelle Entwicklung von KI-Modellen führt dazu, dass mit der Zeit immer weniger Aufforderungen erforderlich sind. Diese Entwicklung wird sich fortsetzen und es den Systemen ermöglichen, schneller zu lernen. Mit fortschreitender Entwicklung könnten diese Systeme sogar in der Lage sein, ihre eigenen Prompts zu erstellen. Auch sprachliche Herausforderungen können auftreten, denn die Entwicklung von Prompts erfordert einen starken Fokus auf die Sprache, in der die Fragen formuliert werden. Selbst eine kleine sprachliche Nuance kann die Ausgabe verändern. Einige Branchenexperten sind der Meinung, dass der Bedarf an Prompt-Engineering aus diesen Gründen nicht so groß ist, wie zunächst angenommen. Ein Partner, der im Bereich Prompt Engineering führend ist, kann Unternehmen dabei helfen, diese Tools verantwortungsvoll zu nutzen und sich auf speziellere Anforderungen wie die Problemformulierung zu konzentrieren.

Problemformulierung

Die Problemformulierung ist eine Fähigkeit, die nach Ansicht einiger Analysten das eigentliche Problem bei der Nutzung und Schulung von KI-Systemen darstellt. Dazu ist es erforderlich, das zu lösende Problem genau zu erfassen, um den richtigen Input zu finden. Dieser Prozess unterscheidet sich vom Prompt Engineering, das sich auf die Fähigkeiten eines bestimmten Tools konzentriert, um die besten Fragen zu stellen.

Neben dem Prompt-Engineering ist die Problemformulierung ein sich entwickelnder Bereich. Um diese Fähigkeit zu verfeinern, sind mehrere Kompetenzen von Bedeutung. Dazu gehört die Fähigkeit, ein Problem kurz und bündig zu diagnostizieren, komplexe Probleme aufzuschlüsseln, Fragen neu zu formulieren und an die Einschränkungen zu denken, die zur Steuerung eines KI-Systems erforderlich sind. Bei komplexen Rechtsfragen erfordert dies den Zugang zu den richtigen Fachkenntnissen und Technologien.

Die Fähigkeit, ein Problem klar zu definieren, sollte es den Nutzern ermöglichen, diese Werkzeuge besser zu steuern, sprachliche Hindernisse bei der Eingabe zu umgehen und bei der Formulierung einer Lösung Kreativität und Kontrolle zu bewahren. Wenn das Problem klar definiert ist, stellen Probleme mit der Sprache, die in einer Eingabeaufforderung verwendet wird, kein Hindernis mehr für die Lösung dar. Dies steht im Einklang mit den Zielen der juristischen Praxis, die darin besteht, für den Kunden die besten Ergebnisse auf die effizienteste Weise zu erzielen und gleichzeitig das juristische Urteilsvermögen über die endgültige Lösung zu behalten. Es wird interessant sein zu sehen, ob und wie sich der "Problemformulierungsansatz" entwickelt.

Schlussfolgerung

Im Moment ist es wichtig, die Entwicklungen sowohl bei der Entwicklung von Prompts als auch bei der Problemformulierung zu beobachten. Selbst wenn sich die Konzentration auf das Problem mehr und mehr durchsetzt, werden Prompts ein wertvolles Gut bleiben, um KI-Tools effektiver zu nutzen. Diese beiden Prozesse werden in Zukunft wahrscheinlich ineinander greifen. Mit einem Partner, der in diesen Bereichen Pionierarbeit leistet, können Rechtsabteilungen von Unternehmen und Anwaltskanzleien über geeignete Anwendungsfälle entscheiden, strategisch vorgehen, diese Tools sicher einsetzen und ihre Marktfähigkeit erhalten.

Der Inhalt dieses Artikels dient nur der allgemeinen Information und stellt keine Rechtsberatung oder -meinung dar.

The contents of this article are intended to convey general information only and not to provide legal advice or opinions.

Subscribe to Future Blog Posts

Related

Related

Related