top of page

Prompt, Query, RAG & Co.

Aktualisiert: 9. Dez. 2025

Das 1×1 der KI-Begriffe



Wer KI im Rechtsbereich souverän nutzen will, braucht technisches Verständnis: Begriffe wie Prompting, Token, Retrieval, RAG, Chain of Thought und Agentic AI entscheiden über Qualität und Verlässlichkeit. Wer diese Mechanismen versteht, verbessert juristische Ergebnisse und setzt KI sicher und professionell ein.



In diesem Beitrag:




Wer sich mit KI im Rechtsbereich beschäftigt - sei es in Kanzleien, Rechtsabteilungen oder im Wissenschaftsbetrieb - begegnet schnell Begriffen, die häufig wie selbstverständlich verwendet werden: Prompt, Query, Token, Retrieval-Augmented Generation (RAG), Embeddings und mehr.


Dabei ist das Verständnis dieser Begriffe entscheidend für den korrekten Einsatz moderner KI-Systeme. Denn nur, wer die Grundlagen kennt, versteht, wie ein Sprachmodell Informationen verarbeitet, auf welcher Basis Antworten entstehen und wie sich das Potenzial einer KI gezielt nutzen lässt.


In diesem Beitrag geben wir Ihnen eine kompakte und praxisnahe Übersicht über zentrale Begriffe rund um KI-Anwendungen - mit Fokus auf Relevanz im juristischen Alltag.


Was der Unterschied zwischen Prompt und Query ist


Im Alltag werden beide Begriffe oft synonym genutzt, technisch gesehen beschreiben sie jedoch Unterschiedliches:


  • Prompt: Die gesamte Eingabe, die dem Sprachmodell übergeben wird - also die eigentliche Frage („Wie ist § 37 AO auszulegen?“) sowie ggf. Beispiele, Regeln oder Hinweise zur gewünschten Antwortform.

  • Query: Ein Suchbefehl, ähnlich wie aus Datenbanken oder Suchmaschinen bekannt. In RAG-Architekturen ist die Query der technische Baustein, der Inhalte aus einer Wissensdatenbank abruft - etwa Gesetzestexte, Kommentare oder Fachliteratur. Die KI erzeugt diese Query in der Regel automatisch auf Basis des Prompts.


Wichtig für die Praxis:

Ein Prompt kann eine Query enthalten - vor allem, wenn die KI zuerst recherchieren soll, bevor sie eine Antwort generiert. Je klarer der Prompt strukturiert ist, desto präziser die Ergebnisse. Der Prompt ist die menschliche Eingabe, aus der die KI ihre datenbankorientierte Suchanfrage (Query) ableitet.


Token - Warum sie die Währung der Sprachmodelle sind


Sprachmodelle verarbeiten keine Wörter, sondern Token - kleinste Informationseinheiten. Ein Token kann ein Wort, ein Satzzeichen oder auch nur ein Wortteil sein. Beispielsweise wären „Steu-“, „er-“ und „recht“ drei Token.


Warum das relevant ist:

  • Prompt-Länge (in Token) beeinflusst die Kosten,

  • sie beeinflusst die Verarbeitungsgeschwindigkeit,

  • und sie entscheidet darüber, wie gut das Modell den Kontext vorheriger Eingaben berücksichtigen kann.


Gerade bei komplexen juristischen Fragestellungen lohnt es sich daher, präzise und kompakt zu formulieren.


Embeddings - Wie juristisches Wissen in Zahlenräumen abgebildet wird


Ein Embedding ist eine mathematische Repräsentation von Sprache. Wörter, Sätze oder Dokumente werden als Zahlenvektoren dargestellt - ähnlich einer Karte, auf der inhaltlich verwandte Konzepte nebeneinander liegen.


Für die juristische Praxis bedeutet das:

Unterschiedliche Formulierungen eines Sachverhalts („Umsatzsteuerpflicht nach § 1 UStG“ vs. „Versteuerung bei Lieferungen“) können rechnerisch als ähnlich erkannt und verknüpft werden. Embeddings sind damit die Grundlage für semantische Suche und moderne Wissenssysteme.


Retrieval - Wie relevante Informationen gezielt eingeholt werden


Beim Retrieval werden passende Inhalte aus einer externen Wissensquelle abgerufen - etwa Gesetzestexte, Kommentierungen oder Urteile. Das Modell verlässt sich nicht allein auf sein internes „Weltwissen“, sondern bezieht zusätzliche, aktueller gehaltene Informationen ein.


Beispiel:

Wird die KI gefragt, wie § 8 KStG im Zusammenhang mit Organschaften auszulegen ist, ruft sie zunächst relevante Textstellen ab und verarbeitet diese anschließend weiter.


Was Retrieval-Augmented Generation (RAG) eigentlich bedeutet


RAG kombiniert zwei zentrale Stärken: Recherche und Textgenerierung.


  1. Retrieval: Die KI sucht auf Basis einer Query passende Inhalte aus verlässlichen, aktuellen Quellen.

  2. Generation: Das Sprachmodell formuliert darauf basierend eine Antwort - gestützt auf qualitativ hochwertige Informationen.


Warum das juristisch relevant ist:

RAG verhindert Halluzinationen, erhöht die inhaltliche Verlässlichkeit und ermöglicht Antworten auch zu Themen, mit denen das Modell selbst nicht trainiert wurde.


Halluzination - Wenn die KI „phantasiert“


Von einer Halluzination spricht man, wenn eine KI Inhalte erfindet, die plausibel klingen, aber falsch sind - etwa erfundene Paragraphen, Urteile oder Argumentationen.


Was dagegen hilft:

  • geprüfte Datenquellen (z. B. Verlagsinhalte),

  • klare Prompt-Strukturen,

  • der Einsatz von RAG-Technologie.


Chain of Thought - Wenn Denkprozesse mit Zwischenschritten erfolgen


Chain of Thought beschreibt einen schrittweisen Denkprozess - ähnlich einer juristischen Subsumtion.


Beispiel:

„Liegt eine Betriebsaufspaltung vor?“ - das Modell prüft nacheinander:

  1. Besitzgesellschaft vorhanden?

  2. Betriebsbezogene Verflechtung?

  3. Personelle Verflechtung?

→ Erst dann wird ein Ergebnis abgeleitet.


Warum Agentic AI der nächste Entwicklungsschritt ist


Agentic AI geht über klassische Sprachmodelle hinaus: Sie plant aktiv ihre nächsten Schritte, stellt Rückfragen, überprüft Zwischenergebnisse und recherchiert selbstständig.


Für juristische Anwendungen bedeutet das:

Eine KI kann erkennen, dass Informationen fehlen, diese gezielt anfordern und den Antwortprozess dynamisch verbessern. Dadurch steigt die Tiefe, Qualität und Zuverlässigkeit der Ergebnisse.


Kein Spiel, sondern Praxis - Warum KI-Verstehen entscheidend ist


Juristische Arbeit ist komplex. Wer KI sinnvoll nutzen möchte, muss verstehen, wie Modelle funktionieren und worauf es bei der Anwendung ankommt. Das betrifft nicht nur Legal Engineers, sondern alle, die juristische Qualität mit technologischer Innovation verbinden möchten.


Wie Sie verstehen - Und gewinnen können


Prompt ist nicht gleich Query. Token sind nicht einfach Wörter. Und ein Modell, das heute überzeugend wirkt, kann morgen falsch liegen, wenn es nicht richtig angeleitet wird.

Juristische KI ist mächtig - aber nur, wenn man die Grundlagen versteht.


Wenn Sie tiefer in die Welt juristischer KI eintauchen möchten, empfehlen wir Ihnen unser kostenloses Whitepaper KI in der juristischen Recherche, in dem wir erklären, wie sich juristische Wissensarbeit verändert und wie Sie KI sicher und effektiv einsetzen.


Whitepaper KI in der juristischen Recherche


Über Taxy.io


Taxy.io wurde 2018 als Spin-Off der RWTH Aachen gegründet und entwickelt innovative Software, mit der Steuerberater und Angehörige rechtsberatender Berufe ihre Prozesse automatisieren können. Wir arbeiten mit einem 45-köpfigen Team aus talentierten und qualifizierten Experten daran, unseren Kunden innovative Anwendungen anzubieten, die ihnen durch den Steuer-Dschungel helfen.


Unser Ziel ist es, die führende Plattform für Automatisierungslösungen für die Steuer- und Rechtsberatung zu entwickeln und dadurch die vollautomatische, proaktive Steuer- und Rechtsberatung zu ermöglichen.


bottom of page