Tag 1 – Block 3: Prompt-Chains & Visuelles Arbeiten mit LangFlow¶
Einstieg & Rückblick¶
In Block 2 haben wir gelernt, wie man mit einfachen Prompts arbeitet. Aber was, wenn unsere Anfragen komplexer werden – zum Beispiel mehrstufig oder mit mehreren Schritten? Heute bauen wir die Grundlage für genau solche Anwendungen: Prompt-Chains.
Ziel dieses Blocks: Die Teilnehmer lernen, wie man mit visuellen Tools von LangFlow dynamische Prompt-Templates zu sinnvollen Chains kombiniert – inklusive sequentialer und paralleler Chains. Am Ende wird zudem ein kurzer Ausblick auf den Workflow mit Embeddings & Vektorstores (RAG) gegeben.
Agenda¶
- Grundlagen des Prompting und dynamische Templates
- Was ist ein Prompt?
- Von statischen zu dynamischen Templates
-
Beispiel: Basic Prompting
-
Prompt-Chaining und Chain-Arten
- Sequential Chains (z. B. SimpleSequentialChain)
- Andere Chain-Arten: Router Chains, parallele (Workers Parallel) Chains
-
Beispiel aus dem Prompt Chaining – Prompting Guide und dem Workers Parallel Prompt Chain – Newsletter Example
-
Optional: Ausblick auf Embeddings & Vektorstore
- Wie werden Dokumente in Embeddings umgewandelt und in Vektorstores abgelegt?
- Übersicht des Retrieval-Augmented Generation (RAG) Workflows
- Hinweis: Detaillierte Behandlung folgt in einem späteren Block
1. Grundlagen des Prompting und dynamische Templates¶
1.1 Was ist ein Prompt?¶
- Definition: Ein Prompt ist der Input, den du an ein LLM sendest. Er kann simple Anfragen oder komplexe Anweisungen enthalten.
- Praxisbeispiel:
Nutze den Flow aus Basic Prompting.json (relativer Pfad)
Visualisierung:

1.2 Von statischem Prompt zu dynamischen Templates¶
- Inhalt: Dynamische Platzhalter (z. B.
{context},{user_message}) ermöglichen die Wiederverwendung von Prompts. - Beispiel aus dem Flow „Prompt Chaining – Prompting Guide.json“: Visualisierung:
2. Prompt-Chaining und weitere Chain-Arten¶
2.1 Sequential Chains – Der Kern der Prompt-Chaining-Idee¶
- Erklärung: Eine Sequential Chain verbindet Prompts in einer Kette – das Ergebnis eines Prompts wird zum Input des nächsten.
- Beispiel: SimpleSequentialChain aus LangChain, bei dem ein erster Prompt eine Antwort generiert und diese für einen Folgeschritt genutzt wird.
- Visualisierung:
(Abbildung aus deinen Materialien; ggf. aus dem Bild „4d985045-7d48-4de9-b010-56fde7d298c4.png“, umbenannt in sequential_chain.png)
2.2 Weitere Chain-Arten in LangChain¶
- Router Chains: Ermöglichen das Routing basierend auf bestimmten Kriterien (z. B. bei Risikofaktoren in Finance).
- Parallele Chains: Das Beispiel „Workers Parallel Prompt Chain – Newsletter Example.json“ zeigt, wie mehrere Prompts simultan verarbeitet werden können, um unterschiedliche Themen parallel auszuarbeiten.
- LLMChain / RetrievalQA: Erste Ansätze, bei denen das Ergebnis eines Chains als Input für komplexere Aufgaben (z. B. Retrieval) genutzt wird.
- Visualisierung – Übersicht aller Chain-Arten:
(Diese Übersicht kannst du aus den bereitgestellten Screenshots oder Flow-Diagrammen ableiten – idealerweise stammt sie aus deinem Masterplan, der auch den RAG-Teil zeigt.)
Beispiele aus Finance & Risk:
- Ein Chain zur automatisierten Bilanzanalyse:
- Schritt 1: Extrahiere Kennzahlen aus dem PDF
- Schritt 2: Interpretiere jede KPI
-
Schritt 3: Fasse Abweichungen zusammen
-
Ein Chain zur Risikobewertung:
- Schritt 1: Klassifiziere Risikotyp (z. B. „Lieferausfall“, „Marktrisiko“)
- Schritt 2: Gib Handlungsempfehlung aus interner Policy-Datenbank
Zusatzaufgabe:
- Tausche im Flow {topic} gegen „Inflationsrisiko“ oder „Liquiditätsengpass“
- Erweitere den Prompt so, dass das LLM eine Maßnahme empfiehlt
🧠 Methoden zur Dokumentenanalyse in LangChain¶
LangChain bietet verschiedene Methoden, um Dokumente mit einem LLM zu verarbeiten. Die Wahl hängt von der Länge des Dokuments, dem Ziel der Analyse und der Effizienz ab.
📄 1. Stuff-Methode¶
Beschreibung: Die einfachste Methode. Der gesamte Dokumentinhalt wird „hineingestopft“ und dem LLM als Prompt übergeben.
Vorteile: - Schnell und einfach - LLM sieht den ganzen Kontext auf einmal
Nachteile: - Funktioniert nur mit kurzen Dokumenten (Token-Limit) - Nicht geeignet für große Datenmengen
Wann einsetzen? - Bei kurzen Texten oder Testdaten - Wenn Übersichtlichkeit und Schnelligkeit gefragt sind
🧮 2. Map-Reduce-Methode¶
Beschreibung: Das Dokument wird in Chunks geteilt. Jeder Chunk wird einzeln analysiert („Map“), dann werden die Teilergebnisse zusammengefasst („Reduce“).
Vorteile: - Skalierbar für lange Dokumente - Parallele Verarbeitung möglich
Nachteile: - Ergebnisse der Chunks können zusammenhangslos sein - Qualitätsverlust bei schlechter Reduktion
Wann einsetzen? - Für große, strukturierte Dokumente - Wenn Zusammenfassungen über mehrere Abschnitte hinweg gebraucht werden
🔁 3. Refine-Methode¶
Beschreibung: Ein erster Chunk wird verarbeitet, dann wird die Antwort durch weitere Chunks schrittweise „verfeinert“.
Vorteile: - Konsistente, iterativ verbesserte Antworten - Gute Ergebnisse bei narrativen oder stark vernetzten Texten
Nachteile: - Langsamer als MapReduce - Kann „übertrainieren“ – spätere Infos dominieren frühere
Wann einsetzen? - Wenn Konsistenz wichtig ist (z. B. narrativer Bericht) - Bei stark verknüpften Inhalten
✅ Vergleichstabelle¶
| Methode | Skalierbar | Konsistenz | Geschwindigkeit | Empfehlung für |
|---|---|---|---|---|
| Stuff | ❌ | ✅ | ✅ | kleine Texte |
| MapReduce | ✅ | ❌ | ✅✅ | große Reports |
| Refine | ✅ | ✅✅ | ❌ | Prosa, Stories |
💡 Merksatz für Teilnehmer:
Wenn dein Dokument klein ist, nutze Stuff. Wenn es groß und strukturiert ist, verwende MapReduce. Wenn Zusammenhänge und Iterationen wichtig sind, setze auf Refine.
3. Optional: Ausblick – Embeddings & Vektorstore im RAG-Workflow¶
- Konzept: In späteren Blöcken (z. B. Block 4) wird vertieft, wie Dokumente geladen, gesplittet, in Embeddings umgewandelt und in Vektorstores abgelegt werden.
- Vorteil: So kann das LLM kontextbezogene Informationen aus externen Daten abrufen – ein zentraler Baustein für Retrieval-Augmented Generation.
- Visualisierung:
(Dieses Bild stammt aus deinem Masterplan bzw. aus den ZIP-Dateien, z. B. der PDF QA oder LangChain Application Development Essentials. Hier wird klar, wie Dokument Loading, Splitting, Embeddings & Retrieval miteinander verbunden sind.) - Hinweis: In Block 3 zeigen wir diesen Workflow nur als Vorschau – die Detailtiefe (inkl. Vektorstore-Integration) wird in einem späteren Block erarbeitet.
Zusammenfassung und Ausblick¶
- Wichtig:
- Dynamische Prompt-Templates und Chaining ermöglichen flexible und wiederverwendbare Anwendungen.
- Sequential und parallele Chains bieten unterschiedliche Ansätze, um komplexe Aufgaben in Teilschritte zu zerlegen.
- Ausblick:
- In den kommenden Blöcken wird der RAG-Workflow (Embeddings und Vektorstore) vertieft – so entsteht ein komplettes System, das nicht nur auf vortrainiertes Wissen zurückgreift, sondern auch externe, aktuelle Informationen einbezieht.
Quellen & Referenzen¶
- Basic Prompting: Basic Prompting.json (Siehe relative Datei:
./images/Basic_Prompting.png) - Prompt Chaining: Prompt Chaining – Prompting Guide.json
- Parallele Chains: Workers Parallel Prompt Chain – Newsletter Example.json
- Dokument QA & Auto-Descriptive QA: Verwendung für Demos mit Dokumenten-Inputs
- Masterplan RAG-Workflow:
Referenz aus dem Projekttext:
"This project delves into two main topics: (1) Retrieval Augmented Generation (RAG)..."
Diskussion¶
Frage an das Publikum: Sollen wir den Ausblick auf Embeddings & Vektorstore bereits mit in Block 3 einbauen – z. B. als kurzes Intro oder interaktive Demo – oder erst in den späteren Blöcken vertiefen?
Dieses Markdown-Skript integriert alle relevanten Inhalte und verweist auf die Bilder (die du in den ZIPs oder in den bereitgestellten Screenshots findest). Damit hast du eine Grundlage, die sowohl die theoretischen Grundlagen als auch den praktischen Workflow in Prompt Chaining und einen Ausblick auf RAG umfasst.
Bitte gib mir Bescheid, falls Anpassungen oder Ergänzungen notwendig sind – oder wenn du spezifische Bilder (mit konkreten Dateinamen) einfügen möchtest!