Reihenfolge Tool-Entwicklung und gelernte bzw. verwendete LLM-Techniken#
1. Doc (Erstes Experiment)#
Grundlegende Prompt-Engineering-Techniken:
- Großschreibung in Prompts zur Verstärkung kritischer Anweisungen
- Zweistufige Chunking-Strategie (Chunk → Meta-Zusammenfassung)
- Strukturelle Element-Extraktion mit Tags (Überschriften, Tabellen, Bildunterschriften)
- pymupdf4llm für LLM-freundliches Markdown
2. Code-Analyzer#
Spezialisierung und hierarchische Analyse:
- Multi-Perspektiven-Analyse: 4 separate spezialisierte LLM-Analysen pro Datei (Business Logic, Technical Aspects, Interfaces, Issue Detection)
- Hierarchischer Analyseansatz über mehrere Abstraktionsebenen (File→Package→Module→System)
- Dialog-basierte Anforderungsklärung: LLM stellt aktiv Fragen
- Asynchrone Verarbeitung mit Semaphore-basiertem Rate Limiting für viele LLM-Calls
3. KI-Umfrage#
Erste Agent-Workflows und Strukturierung:
- Single-Agent mit Workflow-Orchestrierung: Bewertung → Nachfrage → Strukturierung
- Strukturierte JSON-Outputs als Kommunikationsgrundlage
- Clarity Score (0-1) für automatische Bewertung
- Pydantic für Datenvalidierung bei LLM-Outputs
- Safeguards gegen Endlosschleifen bei JSON-gesteuerten Systemen
4. stt-helper#
Kaskadierende Workflows:
- Dreistufige Verarbeitungskaskade: Bereinigung → Überarbeitung → Formatierung
- Fokussierte Single-Purpose-Prompts (ein Auftrag pro Stufe)
- Entwicklungsinterface für Prompt-Optimierung:
- Interaktive Prompt-Anpassung während Verarbeitung
- Einsicht in Zwischenergebnisse jeder Stufe
- Zeichenbasiertes Chunking für längere Texte
5. ppt-helper#
Multi-Agent-Architekturen:
- Zwei-Agenten-Architektur mit klaren Rollen (Chat-Agent + Artefakt-Agent)
- Strukturiertes JSON-Kommunikationsprotokoll zwischen Agenten
- Bidirektionaler “Rückkanal”: Artefakt-Agent kann Nachfragen an Chat-Agent stellen (nicht nur unidirektional)
- Modellwahl nach Prompt-Following-Fähigkeiten statt nur nach Benchmarks
- <1000 Zeilen pro Datei für LLM-Wartbarkeit
6. Translate#
Skalierung und Context-Management:
- Mehrstufiges Verfahren: Markdown-Konversion → Chunking → parallele Übersetzung → Zusammensetzung
- Context-Management-System: Glossare, übersetzte Schlüsselbegriffe, Chunk-Zusammenfassungen werden an LLM weitergegeben
- Asynchrone parallele API-Calls für Performance
- Einheitliche Markdown-Pipeline statt formatspezifische Verarbeitung
- Konsistenz über Chunk-Grenzen durch Context-Weitergabe
7. TalkToDocuments#
Großer Kontext-Nutzung:
- Nutzung großer Kontexte ohne traditionelles Chunking oder Vektordatenbanken
- Tiktoken-Integration für Token-Zählung und Visualisierung
- Simples Referenzsystem [P1], [P2] statt komplexer Metadaten
- Intelligentes Content-Cleaning und Deduplizierung vor LLM-Verarbeitung
- Direktes Halten mehrerer Dokumente im Kontext (bis zu 20 Dokumente)
8. TextTool#
State-Management und systematische Dokumentation:
- Implementation_Status-Dokument: LLM pflegt Implementierungsstatus selbst nach jedem Schritt
- State-less Entwicklung: Jede neue Interaktion mit vollständigem Kontext möglich
- Artefakt-zentrierter Ansatz (Input/Output-Bereiche statt dialogische Prompts)
- Kuratierte Tool-Bibliothek mit 12 optimierten Prompts ohne Meta-Kommentare
- Kombination Prompt-Engineering + Heuristik-Filtering: Prompt-Following verstärkt durch nachgelagertes Filtering
- Prompt-Engineering-Strategie differenziert: Bei gutem Prompt-Following strukturierte Aspekte, bei schwachem Fließtext-Anweisungen
- Automatische Titel-Generierung durch separate LLM-Calls für History-Funktion
9. Web-Helper#
Rapid Prototyping und Zwei-Stufen-Analyse:
- Zweistufige LLM-Verarbeitung: Content-Struktur-Analyse → Verbesserungsvorschläge → Anwendung auf Inhalte
- JSON-Handling großer strukturierter Daten (12 MB) mit 256K Token Kontext
- In-Memory Session-Verarbeitung (kein persistenter State)
10. Chart-Tool#
Komplexe Multi-Agenten-Architektur mit Pattern-Bibliotheken:
- Intent→Plan→Execute Workflow (dreistufige Evolution)
- IntentService für Intent-Klassifizierung (Modifikation, Einzelchart, Mehrfachchart, Analyse)
- PlanService übersetzt Intents in detaillierte Ausführungspläne
- ExecutionService koordiniert mit Retry-Logik
- Pattern-Bibliotheken als Hybrid-Ansatz: 44 Code-Patterns (23 Implementierung, 7 Anti-Patterns, 9 Modifikation, 5 semantische)
- LLM wählt und adaptiert Patterns basierend auf Datentypen
- Hybrid: LLM-Intelligenz + Templates
- fix_code() Methode für LLM-basierte Selbstkorrektur mit Error-Feedback
- Retry-Logik: Bei Fehlern Error-Message an LLM zur Code-Korrektur
- Kontrollierte Code-Ausführung mit eingeschränkten Builtins, vordefinierten Safe-Globals
- Semantische Analyse: SemanticColorHelper für natürlichsprachige Farbangaben
- Multi-Service-Orchestrierung: Mehrere spezialisierte Services arbeiten zusammen
11. Personalkostenkalkulator#
Integrierte Hybridarchitektur mit State-basierter Dialogführung:
- Strikte Hybridarchitektur: LLM ausschließlich für Parameterextraktion, deterministische Berechnungen komplett LLM-frei (Python Decimal für exakte Arithmetik)
- LLM als intelligente Schnittstelle: Brücke zwischen natürlicher Sprache und strukturierter Verarbeitung
- State Machine für Dialogführung: 7 definierte Zustände (INITIAL→PARSING→CLARIFYING→CALCULATING→COMPLETE, plus FALLBACK/ERROR)
- Dreistufiger Fallback-Mechanismus: Nach 3 Parse-Fehlern automatisches manuelles Formular mit vorausgefüllten Werten
- JSON-Schnittstelle mit Pydantic: Klare Vertragsdefinition zwischen LLM und Backend
- Strukturierte Anforderungserfassung: Spezieller Prompt führt Fachbereich durch systematische Fragen vor Entwicklung
- Spezifikation-First-Ansatz: 50 Min. Spezifikation ermöglichte 40 Min. Umsetzung (5700 Zeilen in einer Runde)
12. Text-Stil-Editor#
Reglerbasierte Texttransformation mit zweistufigem Prozess:
- Zweistufiger Prozess: Neutralisierung (10 Dimensionen) → Stilisierung (34 Regler in 7 Kategorien)
- Drei Reglertypen: Polare Regler (-10 bis +10), Intensitätsregler (0-10) und Stufenregler (diskrete Optionen)
- Intensitätsstufen: Präzise Steuerung von “leicht” (1-2) bis “extrem” (9-10)
- 23 Presets: Vordefinierte Regler-Kombinationen für typische Anwendungsfälle
- Hash-Code-Export/Import: Persistenz von Einstellungen über Sitzungen hinweg
- Flache Architektur: 6 Python-Module (app.py, config.py, llm_client.py, models.py, prompt_builder.py, token_counter.py)
- Prompt-Builder: Kontextspezifische LLM-Prompt-Generierung basierend auf Regler-Einstellungen
- Technischer Stack: Python, Gradio 6, OpenAI-kompatible API (vLLM), tiktoken
- Methodischer Ansatz: Ausführliche Spezifikation (1.400 Zeilen) vor Implementierung zur Reduktion von Iterationsschleifen
Entwicklungslinie der LLM-Techniken:#
Phase 1 - Grundlagen (Doc, Code-Analyzer):
- Prompt-Engineering-Basics (Großschreibung, doppelte Verstärkungen)
- Chunking-Strategien
- Multi-Perspektiven-Analyse
- Dialog-basierte Interaktion
Phase 2 - Workflows (KI-Umfrage, stt-helper):
- Strukturierte JSON-Outputs mit Pydantic
- Kaskadierende fokussierte Prompts
- Workflow-Orchestrierung durch LLM
- Entwicklungsinterfaces für Prompt-Iteration
Phase 3 - Multi-Agenten (ppt-helper):
- Zwei-Agenten-Architekturen
- Bidirektionale strukturierte Kommunikation
- Prompt-Following als Auswahlkriterium
Phase 4 - Skalierung (Translate, TalkToDocuments):
- Context-Management-Systeme
- Großer Kontext-Nutzung (256K Token)
- Parallele API-Calls
- Token-Tracking
Phase 5 - Systematisierung (TextTool, Web-Helper):
- LLM pflegt eigene Metadaten (Implementation_Status)
- Artefakt-zentrierte Ansätze
- Zweistufige Analyse-Workflows
Phase 6 - Komplexe Systeme (Chart-Tool):
- Intent→Plan→Execute Pattern
- Pattern-Bibliotheken als Hybrid-Ansatz
- Selbstkorrektur-Mechanismen
- Multi-Service-Orchestrierung
- Semantische Analyse-Komponenten
Phase 7 - Integrierte Architekturen (Personalkostenkalkulator):
- Strikte Trennung LLM/deterministische Logik als Architekturprinzip
- State Machines für robuste Dialogsteuerung
- Fallback-Mechanismen bei LLM-Unsicherheit
- Spezifikation-First als Entwicklungsmethodik
- Synthese früherer Techniken (JSON/Pydantic, Workflows, Dialogführung) zu robustem Gesamtsystem