Ein KI-Tool zur Diagramm-Generierung: Erfahrungen mit Multi-Agenten-Architekturen#
Es wurde ein Tool entwickelt, das technische Diagramme aus Textbeschreibungen erzeugt. Das Besondere: Eine mehrstufige Validierungs-Pipeline prüft und korrigiert den generierten Code automatisch.
Das Ergebnis ist ein praxistaugliches Werkzeug, das 12 verschiedene Diagrammtypen unterstützt und einen Großteil der Anfragen direkt umsetzbar macht.
Was war das Ziel?#
Ein Werkzeug zur Diagramm-Erstellung#
Ein Tool entwickeln, das Diagramme aus natürlichsprachlichen Beschreibungen generiert. Dabei sollten verschiedene Diagrammtypen (z. B. Flussdiagramme, Sequenzdiagramme, Klassendiagramme) unterstützt werden.
Gleichzeitig sollte das Projekt als Lernumgebung dienen, um mit Multi-Agenten-Architekturen zu experimentieren und zu untersuchen, wie sich die Zuverlässigkeit von KI-generiertem Code verbessern lässt.
Was kann das Tool?#
Die vier Hauptfunktionen#
- 12 verschiedene Diagrammtypen erstellen (z. B. Flussdiagramme, Sequenzdiagramme, Klassendiagramme)
- Code automatisch prüfen und reparieren durch eine mehrstufige Validierung
- Live-Editor mit Rückgängig-Funktion für manuelle Anpassungen
- Template-Bibliothek mit 40+ Vorlagen für häufige Szenarien
Die technische Basis#
Das Tool umfasst 13.000 Zeilen Code in 27 Python-Dateien. Die Oberfläche kombiniert Chat, Daten-Eingabe, Code-Editor und Diagramm-Galerie.
Wie wurde es entwickelt?#
Kurze Sessions statt Marathon-Programmierung#
Die Entwicklung erfolgte in kurzen Sessions. Täglich 10-15 Minuten, über zwei Wochen verteilt.
Die fünf Entwicklungsphasen#
Der Prozess lief in fünf Phasen:
- Phase 1 (90 Minuten): Architektur-Planung mit der KI
- Phase 2 (30 Minuten): Basis-Komponenten umsetzen
- Phase 3 (30-45 Minuten): Automatische Code-Validierung einbauen
- Phase 4 (30-45 Minuten): Fehlerkorrektur-Strategien erweitern
- Phase 5 (30-45 Minuten): Vollständige Syntax-Referenz integrieren
Das Ergebnis in Zahlen#
Gesamtaufwand: Etwa 6 Stunden reine Entwicklungszeit.
Ergebnis: Ein funktionsfähiges Tool, das in ersten Tests etwa 19 von 20 Diagrammen korrekt zu generieren scheint.
Warum hat es so gut funktioniert?#
Der Schlüssel: Investition in Planung#
Die Investition in die Vorbereitung scheint sich ausgezahlt zu haben.
Die 90-minütige Architektur-Diskussion zu Beginn hat vermutlich viele spätere Probleme verhindert. Statt direkt zu programmieren, wurde erst geklärt: Welche Komponenten werden gebraucht? Wie sollen sie zusammenarbeiten? Welche Muster sind sinnvoll?
Schnellere Entwicklung durch Klarheit#
Diese Klarheit hat die Entwicklung offenbar beschleunigt. Jede Phase konnte mit einer großen Iteration abgeschlossen werden, weil die Richtung klar war.
Wichtige Erkenntnisse#
1. Spezialisierte Agenten können Struktur schaffen#
Es wurden drei separate Komponenten gebaut: Eine für Chat-Interaktion, eine für Code-Generierung, eine für Validierung. Jede hat eine klare Aufgabe.
Diese Trennung scheint der KI zu helfen, sich auf eine Sache zu konzentrieren. Der Validierungs-Agent muss nur prüfen und korrigieren, nicht auch noch verstehen, was der Nutzer will.
2. Vollständige Syntax-Referenzen scheinen entscheidend#
Der größte Qualitätssprung kam in Phase 5. Die komplette Diagramm-Syntax wurde ins System eingebaut – jede Regel, jedes Format, jede Ausnahme.
Die Code-Qualität stieg merklich. Die KI hatte endlich alle Informationen, die sie für korrekten Code braucht. Nach grober Schätzung verbesserte sich die Erfolgsrate von etwa 70% auf 95%.
3. Nachträgliche Korrektur bleibt schwierig#
Automatische Reparatur funktioniert in vielen Fällen, aber nicht perfekt. Wenn die KI fehlerhaften Code erzeugt, kann eine zweite KI-Instanz viele Fehler beheben.
Einige Fälle brauchen aber Template-Fallbacks oder manuelle Korrektur. Prävention durch gute Referenzen scheint effektiver als nachträgliche Reparatur.
Was können andere davon lernen?#
Praktische Empfehlungen aus dem Projekt#
- Zeit in Architektur-Planung investieren – gründliche Vorbereitung kann spätere Fehlerkorrektur reduzieren
- Der KI vollständige Referenzen geben – partielle Information könnte zu Fehlern führen
- Validierungs-Schleifen einbauen – automatische Überprüfung kann viele Fehler abfangen
- In kurzen Sessions arbeiten – tägliche kurze Einheiten könnten effektiver sein als lange Marathons
- Mehrere Korrektur-Versuche einplanen – die erste Reparatur funktioniert nicht immer
Fazit#
Die drei Kernaussagen#
✔ Systematische Validierung kann KI-generierte Diagramme deutlich zuverlässiger machen
✔ Multi-Agenten-Strukturen können bei der Organisation komplexer KI-Projekte helfen
✔ Vollständige Syntax-Referenzen scheinen wichtiger als clevere Korrektur-Algorithmen
Dies ist Teil einer Reihe über KI-gestützte Softwareentwicklung. Der Fokus liegt darauf, was man aus solchen Projekten lernen kann – nicht nur auf den Ergebnissen.