Von natürlicher Sprache zu präzisen Zahlen: Ein Werkzeug für Personalkostenkalkulationen#
In dieser Serie berichten wir über Erkenntnisse aus KI-gestützten Entwicklungsprojekten. Diesmal geht es um ein Werkzeug, das Projektanforderungen in einfacher Sprache versteht – und trotzdem exakt nach Tarif rechnet. Das Besondere: Wir haben es in unter 2 Stunden entwickelt.
Was war die Herausforderung?#
Ein Fachbereich brauchte ein Werkzeug zur Personalkostenkalkulation für Drittmittelprojekte (z. B. Forschungsanträge bei DFG, BMBF oder EU).
Das Problem: Nutzer wollen ihre Anforderungen in normaler Sprache eingeben. Aber die Berechnungen müssen exakt nach TV-L-Tarif erfolgen (also den offiziellen Gehaltstabellen für den öffentlichen Dienst).
Diese beiden Anforderungen passen traditionell schlecht zusammen. Sprachmodelle sind gut darin, Texte zu verstehen – aber sie sind unzuverlässig beim Rechnen.
Wir wollten herausfinden: Kann man beide Stärken kombinieren?
Was kann das Werkzeug?#
Das Werkzeug ermöglicht Eingaben wie:
„Wir brauchen 2 Doktoranden E13/2 auf 67% und einen PostDoc E14/4, Laufzeit April 2026 bis März 2029"
Daraus erstellt es automatisch eine vollständige Kostenkalkulation. Hier die wichtigsten Funktionen:
Parameterextraktion: Die KI erkennt alle relevanten Angaben aus dem Text (z. B. Entgeltgruppen, Erfahrungsstufen, Stellenanteile, Start- und Enddatum)
Tarifberechnung: Das Tool kalkuliert nach TV-L mit korrekten Zuwendungssätzen und Arbeitgeberanteilen (Sozialversicherung, Zusatzversorgung)
Jahresscheiben: Die Kosten werden automatisch nach Haushaltsjahren aufgegliedert – so wie es Drittmittelgeber verlangen
Intelligente Rückfragen: Wenn Angaben fehlen (z. B. Laufzeit unklar, Stellenanteil nicht genannt), fragt das Tool gezielt nach
Export: Am Ende gibt es eine fertige Excel-Datei für den Drittmittelantrag
Erste Tests zeigen: Die Extraktion funktioniert in den meisten Fällen korrekt. Das spart Zeit und reduziert Fehler bei der Antragstellung.
Wie wurde es entwickelt?#
Wir haben den Prozess in drei Phasen aufgeteilt:
Phase 1 – Anforderungserfassung (vorgelagert): Ein speziell entwickelter Prompt erfasste systematisch alle Anforderungen – Problemstellung, gewünschte Funktionen, technische Rahmenbedingungen. Gute Vorbereitung war der Schlüssel.
Phase 2 – Spezifikation (50 Minuten): Wir haben intensiv Architektur, Datenflüsse und das Oberflächen-Konzept abgestimmt. Jede Komponente war definiert, bevor wir mit dem Code angefangen haben.
Phase 3 – Umsetzung (ca. 40 Minuten): Das Sprachmodell generierte den gesamten Code in einer einzigen Runde.
Gesamtaufwand: Unter 2 Stunden für ein funktionsfähiges Werkzeug
Ergebnis: 5.700 Zeilen Code in 29 Python-Dateien
Nachbesserungen: Nur 1 Korrekturschleife war nötig
Warum lief es so gut?#
Die Antwort in einem Satz: Wir haben die Stärken von Sprachmodellen und klassischer Programmierung sauber getrennt.
Die zentrale Architekturentscheidung war: Das Sprachmodell übernimmt nur die Parameterextraktion aus natürlicher Sprache. Alle Berechnungen erfolgen mit klassischem Python-Code – komplett ohne KI-Beteiligung.
Konkret sieht das so aus:
Sprachmodell: Versteht die Eingabe und liefert strukturierte Daten (im JSON-Format, also maschinenlesbar)
Python-Komponente: Führt alle Kalkulationen mit exakter Genauigkeit durch – hier kann nichts „halluziniert" werden
Ablaufsteuerung: Koordiniert den Dialog zwischen Eingabe, Rückfragen und Berechnung
Rückfallebene: Nach 3 fehlgeschlagenen Versuchen erscheint automatisch ein manuelles Formular
Dieses hybride Muster – Sprachmodell als intelligente Schnittstelle, klassischer Code für kritische Logik – war von Anfang an geplant. Das hat die schnelle Umsetzung erst möglich gemacht.
Wichtige Erkenntnisse#
1. Spezifikation bestimmt den Erfolg
Die gründliche Vorarbeit hat alles beschleunigt. Architektur, Datenflüsse und Oberflächen-Konzept waren vollständig geklärt, bevor wir auch nur eine Zeile Code generiert haben. Je besser die Planung, desto schneller die Umsetzung.
2. Hybride Architektur als wiederverwendbares Muster
Nicht alles muss das Sprachmodell erledigen. Für präzise Berechnungen bleibt klassischer Code überlegen. Das Sprachmodell dient als intelligente Brücke zwischen Nutzer und robustem Code – es „übersetzt" sozusagen von Mensch zu Maschine.
3. Rückfallebenen von Anfang an einplanen
Der manuelle Eingabeweg war keine nachträgliche Ergänzung. Bei ungewisser Zuverlässigkeit der Texterkennung sind alternative Eingabewege (z. B. klassische Formulare) Teil des ursprünglichen Konzepts.
4. Strukturierte Ausgabe als Brücke
Die JSON-Ausgabe des Sprachmodells mit anschließender Validierung verbindet natürliche Spracheingabe mit typsicherer Verarbeitung. So können wir flexibel sein bei der Eingabe – aber streng bei der Berechnung.
Was können andere davon lernen?#
Bei Anwendungen mit exakten Berechnungen: Das Sprachmodell nur für die Eingabe-Verarbeitung nutzen – nicht für die Berechnung selbst
Mehr Zeit in die Spezifikation investieren – das spart Zeit bei der Umsetzung (bei uns: 50 Minuten Planung ermöglichten 40 Minuten Umsetzung)
Rückfallebenen einplanen, wenn die Zuverlässigkeit einer Komponente nicht garantiert ist (z. B. manuelle Formulare als Alternative)
Strukturierte Zwischenformate wie JSON schaffen klare Schnittstellen zwischen Sprachverarbeitung und Berechnungslogik
Gute Vorbereitung ist der wichtigste Erfolgsfaktor – das hat sich auch in diesem Projekt wieder bestätigt
Fazit#
✔ Sprachmodelle und exakte Berechnungen passen zusammen – wenn die Architektur sie sauber trennt
✔ Gründliche Spezifikation ermöglichte unter 2 Stunden Entwicklungszeit für 5.700 Zeilen Code
✔ Das hybride Muster (KI für Verstehen, Code für Rechnen) eignet sich für alle Anwendungen, die flexible Eingabe mit präziser Verarbeitung verbinden müssen
Dies ist Teil einer Reihe über Erfahrungen mit KI-gestützter Softwareentwicklung. Der Fokus liegt darauf, was man aus solchen Projekten lernen kann – nicht nur auf den fertigen Tools.