Von natürlicher Sprache zu präzisen Zahlen: Ein Werkzeug für Personalkostenkalkulationen#

In dieser Serie berichten wir über Erkenntnisse aus KI-gestützten Entwicklungsprojekten. Diesmal geht es um ein Werkzeug, das Projektanforderungen in einfacher Sprache versteht – und trotzdem exakt nach Tarif rechnet. Das Besondere: Wir haben es in unter 2 Stunden entwickelt.


Was war die Herausforderung?#

Ein Fachbereich brauchte ein Werkzeug zur Personalkostenkalkulation für Drittmittelprojekte (z. B. Forschungsanträge bei DFG, BMBF oder EU).

Das Problem: Nutzer wollen ihre Anforderungen in normaler Sprache eingeben. Aber die Berechnungen müssen exakt nach TV-L-Tarif erfolgen (also den offiziellen Gehaltstabellen für den öffentlichen Dienst).

Diese beiden Anforderungen passen traditionell schlecht zusammen. Sprachmodelle sind gut darin, Texte zu verstehen – aber sie sind unzuverlässig beim Rechnen.

Wir wollten herausfinden: Kann man beide Stärken kombinieren?


Was kann das Werkzeug?#

Das Werkzeug ermöglicht Eingaben wie:

„Wir brauchen 2 Doktoranden E13/2 auf 67% und einen PostDoc E14/4, Laufzeit April 2026 bis März 2029"

Daraus erstellt es automatisch eine vollständige Kostenkalkulation. Hier die wichtigsten Funktionen:

  • Parameterextraktion: Die KI erkennt alle relevanten Angaben aus dem Text (z. B. Entgeltgruppen, Erfahrungsstufen, Stellenanteile, Start- und Enddatum)

  • Tarifberechnung: Das Tool kalkuliert nach TV-L mit korrekten Zuwendungssätzen und Arbeitgeberanteilen (Sozialversicherung, Zusatzversorgung)

  • Jahresscheiben: Die Kosten werden automatisch nach Haushaltsjahren aufgegliedert – so wie es Drittmittelgeber verlangen

  • Intelligente Rückfragen: Wenn Angaben fehlen (z. B. Laufzeit unklar, Stellenanteil nicht genannt), fragt das Tool gezielt nach

  • Export: Am Ende gibt es eine fertige Excel-Datei für den Drittmittelantrag

Erste Tests zeigen: Die Extraktion funktioniert in den meisten Fällen korrekt. Das spart Zeit und reduziert Fehler bei der Antragstellung.


Wie wurde es entwickelt?#

Wir haben den Prozess in drei Phasen aufgeteilt:

  • Phase 1 – Anforderungserfassung (vorgelagert): Ein speziell entwickelter Prompt erfasste systematisch alle Anforderungen – Problemstellung, gewünschte Funktionen, technische Rahmenbedingungen. Gute Vorbereitung war der Schlüssel.

  • Phase 2 – Spezifikation (50 Minuten): Wir haben intensiv Architektur, Datenflüsse und das Oberflächen-Konzept abgestimmt. Jede Komponente war definiert, bevor wir mit dem Code angefangen haben.

  • Phase 3 – Umsetzung (ca. 40 Minuten): Das Sprachmodell generierte den gesamten Code in einer einzigen Runde.

Gesamtaufwand: Unter 2 Stunden für ein funktionsfähiges Werkzeug

Ergebnis: 5.700 Zeilen Code in 29 Python-Dateien

Nachbesserungen: Nur 1 Korrekturschleife war nötig


Warum lief es so gut?#

Die Antwort in einem Satz: Wir haben die Stärken von Sprachmodellen und klassischer Programmierung sauber getrennt.

Die zentrale Architekturentscheidung war: Das Sprachmodell übernimmt nur die Parameterextraktion aus natürlicher Sprache. Alle Berechnungen erfolgen mit klassischem Python-Code – komplett ohne KI-Beteiligung.

Konkret sieht das so aus:

  • Sprachmodell: Versteht die Eingabe und liefert strukturierte Daten (im JSON-Format, also maschinenlesbar)

  • Python-Komponente: Führt alle Kalkulationen mit exakter Genauigkeit durch – hier kann nichts „halluziniert" werden

  • Ablaufsteuerung: Koordiniert den Dialog zwischen Eingabe, Rückfragen und Berechnung

  • Rückfallebene: Nach 3 fehlgeschlagenen Versuchen erscheint automatisch ein manuelles Formular

Dieses hybride Muster – Sprachmodell als intelligente Schnittstelle, klassischer Code für kritische Logik – war von Anfang an geplant. Das hat die schnelle Umsetzung erst möglich gemacht.


Wichtige Erkenntnisse#

1. Spezifikation bestimmt den Erfolg

Die gründliche Vorarbeit hat alles beschleunigt. Architektur, Datenflüsse und Oberflächen-Konzept waren vollständig geklärt, bevor wir auch nur eine Zeile Code generiert haben. Je besser die Planung, desto schneller die Umsetzung.

2. Hybride Architektur als wiederverwendbares Muster

Nicht alles muss das Sprachmodell erledigen. Für präzise Berechnungen bleibt klassischer Code überlegen. Das Sprachmodell dient als intelligente Brücke zwischen Nutzer und robustem Code – es „übersetzt" sozusagen von Mensch zu Maschine.

3. Rückfallebenen von Anfang an einplanen

Der manuelle Eingabeweg war keine nachträgliche Ergänzung. Bei ungewisser Zuverlässigkeit der Texterkennung sind alternative Eingabewege (z. B. klassische Formulare) Teil des ursprünglichen Konzepts.

4. Strukturierte Ausgabe als Brücke

Die JSON-Ausgabe des Sprachmodells mit anschließender Validierung verbindet natürliche Spracheingabe mit typsicherer Verarbeitung. So können wir flexibel sein bei der Eingabe – aber streng bei der Berechnung.


Was können andere davon lernen?#

  • Bei Anwendungen mit exakten Berechnungen: Das Sprachmodell nur für die Eingabe-Verarbeitung nutzen – nicht für die Berechnung selbst

  • Mehr Zeit in die Spezifikation investieren – das spart Zeit bei der Umsetzung (bei uns: 50 Minuten Planung ermöglichten 40 Minuten Umsetzung)

  • Rückfallebenen einplanen, wenn die Zuverlässigkeit einer Komponente nicht garantiert ist (z. B. manuelle Formulare als Alternative)

  • Strukturierte Zwischenformate wie JSON schaffen klare Schnittstellen zwischen Sprachverarbeitung und Berechnungslogik

  • Gute Vorbereitung ist der wichtigste Erfolgsfaktor – das hat sich auch in diesem Projekt wieder bestätigt


Fazit#

✔ Sprachmodelle und exakte Berechnungen passen zusammen – wenn die Architektur sie sauber trennt

✔ Gründliche Spezifikation ermöglichte unter 2 Stunden Entwicklungszeit für 5.700 Zeilen Code

✔ Das hybride Muster (KI für Verstehen, Code für Rechnen) eignet sich für alle Anwendungen, die flexible Eingabe mit präziser Verarbeitung verbinden müssen


Dies ist Teil einer Reihe über Erfahrungen mit KI-gestützter Softwareentwicklung. Der Fokus liegt darauf, was man aus solchen Projekten lernen kann – nicht nur auf den fertigen Tools.