Independent Consultant · Context Engineering · DACH

GenAI im Enterprise-Code. Kontrolliert statt kreativ.

Context Engineering für Codebasen mit 500.000+ Zeilen. Damit KI-Agenten erst verstehen — und dann liefern. In Angular, .NET und Java.

01 · Board

Native Federation Advisory Board

Industry Advisor für die Micro-Frontend-Architektur hinter BMW, Siemens AG, Dutch Railways, DAZN.

native-federation.com/team →
02 · Paper

„Agenten in Enterprise-Codebasen: Ein Operating Model“

Das Framework, wie Enterprise-Teams KI-Agenten kontrolliert einsetzen. Vier-Säulen-Modell, Diagnose/Solve-Pattern, Review-Pipeline. Ohne Hype.

Zum Operating Model →
03 · Interview

Manfred Steyer — 45 Minuten

Über die Siemens-Migration von Module Federation zu Native Federation. 15 Teams, Angular 17–19.

YouTube-Interview →

Vor derselben Migration? → Festpreis-Audit

01
Problem

Warum GenAI in euren Codebasen versagt

GenAI funktioniert in Tutorials. In einer 500.000-Zeilen-Enterprise-Codebase mit impliziter Architektur, verschachtelten Dependencies und Legacy-Logik aus 15 Jahren fällt sie oft auseinander — weil der Kontext fehlt.

Die METR-Studie 2025 zeigt: Erfahrene Entwickler waren 19 % langsamer, wenn sie KI-Tools nutzten — sich selbst schätzten sie 20 % schneller ein. Eine Fehleinschätzung von 40 Prozentpunkten.

Das ist kein Tool-Problem. Das ist ein Context-Engineering-Problem.

Kein Kontext ist besser als falscher Kontext.

Drei typische Bruchstellen

Kontextrott. Jede Interaktion bläht den Kontext: veraltete Pfade, tote Hypothesen, redundante Wiederholungen. Nach 15–20 Nachrichten fällt die Antwortqualität messbar ab — nicht wegen des Modells, sondern wegen des verschmutzten Kontexts.

Hoffnungs-Debugging. Der Agent liefert eine fehlerhafte Lösung, ihr reicht die Fehlermeldung zurück, er „repariert“ und bricht etwas anderes. Nach zehn Runden weiß niemand mehr, wo das eigentliche Problem lag — der Modus, in dem die METR-Zahlen entstehen.

Blinder Griff. Ohne explizite Steuerung sucht sich der Agent seine Dateien selbst. In großen Codebases greift er oft daneben: ähnlich benannte Dateien aus dem falschen Modul, ein veraltetes Interface, die alte Logging-Bibliothek.

Gegen jede Bruchstelle ein Pattern — aus der Arbeit mit realen Codebases, nicht aus Tutorials.

Drei Gegenmaßnahmen — sofort einsetzbar

Handover-Kette statt Mega-Session. Jeder Task läuft in eigener Session und endet mit einem kurzen Log: Entscheidungen, Test-Evidenz, offene Punkte, Handover-Notiz an den Nächsten. Der Folgetask startet frisch und liest nur diesen Log, nicht die zweistündige Historie. Kontext bleibt klein, Review-Gate nach jedem Schritt, Fehler bleiben lokalisierbar.

Artefakt-First statt Prompt-Stuffing. Research und Exploration laufen in eigenen Sessions — QR-Code-Library, Card-Persistence, API-Interfaces, jedes Thema ein Markdown-Doc. Der Implementierungs-Agent bekommt keine langen Prompts, er liest die Artefakte. Reproduzierbar, tool-übergreifend, rückverfolgbar.

Runtime Instrumentation. Wenn ein Bug nach drei Runden noch steht, fehlt dem Agent keine Intelligenz, sondern Evidenz. Logs einbauen, Code ausführen, relevante Zeilen zurückspielen — Agenten mit Laufzeitdaten müssen nicht raten.

Das sind drei Patterns — drei von etwa einem Dutzend, mit denen ich Senior-Dev-Teams, Engineering-Leads und CTOs arbeite, damit KI in eurer realen Codebasis produktiv wird, nicht nur in der Demo.

02
Services

Vier Formate. Eine Disziplin.

Sortiert nach Reibung — vom Erstkontakt zur Tiefe. Senior-Dev-Teams steigen meist beim 2-Stunden-Deep-Dive ein, Engineering-Leader beim Halb- oder Ganztagsformat, längerfristige Begleitung läuft als Mandat.

2-Stunden-Deep-Dive · Remote

Live-Demo in echter Enterprise-Codebase

ab 1.800 € netto

Live-Demo in einer 500+-Komponenten-Codebase (SAP Spartacus) oder optional in eurer eigenen. Ihr bringt eine konkrete Frage mit, ich arbeite hands-on durch — Skill-Pattern, Worktrees, Review-Gates, Runtime Instrumentation. Aufzeichnung im Preis enthalten.

Ideal als Erstkontakt für Senior-Dev-Teams oder Tech-Lead-Runden. Aufzeichnung der letzten Session ansehen →

Codebase der Live-Demo öffentlich: github.com/lutzleonhardt/spartacus →

Erstgespräch buchen
Inhouse-Schulung · halber Tag · remote oder on-site

Skill-Kit-Transfer für ein Team

ab 3.500 € netto

4 Stunden, max. 12 Teilnehmer. Kein Folien-Vortrag — euer Team setzt das Muster nach der Schulung selbständig in der eigenen Codebase ein. Kuratiert auf einen Schwerpunkt: Context Engineering, Skill-Aufbau & Handover, oder Personal Productivity für Senior Devs.

Procurement-leicht als Bildungs- oder Schulungsposten — meist ohne volles Vendor-Onboarding.

Methodik öffentlich: github.com/lutzleonhardt/skill-kit-agentic-workflow → — das Skill-Pattern, das ihr im Workshop übernehmt.

Erstgespräch buchen
Workshop · 1 Tag · on-site oder remote

„Context Engineering für Enterprise-Codebasen“

ab 4.500 € netto · 2 Tage ab 8.500 € netto

8 Stunden, max. 12 Teilnehmer, mit eurem Code. Curriculum aus dem Operating-Model-Paper: Vier-Säulen-Framework, Diagnose/Solve-Pattern, Session-Hygiene, PR-Review-Pipeline, Kill Policy. Vorbereitungs-Call inklusive, Follow-up-Fragen 2 Wochen lang inklusive.

Für Senior-Dev-Teams, die GenAI als messbaren Produktivitäts-Hebel etablieren wollen — nicht als Tool-Spielerei.

Erstgespräch buchen
Beratungsmandat · remote oder on-site

Consulting

Tagessatz auf Anfrage · Diagnose-Scoping ab 1.500 € netto / Tag

NF-Migration-Advisory. Context-Pipeline-Design. Architektur-Review eurer AI-Workflows. Interim Context-Engineering-Lead für Teams, die bei GenAI Tempo aufnehmen wollen.

Einstieg typisch über 1–2 Tage Diagnose-Scoping, danach Umfang nach Bedarf.

Auch als Festpreis-Paket: Native Federation Migration Audit →

Erstgespräch buchen
03
Für wen — und für wen nicht

Wann ich passe — wann nicht.

Richtig für euch, wenn:

  • Eure Codebase mehrere hunderttausend Zeilen hat und Legacy-Patterns enthält
  • Eure Senior-Devs Copilot / Cursor ausprobiert und frustriert weggelegt haben
  • Ihr GenAI als messbaren Produktivitätshebel etablieren wollt, nicht als Gimmick
  • Ihr eine Angular-Module-Federation-Landschaft habt und über Native Federation nachdenkt
  • Ihr einen externen Sparringspartner mit Enterprise-Erfahrung braucht, nicht einen Tool-Verkäufer

Nicht richtig, wenn:

  • Ihr eine Greenfield-React-App baut und nur einen besseren Copilot sucht
  • Ihr „AI-Transformation“ auf Folien sehen wollt statt im Code
  • Ihr Prompt-Engineering-Tricks sammelt
  • Ihr ein Tool kaufen wollt — ich verkaufe keines
  • Ihr sofortige Wunder erwartet; Context Engineering ist Engineering, keine Magie
04
Proof

Kunden, Cases, Stimmen.

Kunden

Siemens AG2022—2025
50Hertz2025—2026
Convanit2021—2024
Deutsche Bahn2021—2022
Carl Zeiss2019—2020
Daimler2016—2019

Zusätzlich: SAP Spartacus (Open Source).

Ausgewählte Cases

2026 · Öffentliche Demo

SAP Spartacus — 44 Angular-Komponenten parallel migriert

Parallel-Migration mit Agenten-Worktrees, Skill-Pattern und Review-Gates. Live-Demo in der Praxis-Session 2026-04-21.

Blog-Post auf dev.to
2022 — 2025 · Lead Consultant · Trainer · Coach

Siemens AG — Micro-Frontend-Migration

15 Teams, 150 Entwickler in der Reichweite, Angular 17–19. Architektur-Design und Migration von Module Federation auf die Native-Federation-Linie — dieselbe Architektur, die ich heute im Advisory Board mitgestalte.

Stimme: Matteo Murgida, System Architect bei Siemens
2021 — 2022 · Lead Consultant

Deutsche Bahn — Railmate ReAnno

Annotations-Pipeline für automatisierte Fahrgast-Feedback-Klassifikation — Trainingsdaten-Infrastruktur, die heute GenAI-Klassifikatoren füttert. Stack: .NET 6, Blazor, Angular 13, Java Spring Boot, Kafka.

Teilnehmer-Feedback

2026-04 · Praxis-Session SAP Spartacus

8,8 / 10 Weiterempfehlung

Erste offene Praxis-Session, anonyme Nachbefragung: n=5 von 12 Teilnehmern, Verteilung 2× Level 8, 2× Level 9, 1× Level 10. Kleine Stichprobe — ehrlich gezeigt, ohne glättende Rundung.

Feedback-Auswertung Praxis-Session 2026-04: Durchschnitt 8.80 / 10, Verteilung Level 8/9/10

Stimmen

"One of Lutz's most outstanding qualities is his technical depth and rigor. […] He played a key role in designing, analyzing, and evolving solutions first based on Module Federation and later on Native Federation. […] A deep understanding of Angular internals, build systems, runtime behavior, and architectural trade-offs."
Matteo Murgida — System Architect, Siemens
"Lutz operated very effectively in a dual role: as a frontend/Angular expert shaping architectural topics, and as a trainer and coach helping teams grow their skills."
Michaela Keller — Network Manager & Agile Team Coach, Siemens
"Anyone who works with Lutz benefits not only from his deep technical expertise, but also from his ability to communicate and implement innovative approaches in a clear and practical way."
Michael Meinel — Product Owner c-Alice, Critical Manufacturing
"[…] our team was participating in the development of a telematics application for Daimler Van, focusing on frontend engineering. Not only does Lutz have an incredible work ethic, but he is also extremely resilient and self-reliant. On top of that, he is always at the front of technology and can also bring this knowledge into the team."
Matthias Niederhausen — SupplyOn · ehem. Team Lead bei Robotron (Daimler-Van-Telematik)

Weitere Recommendations in LinkedIn abrufbar; vollständige Liste auf Anfrage.

Mehr Tools machen das LLM nicht klüger. Sie machen es unzuverlässiger.
05
Über mich

18+ Jahre Enterprise. Eine Disziplin.

Porträt Lutz Leonhardt

Von MAGIX 2007 über Daimler, Carl Zeiss, Deutsche Bahn und 50Hertz bis zu Siemens AG (2022–2025, Micro-Frontend-Migration über 15 Teams).

2025–2026: Context Engineering Lead bei Brokk AI — einem GenAI-Tool für Enterprise-Codebasen. Die Erkenntnisse aus dieser Zeit sind in das Paper „Agenten in Enterprise-Codebasen: Ein Operating Model“ geflossen und in die Methodik, mit der ich heute mit Kunden arbeite.

Seit 2026 Industry Advisor im Native Federation Advisory Board an der Seite von Ingenieuren aus BMW, Dutch Railways, DAZN, Santander und Sanitas.

Studium: Berlin University of Applied Sciences (BHT). Arbeitet aus Freital bei Dresden remote mit Teams in der DACH-Region und darüber hinaus.

Das vollständige Operating-Model-Paper lesen
06
Noch Zweifel?

Fünf häufige Einwände.

„Wir haben schon ein Copilot-Abo, reicht das nicht?“

Copilot ist ein guter Autocomplete. Context Engineering ist etwas anderes: gezielt strukturieren, welcher Code an welchen Agenten geht und welche Architektur-Regeln die Agenten kennen. Das ist keine Tool-Frage, das ist Architektur-Arbeit.

„Unsere Codebase ist zu komplex oder zu spezifisch.“

Das ist der Startpunkt, nicht das Ausschlusskriterium. Ich arbeite ausschließlich in gewachsenen Enterprise-Codebasen. Siemens AG (15 Teams, Angular 17–19) und SAP Spartacus (500+ Komponenten) zeigen: Je größer und älter, desto mehr Hebel.

„Lohnt sich das für uns?“

Kommt drauf an. Ich verkaufe kein Pauschal-Heilsversprechen. Der erste Call ist ein ehrliches Scoping: Was sind eure realen Probleme, was davon ist Context Engineering, was nicht — und wie groß wäre der Hebel realistisch.

„Wie schnell können wir starten?“

Erstgespräch diese Woche möglich. Mandate starten typischerweise mit 1–2 Tagen Diagnose-Scoping, danach Entscheidung über Umfang.

„Wir sind ein Konzern mit Lieferantenfreigabe-Prozess — geht das?“

Workshop-Formate, Halbtags-Schulung und das Festpreis-Audit gehen meist als einzelner Rechnungsposten ohne volles Vendor-Onboarding durch — oft über das Bildungs- oder Schulungsbudget. Bei laufenden Beratungsmandaten brauche ich euer Procurement-Setup; dafür sind 1–2 Wochen Vorlauf realistisch.

07
Kontakt

Euer GenAI-Setup hat Potenzial. Lasst uns schauen, wo es hakt.

30 Minuten. Setup, Reibungspunkte, nächste Schritte.

Primär · Direkt buchen

Erstgespräch — 30 Min

Alternativ · Kurze Nachricht

Oder direkt per Mail: hello@lutzleonhardt.de

Vorab Profil als PDF: Beratungsprofil · Skillprofil · Übersicht