In dieser Welle des AI-Programmierens fliegen die Konzepte überall herum, Tools wechseln täglich nur die Verpackung, aber die Grundlage ist längst nicht so „mystisch“.
Agent ist keine Magie, im Kern ist es, dem instabilen LLM eine Schicht „strukturierter Einschränkungen“ (Harness) überzustülpen, damit die Ausgaben besser kontrollierbar werden. Claude Code, Codex – beide gehen diesen Weg.
1)LLM zuerst durchschauen: Es rät nur den nächsten Token
Wenn man das versteht, sind viele „mystische Probleme“ nicht mehr mystisch.
Wie du Kontext fütterst, so driftet es; wie du führst, dahin läuft es.
Darum ist es unvermeidlich, dass Prompting von „Format-Anbetung“ zu „natürlichem Ausdruck“ übergeht – aber gute Fragen stellen bleibt eine harte Kernkompetenz.
2)Prompt ist nicht nutzlos – er sollte nur „weniger lenken, mehr Feedback“ sein
- Nicht sofort eine Lösung reinstopfen: erst Ist-Zustand und Ziel erklären, damit das Modell dir Perspektiven gibt;
- Problemorientiert iterieren: Ergebnis anschauen → Fehler benennen → Anweisung umschreiben → in einem neuen Dialog verifizieren;
- Zu starre Keywords ziehen das Modell eher in die falsche Richtung.
In einem Satz: Weniger den Weg kontrollieren, mehr das Ergebnis verifizieren.
3)AGENTS.md ist wichtig, aber schreib es nicht als „Kompendium der Zwangsreife“
In der Community sieht man viele ultralange „muss/darf nicht/Prinzipien“ – das meiste ist Rauschen.
Gibst du dem Modell zu viele Restriktionen, wird es meist nicht stabiler, sondern stumpfer.
Globale Anweisungen sollten Grenzen und Tool-Erklärungen liefern, nicht Stil-Drill.
4)Lass dich nicht von „Neologismus-Marketing“ am Nasenring führen
RAG, Context Engineering, MCP, Skills …
Vieles ist im Kern alte Probleme in neuer Verpackung oder eine Standardisierung von Prompts.
Worauf es ankommt, sind nicht die „Wörter“, sondern: Reduziert es wirklich Reibung und verkürzt den Lieferpfad?
5)Parallele Entwicklung hat ein Limit: Zwei Tasks sind für die meisten das Maximum
Drei oder vier Agents parallel wirken super effizient, praktisch ist es nur ein überlaufender Gehirn-Cache.
Dauerndes Benachrichtigungs-Geklingel unterbricht nur den Flow und erzeugt die Illusion „ich bin sehr beschäftigt“.
Empfehlung: Benachrichtigungen aus, Fortschritt aktiv prüfen.
Passiv auf Notifications reagieren = vom Takt beherrscht werden; Aufgaben aktiv inspizieren = du kontrollierst den Takt.
6)Dateien sind Gedächtnis: Kontext vom „Kopf“ ins „Dateisystem“ verlagern
CLI-Agents leben noch stärker von Text-Retrieval-Logik.
Damit ein Agent stabil läuft, hilft nicht Beten, sondern durchsuchbare, wiederverwendbare Projektdokumentation.
Dateien müssen auf die finale Ausführung ausgerichtet sein – keine Prozess-Müllhalde.
Im Kern ist das das Auffüllen der angeborenen Schwächen des Modells bei Kontext und Aufmerksamkeit.
7)Prozess vereinfachen: erst planen, dann coden
Dein aktuelles Zwei-Schritte-Vorgehen ist sehr praktisch:
- Plan wiederholt diskutieren und festschreiben (PLAN / plans-Verzeichnis)
- Code nach dem finalen Plan umsetzen und Implementationsdoku konsolidieren (docs-Verzeichnis)
Die Plan-Datei ist der Anker, der Code ist das Produkt.
8)Ergebnisorientierung: weniger an „eleganten Prozessen“ kleben, mehr auf „verifizierbare Lieferung“ schauen
Vom „Ich bringe dem Agent handholding-mäßig bei, Code zu schreiben“ hin zu „Ich manage Lösung und Abnahmekriterien“.
Kleine Fehler unterwegs nicht sofort akribisch zerlegen, sondern im Review gesammelt beheben.
Codequalität beurteilt man nicht nach Stimmung, sondern über Tests und eine nachvollziehbare Struktur.
Es gibt nur ein Kernziel: It just works.
9)Mindset-Upgrade: vom Ausführenden zum Manager
Nutze Codex als „Außenhirn + Gummiente“: du zerlegst Probleme, setzt Standards, triffst Entscheidungen;
es übernimmt die skalierte Ausführung.
Mach den Agent weder zum Gott noch zum Spielzeug – er ist ein Verstärker: er verstärkt deine Urteilskraft und auch dein Chaos.
10)Lehren aus Fehlpraktiken
- Blind „lange autonomous Laufzeit“ zu verfolgen, bringt wenig;
- Wirklich wertvoll ist: weniger manuelle Eingriffe, höhere Wahrscheinlichkeit stabiler Lieferung;
- Andere Leute Prompts/Skills zu kopieren, bringt einen schnell ins Laufen, passt aber nicht zwingend zu deinem Projekt;
- Der effektivste Wachstumspfad: den Ausführungsprozess beobachten, die Ausfallursachen finden, die eigene Methodik iterieren.