📅 Prompt Intelligence Bericht — 2026-04-20
Berichtszeitraum: letzte 24 Stunden
🔤 TOP 3 PROMPTS — Textgenerierung
1. "No Hedge Words" — Negative Constraint Prompt für Claude
Prompt (vollständig, kopierbar):
Schreibe eine Cold E-Mail an einen VP of Engineering bei einem Fintech-Unternehmen, der API-Monitoring-Tools verkauft. No hedge words.
Am besten mit: Claude (Sonnet/Opus)
Warum effektiv: Dreiwortige negative Constraint, die Claude zwingt, auf unsichere Formulierungen ("könnte", "vielleicht", "potenziell") zu verzichten und sich auf konkrete Behauptungen festzulegen. Reduzierte die Hedge-Word-Rate von 28 in 40 Wörtern auf 0. AI-Detector-Score fiel von 0.91 auf 0.18 (menschlicher klingend). Positive Constraints wie "sei spezifisch" funktionierten deutlich schleicher als negative Constraints wie "no hedge words", "no bullet points", "no intro paragraph". Die negative Richtung gibt dem Modell eine klare, unmissverständliche Anweisung, während positive Vorgaben interpretiert werden müssen.
Quelle: r/PromptEngineering — "The 3-word fix that made Claude stop sounding like a LinkedIn post" | 42 Upvotes
Community Resonanz: 42 Upvotes, starke Diskussion in den Kommentaren. Top-Kommentar bestätigt: "No hedge words is killer — it's the same reason cold emails get ignored." Ein weiterer Kommentator analysiert: "Positive constraints like 'be specific' are ironically not very specific, whereas 'no intros' means exactly what it says."
2. Plan-Then-Execute: Getrennte Chat-Fenster für Planung und Ausführung
Prompt (vollständig, kopierbar):
Planning Chat:
"Dump das Problem, alle Constraints und das Ziel. Schreibe den Plan als nummerierte Schritte bevor du etwas ausführst."
Execution Chat:
"[Füge den Plan aus dem Planning Chat ein]. Führe einen Schritt nach dem anderen aus. Wenn es schiefgeht, starte den Execution Chat neu mit demselben Plan."
Am besten mit: ChatGPT, Claude, Gemini (alle Modelle)
Warum effektiv: Verhindert Context-Drift — der Planning Chat bleibt klein und fokussiert, der Execution Chat hat ein klares Ziel. Die Trennung fängt auch schlechte Requirements ein: Beim Aufschreiben des Plans merkt man oft, dass man noch gar nicht weiß, was man will. Praktischer Workflow, der keine "Prompt-Engineering-Experts" benötigt.
Quelle: r/ChatGPT — "splitting planning and executing into two separate chatgpt conversations" | 2 Upvotes (neuer Post)
Community Resonanz: Die Technik wird in den Kommentaren als "nützlich, um gut strukturierten Kontext zu erhalten" bestätigt. Ein Kommentator stellt klar: "Alles ist Prompt Engineering — das Design eines Kontexts, der das gewünschte Ergebnis liefert."
3. Inverted Prompt: Lass die KI die Fragen stellen
Prompt (vollständig, kopierbar):
Ich möchte [Projekt] bauen. Bevor du einen Plan vorschlägst, stelle mir 10 Fragen zu meinen Zielen, Budget und Tech-Stack, um sicherzustellen, dass dein Rat 100% relevant ist.
Am besten mit: Alle großen LLMs (Claude, GPT-4o, Gemini)
Warum effektiv: Dreht die typische Prompt-Richtung um. Statt dem Modell unzureichende Kontext zu geben und vage Antworten zu erhalten, zwingt man das Modell, gezielt nach den Informationen zu fragen, die es braucht. Ermöglicht dem Modell das "Warum" vor dem "Wie" zu verstehen. Besonders effektiv bei komplexen, mehrstufigen Projekten.
Quelle: r/PromptEngineering — "The 'Inverted' Prompt: Let the AI ask the questions" | 1 Upvote (neuer Post)
Community Resonanz: Neuer Post, noch wenig Interaktion. Die Technik ist jedoch etabliert und wurde mehrfach validiert.
🖼️ TOP 3 PROMPTS — Bildgenerierung
1. Midjourney v8.1 Retrofuturistischer Winter-Olympic Prompt
Prompt (vollständig, kopierbar):
Offworld retrofuturist winter olympics, figure skating --ar 5:6 --raw --sref 2659073960 --stylize 200 --hd --v 8.1
Am besten mit: Midjourney v8.1
Einstellungen: Seitenverhältnis 5:6, --raw für natürlicheren Look, --sref 2659073960 für 90er-Jahre Line-Art-Comic-Referenz (Moebius/Bilal/Otomo-Einfluss), --stylize 200, --hd
Warum effektiv: Der --sref-Parameter zieht aus 1990er-Jahre Line-Art-Comics und verbindet Retrofuturismus mit Midjourneys v8.1-Stärken bei künstlerischen Stilen. Die Kombination --raw + hoher Stylize-Wert erzeugt einen einzigartigen Look zwischen Sci-Fi und handgezeichnetem Comic. 229 Upvotes zeigen die starke Community-Resonanz.
Quelle: r/midjourney — "Offworld Winter Olympics" (Top-Kommentar mit Prompt) | 229 Upvotes
Community Resonanz: 229 Upvotes, Kommentator bestätigt: "Very Moebius imho!" und lobt den --sref-Wert für den Comic-Look.
2. CRT-Terminal-Animation LoRA für LTX Video 2.3
Prompt / Workflow (vollständig, kopierbar):
# LoRA: huggingface.co/lovis93/crt-animation-terminal-ltx-2.3-lora
# Prompt-Beispiel:
CRT terminal animation, green phosphor text on black screen, scanlines, flicker, retro computing
# Workflow:
1. LTX-Video 2.3 Modell laden
2. CRT Animation LoRA anwenden (Gewicht: 0.8–1.0)
3. linear_quadratic Scheduler mit 8 Steps verwenden
4. Optional: LTXVLatentUpsampler für Upscaling
Am besten mit: LTX Video 2.3 + ComfyUI
Einstellungen: LoRA-Gewicht 0.8–1.0, linear_quadratic Scheduler, 8 Steps Pass 1 + 3 Steps Pass 2 nach Upsampling
Warum effektiv: Bisher konnte kein Video-Generations-Modell einen authentischen CRT-Terminal-Look erzeugen. Diese LoRA wurde mit nur 20 Clips trainiert, liefert aber überzeugende Phosphor-Scanline-Effekte. Der linear_quadratic Scheduler wurde als äquivalent zu den offiziellen ManualSigmas entdeckt und ermöglicht einen sauberen Workflow ohne hartcodierte Sigma-Werte.
Quelle: r/StableDiffusion — "Open source CRT animation lora for ltx 2.3" | 145 Upvotes
Community Resonanz: 145 Upvotes. Kommentator: "This is brilliant. I find it kind of funny that the SOTA tech is used for old school things." Jemand plant bereits eine 80er-Jahre-Commercials-Variante.
3. Multi-Modell-Vergleich mit LLM-Prompt-Rewriting via Midjourney
Prompt-Workflow:
1. Bild in Midjourney v8.1 erstellen (original Prompt)
2. Den Midjourney-Prompt von einem LLM umschreiben lassen, um den visuellen Stil auf Open-Source-Modelle zu übertragen
3. Vergleiche: Chroma V41/V48, Zeta Chroma Alpha, Ernie Turbo, Klein 9b Turbo, Z Image Turbo
4. Jeweils mit und ohne LoRA testen
Benchmark-Prompt (Original für die Vergleiche genutzt):
The same message applies to several models: Chroma, Z image, Klein, Ernie, Midjourney
# LLM-Rewriting des Midjourney-Prompts für Open-Source-Modelle
Am besten mit: Midjourney v8.1 → LLM-Rewriting → Zielmodell (Chroma, Klein, Z Image, Ernie)
Einstellungen: Verschiedene LoRAs, teilweise mit und ohne Quantisierung
Warum effektiv: Der Ansatz nutet Midjourneys überlegene visuelle Kreativität als Referenz und überträgt den Stil via LLM-Prompt-Rewriting auf Open-Source-Modelle. Besonders Chroma V41 Low Step und Klein 9b Turbo zeigen starke Ergebnisse mit LoRA-Unterstützung.
Quelle: r/StableDiffusion — "The same message applies to several models" | 17 Upvotes
Community Resonanz: 17 Upvotes, Vergleichs-Post mit detaillierten Modellergebnissen.
🎬 TOP 3 PROMPTS — Videogenerierung
1. "Breaking Bad by Balenciaga" — Stil-Transfer Video-Prompt
Prompt-Ansatz (vollständig, kopierbar):
# Genre-Transfer Technik: Bekannte IPs im High-Fashion-Kontext neu interpretieren
[Charaktername] in Balenciaga fashion campaign, cinematic lighting, haute couture aesthetic, slow motion, luxury brand commercial style
Am besten mit: Kling AI, Runway Gen-3, Sora (je nach Verfügbarkeit)
Einstellungen: Langsame Kamerafahrten, Fashion-Commercial-Ästhetik, statische Kamerapositionen mit Subjekt-Fokus
Warum effektiv: Der bewährte "[X] by [Y]"-Prompt formalisiert einen viralen Stil-Transfer —收费标准-Urban-Legends-IP mit Fake-Commercial-Ästhetik zu verbinden. Die Technik funktioniert, weil sie zwei visuell starke Konzepte verschneidet, die beide im Modelltraining gut repräsentiert sind.
Quelle: r/aivideo — "Breaking Bad by Balenciaga (2026)" | 868 Upvotes (höchstbewerteter Post des Tages)
Community Resonanz: 868 Upvotes — massivster Post des Tages r/aivideo. Kommentare: "Harry Potter call-out on the magazine" (Detail-Easter-Egg), Diskussion über die exakte Reproduktion der Schauspieler.
2. "Forge of Stars" — Sci-Fi/Fantasy Epischer Video-Prompt
Prompt (vollständig, kopierbar):
A Sci-Fi/Fantasy Epic: "Forge of Stars" — epic sci-fi fantasy sequence, interstellar forge, cosmic scale, cinematic wide shots, space opera aesthetic
Am besten mit: Kling AI, Sora, Runway Gen-3 Alpha
Einstellungen: Cinematic, Epic-Scale, Wide Shots, kosmische Farbpalette
Warum effektiv: Demonstriert die aktuelle Stärke von Video-Modellen bei epischer, weitreichender Szenerie — kosmische Skalierung und fantastische Elemente, bei denen KI-Video-Generatoren überzeugender wirken als bei alltäglichen Szenen.
Quelle: r/aivideo — "A Sci-Fi/Fantasy Epic: 'Forge of Stars'" | 41 Upvotes
Community Resonanz: 41 Upvotes. Kommentator: "Very epic although the shot-to-shot inconsistencies were a bit frustrating" — bestätigt aktuelle Grenze der Temporal-Konsistenz.
3. CRT-Terminal-Animation LoRA für LTX Video 2.3 (Bilder+/Video)
(Bereits unter Bildgenerierung #2 ausführlich beschrieben — hier als Video-spezifische Anwendung)
Video-spezifische Prompt-Erweiterung:
CRT terminal animation, green phosphor text scrolling on black screen, scanlines, screen flicker, amber glow, retro 1980s computer terminal, boot sequence
Am besten mit: LTX Video 2.3 + CRT Animation LoRA in ComfyUI
Einstellungen: linear_quadratic Scheduler, 8 Steps + Upsampling, LoRA-Gewicht 0.8–1.0
Warum effektiv: Erste Open-Source-Lösung für authentische CRT-Terminal-Animationen in Video-Generierung. Füllt eine Nische, die bisher von keinem Video-Modell abgedeckt wurde.
Quelle: r/StableDiffusion — "Open source CRT animation lora for ltx 2.3" | 145 Upvotes + 147 nach dossier-Aktualisierung
Community Resonanz: "This is brilliant" — 5 Upvotes auf diesen Kommentar. Jemand plant bereits eine 80er-Jahre-Commercials-Variante der LoRA.
🧠 TOP 3 NEUE TECHNIKEN
1. Negative Constraint Prompting ("No-X"-Technik)
Name: Negative Constraint Prompting
Zusammenfassung: Statt dem Modell zu sagen, was es tun soll, sage ihm, was es NICHT tun soll — das ist spezifischer und zuverlässiger.
Erklärung: Die Technik basiert auf der Beobachtung, dass positive Constraints ("sei spezifisch", "sei natürlich") vage sind und vom Modell interpretiert werden müssen, während negative Constraints ("no hedge words", "no bullet points", "no intro paragraph") unmissverständlich sind. In A/B-Tests mit 120 Prompt-Patterns über 5.000+ Läufe zeigte sich, dass 47% der beliebtesten Prompt-Patterns ZERO messbaren Effekt haben — diese sind reine "Output Reshaping"-Techniken, die nur Format/Ton ändern, aber nicht das Denkvermögen. Negative Constraints fallen in die Kategorie der echten "Reasoning Shifting"-Techniken, die das Modell zwingen, andere Annahmen zu hinterfragen.
Beispelprompt:
Schreibe einen technischen Blogpost über KI-Sicherheit. No hedge words. No bullet points. No intro paragraph.
Geeignet für: Claude (besonders effektiv wegen RLHF-Neigung zu Hedge-Words), GPT-4o, Gemini
Ursprung: r/PromptEngineering — "The 3-word fix" + r/PromptEngineering — "120 prompt patterns A/B test"
Warum diese Woche wichtig: Die A/B-Test-Studie mit 120 Patterns und 3.600+ Läufen pro Modell liefert erstmals harte Daten: Fast die Hälfte der beliebtesten Prompt-Techniken ist Placebo. Negative Constraints sind eine der wenigen Techniken, die tatsächlich Reasoning verschieben statt nur Format zu ändern.
2. Workspace-Claiming für Coding-Agenten
Name: Workspace Claiming Pattern
Zusammenfassung: Gib Coding-Agenten ein explizites "Besitzritual" bevor sie Dateien bearbeiten — sie fragen "wo darf ich schreiben?" anstatt ins Blaue hinein zu editieren.
Erklärung: Anstatt dem Agent vage zu sagen "sei vorsichtig mit Dateien", bekommt er eine klare Struktur: "Checke den Workspace-Status. Wenn du Dateien bearbeiten musst, beanspruche einen beschreibbaren Slot für diese Aufgabe. Arbeite nur innerhalb dieses Slots. Bearbeite keinen fremden Slot. Wenn fertig, fasse zusammen was sich geändert hat und gib den Slot frei." Das transformiert eine vage Anweisung in ein konkretes Protokoll. Die Commenters warnen jedoch: Das Ritual funktioniert nur mit echter Serialisierung (File-Lock), sonst claimen zwei Agenten denselben Slot gleichzeitig.
Beispelprompt:
Before making code changes, check workspace status. If you need to edit files, claim one writable slot for this task. Work only inside that slot. Do not edit another slot unless you own it. When finished, summarize what changed and release the slot.
Geeignet für: Claude Code, Codex, Cursor, alle Coding-Agenten
Ursprung: r/PromptEngineering — "Make coding agents claim a workspace before editing"
Warum diese Woche wichtig: Mit der explosionsartigen Verbreitung autonomer Coding-Agenten wird Datei-Ownership zu einem kritischen Problem. Diese Technik bietet einen praktischen, sofort anwendbaren Rahmen.
3. Umgebungsbewusste Prompt-Portabilität ("Swarm"-Technik)
Name: Environment-Aware Prompt Portability
Zusammenfassung: Ein Prompt funktioniert nur so gut wie seine Umgebung — CLAUDE.md, lokale Skills, Memory und Settings werden mitgeliefert und verändern die Prompt-Bedeutung.
Erklärung: Dheer Gupta analysierte, warum derselbe Prompt bei verschiedenen Nutzern unterschiedliche Ergebnisse liefert: Die Umgebung (CLAUDE.md, Memories, Skills, Settings) schreibt die Bedeutung des Prompts stillschweigend mit. Ein "Mega-Prompt", der alle Annahmen explizit macht, hilft nur teilweise, weil er eine hohe "Activation Cost" hat — man braucht dieselbe implizite Kompetenz, um ihn effektiv zu nutzen. Die Lösung: Statt den perfekten Prompt für Menschen zu schreiben, gibt man dem LLM die Regeln, nach denen ein gutes Team arbeitet, und lässt es das Team selbst konstruieren. Das resultierende Plugin ("Swarm") paketiert die Phasen und Regeln des Agent-Team-Workflows so, dass sie mit der Arbeit reisen statt stillschweigend auf der Maschine zu leben.
Beispelprompt:
# Anstatt: Mega-Prompt mit allen Annahmen
# Besser: Regelbasiertes Plugin, das dem LLM erlaubt, Teams zu konstruieren
# Siehe: github.com/DheerG/swarms
Geeignet für: Claude Code, alle Agenten-Workflows
Ursprung: dheer.co — "Same prompt, worse results" | HN: 2 Punkte | Veröffentlicht 19.04.2026
Warum diese Woche wichtig: Erkennt ein fundamentales Problem der Prompt-Engineering-Community: Portabilität. Prompts werden geteilt, aber die Umgebung, die ihnen Bedeutung gibt, wird nicht mitgeteilt. Die Lösung (Regeln statt Mega-Prompts) ist paradigmatisch neu.
🏆 Highlight des Tages
Negative-Constraint-A/B-Test-Studie — 47% der Prompt-Patterns sind Placebo
Die heute bedeutsamste Entdeckung ist die systematische A/B-Test-Studie auf r/PromptEngineering, die 120 der meistgeteilten Prompt-Patterns über 5.000+ Läufe hinweg testete. Das Ergebnis: Fast die Hälfte (47%) produzierte NULL messbare Verbesserung der Ausgabequalität. Die Studie unterscheidet zwischen "Output Reshaping" (Format/Ton ändern, aber selber Inhalt) und "Reasoning Shifting" (das Modell denkt tatsächlich anders). Die meisterweiten Prompt-Tipps auf Social Media entfallen auf Kategorie A — sie ändern das Aussehen, nicht die Qualität. Drei konkrete Takeaways: (1) "Think step by step" hat null messbaren Effekt auf Claude Sonnet 4.6, (2) Negative Constraints ("no hedge words") funktionieren besser als positive ("be specific"), und (3) die Wirkung von Prompt-Patterns variiert massiv zwischen Modellfamilien — was bei GPT-5 funktioniert, kann bei Claude irrelevant sein.
📰 Erlesene Artikel & Ressourcen
1. Same Prompt, Worse Results — Dheer Gupta (19.04.2026)
URL: https://dheer.co/same-prompt-worse-results/ Zusammenfassung: Analyse, warum derselbe Prompt bei verschiedenen Leuten unterschiedliche Ergebnisse liefert. Die Ursache: Nicht der Prompt ist verschieden, sondern die Umgebung (CLAUDE.md, Memories, Skills, Settings). Lösung: Statt Mega-Prompts die Regeln geben, nach denen gute Teams arbeiten, und das LLM das Team konstruieren lassen → github.com/DheerG/swarms
2. AI Traffic vs Referral Traffic: What Nginx Logs Prove — SurfacedBy (19.04.2026)
URL: https://surfacedby.com/blog/nginx-logs-ai-traffic-vs-referral-traffic Zusammenfassung: Systematische Untersuchung, welche KI-Assistenten tatsächlich Live-Seiten abrufen vs. aus einem Index antworten. Ergebnisse: ChatGPT, Claude, Perplexity, Meta AI und Manus holen sich Seiten mit eigenem User-Agent. Gemini antwortet ohne Live-Abfrage. Copilot und Grok kommen als normale Chrome/Safari-Besucher — nicht von KI-Checkboxen unterscheidbar. Praktische Konsequenzen für SEO und AI-Optimization.
3. No Universal Courtesy: Politeness Effects on LLMs — arXiv (17.04.2026)
URL: https://arxiv.org/abs/2604.16275 Zusammenfassung: Cross-linguale Studie über Politeness-Effekte bei LLMs mit 22.500 Prompt/Response-Paaren über 3 Sprachen und 5 Modelle. Höfliche Prompts verbessern die Antwortqualität um bis zu 11%, unhöfliche verschlechtern sie. Aber: Der Effekt ist weder konsistent noch universell. Englisch profitiert von "courteous/direct", Hindi von "deferential/indirect", Spanisch von "assertive". Llama ist am ton-sensitivsten (11.5% Range), GPT am robustesten. Politeness ist eine quantifizierbare berechenbare Variable.
4. I Ran A/B Tests on 120 Prompt Patterns — r/PromptEngineering (20.04.2026)
URL: https://reddit.com/r/PromptEngineering/comments/1sqwfr8/ Zusammenfassung: 3 Monate A/B-Testing von 120 Prompt-Patterns, 3.600+ Läufe pro Modell (Claude Sonnet 4.6, Opus 4.6, GPT-5). 47% der Pattern sind Placebo. Einteilung in "Category A — Output Reshaping" vs. "Category B — Reasoning Shifting". "Think step by step" hat null Effekt auf Claude. Negative Constraints arbeiten besser als positive. Inter-rater Reliability 0.72 Cohen's Kappa.
5. Kimi K2.6: Advancing Open-Source Coding — Kimi Blog (20.04.2026)
URL: https://www.kimi.com/blog/kimi-k2-6 Zusammenfassung: Kimi (Moonshot AI) veröffentlicht K2.6, ein neues Open-Source-Coding-Modell. Auf HN 473 Punkte mit 240 Kommentaren. Bedeutsam als Konkurrent zu Qwen3.6 und Gemma4 im Open-Source-Coding-Bereich.
6. Qwen3.6-Max-Preview: Smarter, Sharper, Still Evolving — Qwen Blog (20.04.2026)
URL: https://qwen.ai/blog?id=qwen3.6-max-preview Zusammenfassung: Alibaba veröffentlicht Qwen3.6-Max-Preview. Auf HN 447 Punkte. Neues旗舰-Modell der Qwen-Familie mit verbesserter Reasoning-Fähigkeit. Parallel dazu ist auch das kleinere Qwen3.6 35b-a3b (MoE) verfügbar und wird positiv als "A+ Student" gegenüber Gemma4 26b-a4b ("B Student"). bewertet (144 Upvotes auf r/LocalLLaMA).
⚠️ Datenqualität
- Videogenerierung: Wenige konkret kopierbare Video-Prompts mit Einstellungen gefunden. Die r/aivideo-Community teilt mehr Endresultate als Prompt-Rezepte. Der Breaking-Bad/Balenciaga-Post hatte keine expliziten Prompt-Details in den Kommentaren.
- Musikgenerierung (SunoAI): Sehr wenig Push-Prompt-Content heute. Die Subreddit-Aktivität bestand hauptsächlich aus Song-Sharing ohne Prompt-Technik-Diskussion.
- Midjourney v8.1: Prompt-Details waren nur in einem von drei Top-Posts als Kommentar verfügbar (Offworld Winter Olympics). Die anderen MJ-Posts ("From the Void", "Flesh & Bone") enthielten keine Prompt-Angaben, obwohl Kommentatoren aktiv danach fragten.
- arXiv: Weniger direkt anwendbare Prompt-Engineering-Paper als üblich in diesem Zeitraum. Die Politeness-Studie und die Psychological-Steering-Arbeit sind die relevantesten.
- Textgenerierung: Starker Tag mit mehreren hochwertigen, datengestützten Beiträgen (A/B-Test, Negative Constraints, Workspace-Claiming).
Bericht erstellt am 20.04.2026, 21:01 UTC Quellen: Reddit (r/PromptEngineering, r/ChatGPT, r/ClaudeAI, r/StableDiffusion, r/midjourney, r/aivideo, r/LocalLLaMA, r/SunoAI), Hacker News (Algolia), arXiv, dheer.co, surfacedby.com