📅

📅 Prompt Intelligence Bericht — 2026-04-23

🏆 Highlight

Samarth Bhamares „40 Claude Prompt Codes" Studie ist die bedeutendste Veröffentlichung der letzten 24 Stunden für jeden, der mit Claude arbeitet. In einer eigenfinanzierten, blinden A/B-Test-Serie mit 40 der meistgeteilten „viral secret prompts" wurde erstmals systematisch zwischen strukturellen (ändern nur die Ausgabeform) und kognitiven (ändern tatsächlich die reasoning-Q...

📅 Prompt Intelligence Bericht — 2026-04-23

Berichtszeitraum: letzte 24 Stunden (22. April 2026 10:00 UTC — 23. April 2026 10:00 UTC)


🔤 TOP 3 PROMPTS — Textgenerierung

1. /skeptic — Premise-Check für strategische Entscheidungen

/skeptic Should I add a referral program to my SaaS where buyers earn 30% commission?

Am besten mit: Claude (Opus 4.6, Sonnet 4.5)

Warum effektiv: In einer systematischen A/B-Test-Studie mit 40 Claude-Prompt-Codes (veröffentlicht 23. April 2026) erwies sich /skeptic als der wirksamste Code mit Abstand. Er zwingt Claude, die Prämisse der Frage vor der Beantwortung zu hinterfragen. Bei 14 Testfällen mit falschen Prämissen erkannte /skeptic 11 davon (79%) — im Vergleich zu nur 2 von 14 (14%) bei der Standard-Eingabe. Das ist eine 5,5-fache Verbesserung gegenüber der Basislinie.

Beispiel: Statt einen 400-Wörter-Plan für Provisionssysteme zu liefern, fragt Claude zuerst: „Wie viele Kunden hast du? Wenn unter 50, ist ein Referral-Programm fast sicher verfrüht."

Quelle: GitHub Gist — „40 Claude prompt codes, only 7 shift reasoning" | HN Diskussion

Community Resonanz: 5 Punkte auf HN als Top-Beitrag, frisch veröffentlicht am 23. April 2026. Autor: Samarth Bhamare. 15.000-Wörter-Begleitbericht verfügbar.


2. L99 — Commit-before-Hedging für definitive Entscheidungen

L99 Should we migrate our monolith from Django to FastAPI? We have 50k LOC and a team of 4.

Am besten mit: Claude (Opus 4.6, Sonnet 4.5)

Warum effektiv: Eliminiert das typische „es kommt darauf an"-Verhalten. In 11 von 12 binären Entscheidungsfragen lieferte Claude mit L99 eine klare Empfehlung (vs. 2 von 12 ohne). Die Korrektheit der Empfehlungen lag bei 73% — die Entschiedenheit ist also real, aber es besteht das Risiko von selbstsicheren Fehlern. Antwortlänge steigt um ~40%, da die Begründung der gewählten Lösung mehr Raum nimmt.

Nicht geeignet für: Tradeoff-Analysen, bei denen beide Seiten sichtbar bleiben sollen.

Quelle: GitHub Gist — „40 Claude prompt codes"

Community Resonanz: Teil der oben genannten Studie. Gehört zu den 7 von 40 Codes mit messbarem Signal.


3. Empathie-orientiertes Prompting für klinische Kommunikation

Rewrite the following clinical explanation to reduce affective extremity and lower the reading level, 
while preserving semantic accuracy. Target: FKGL score below 12. Maintain all medical facts.

Am besten mit: GPT-5, Claude

Warum effektiv: Eine aktuelle arXiv-Studie (22. April 2026) zeigt, dass empathie-orientiertes Prompting extreme Negativität reduziert und den FKGL-Lesbarkeitswert um bis zu 6,87 Punkte senken kann (bei GPT-5 von FKGL 17,6 auf ~10,7). Collaborative Rewriting erzielte die höchste semantische Ähnlichkeit zu Arzt-Antworten (Mean = 0,93) bei gleichzeitiger Verbesserung der Lesbarkeit. Kein Modell übertraf Ärzte bei epistemischen Kriterien, aber Patienten bevorzugten die umgeschriebenen Varianten klar.

Quelle: arXiv 2604.20791 — „Can 'AI' Be a Doctor?"

Community Resonanz: Neu veröffentlicht auf arXiv, 22. April 2026. 7 Autoren aus italienischen und spanischen Universitäten.


🖼️ TOP 3 PROMPTS — Bildgenerierung

1. Chroma-Modell-Ökosystem — Universeller Basis-Prompt für alle Modelle

Masterpiece, best quality, ultra detailed 8k raw photo, National Geographic award-winning underwater 
photography of a majestic Moon Jellyfish (Aurelia aurita),

dramatic side-front low angle shot from slightly below and to the side, elegant and majestic composition, 
35cm diameter extremely delicate translucent bell, paper-thin membrane with natural subtle thickness 
variations, highly intricate fine radial canals with microscopic vein structures, crystal clear glass-like 
transparency, four vivid glowing lavender-pink horseshoe-shaped gonads clearly visible, long flowing 
extremely delicate frilly silk-like oral arms trailing gracefully and ethereally downwards like a wedding dress,

tropical sunlight dramatically piercing through the surface creating powerful volumetric god rays and 
sparkling caustic patterns dancing across the bell, beautiful rim lighting that makes the jellyfish glow, 

crystal clear turquoise Caribbean water, tiny suspended plankton and delicate air bubbles floating around, 
soft dreamy bokeh of distant coral reef in background,

authentic biological accuracy, majestic and ethereal atmosphere, realistic volumetric lighting, 
subtle soft shadows, natural imperfections, subtle subsurface scattering, excellent depth and dimension

Am besten mit: Chroma V41, Chroma V48 DK, Zeta-Chrome Alpha, Z Image Turbo, Klein 9B Turbo, Qwen 2512

Einstellungen: Chroma: Low-Step-Modus für schnelles Prototyping, V48 DK für Detail. Empfehlung aus der Community: Chroma als 1. Schritt (Grundstruktur), dann 2. Pass mit Z Image oder Klein 9B als Upscaler.

Warum effektiv: Derselbe Prompt funktioniert über 9 verschiedene Modelle hinweg mit konsistent hoher Qualität. Chroma liefert interessante Details als Basis, während Z Image Turbo und Klein 9B für den Feinschliff optimiert sind. Die Community bestätigt: Chroma-Modelle zeigen besonders interessante Detailtiefe als Erstschritt-Generation.

Quelle: r/StableDiffusion — „Same message applies to 9 models" | 36↑, 16 Kommentare

Community Resonanz: 36 Upvotes, 16 Kommentare mit Diskussion über Modellkombinationen (Chroma → Z Image Pipeline).


2. Intorealism V3 — Fotorealistisches Z Image Turbo Finetune

Am besten mit: Z Image Turbo (Finetune: Intorealism V3)

Einstellungen: Offizielles Workflow aus der Interealism V3 Suite. Der Baseline-Prompt ist minimalistisch: 1 Girl — die Stärke liegt im Modell-Checkpoint, nicht im Prompt.

Warum effektiv: Interealism V3 ist ein Finetune von Z Image Turbo mit deutlich verbesserter Fotorealismus-Qualität gegenüber V2. Das Modell zeigt, dass moderne SD-Finetunes mit spezifischem Prompting (hier: Absurd-Realism-Thema) fotorealistische Ergebnisse auf einem Niveau produzieren, das mit früheren State-of-the-Art-Modellen vergleichbar ist. 250 Upvotes belegen die Community-Anerkennung.

Quelle: r/StableDiffusion — „Z image turbo Finetune of absurd reality" | 250↑, 59 Kommentare

Community Resonanz: 250 Upvotes — einer der meistbewerteten Posts der letzten 24h. Diskussion über die 1 Girl-Testkonvention und Realitätsnähe.


3. Wan 2.2 Animate — Charakter-Motion-Transfer mit Prompt-Kontrolle

Am besten mit: Wan 2.2 Animate (Open-Source) via ComfyUI

Einstellungen: Motion-Transfer-Pipeline in ComfyUI. Charakter-Video als Bewegungsquelle, Zielcharakter als Erscheinungsbild.

Warum effektiv: Wan 2.2 Animate ist ein neues Open-Source-Videomodell, das Charakter-Motion-Transfer ermöglicht: Die Bewegung eines Videos wird auf einen vollständig anderen Charakter übertragen. In einem Community-Test wurde der ikonische Joker-Treppentanz mit Harley Quinn als Zielcharakter nachgestellt. Die Bewegungskonsistenz und Prompt-Übereinstimmung hielten überraschend gut stand.

Quellenvideo-Prompt (Beispiel-Konzept): Transfer der Joker-Treppenszene auf Harley Quinn mit Beibehaltung der originalen Choreografie.

Quelle: r/StableDiffusion — „Wan 2.2 Animate Motion Transfer [Workflow Included]" | 39↑, 7 Kommentare

Community Resonanz: 39 Upvotes, Workflow und Tutorial in den Kommentaren enthalten.


🧠 TOP 3 NEUE TECHNIKEN

1. Rejection-Logic Prompting — „Ablehnungslogik" übertrifft additive Prompts

Zusammenfassung: Die stärksten Prompt-Strategien sagen Claude, was es ablehnen soll, nicht was es produzieren soll.

Erklärung: In der umfassendsten A/B-Test-Studie zu Claude-Prompt-Codes (40 Codes, n=12-20 pro Code, blindes Rating) wurde festgestellt, dass nur 7 von 40 viral geteilten „Secret Prompts" tatsächlich die reasoning-Qualität verändern. Alle 7 teilen ein Merkmal: Sie implementieren Ablehnungslogik (Challenge-the-Premise, Commit-Before-Hedging, Blindspot-Detection) statt additives Prompting („sei expertenhafter", „sei gründlicher"). Additive Codes waren die schwächsten — sie ändern nur den Klang, nicht die Substanz.

Beisprompt:

/skeptic
[Deine eigentliche Frage hier]

Geeignet für: Claude (Opus 4.6, Sonnet 4.5, Haiku 4.5)

Ursprung: GitHub Gist — Samarth Bhamare, 23. April 2026

Warum diese Woche wichtig: Diese Studie zerstört den Mythos der meisten viralen „Secret Prompts" (GODMODE, BEASTMODE, „take a deep breath", „you are an expert") und liefert erstmals empirische Daten darüber, was tatsächlich funktioniert. Die Erkenntnis: Struktur-Prompts sind nützlich als Struktur-Prompts — aber die meisten werden fälschlich als Cognitive-Unlock verkauft.


2. /premortem — Systematische Ausfallmodus-Antizipation für Pläne

Zusammenfassung: Ein 9-Zeichen-Prefix, das in 7 von 8 Testfällen realistische Ausfallmodi identifiziert, die das Baseline-Claude verpasst.

Erklärung: /premortem zwingt Claude, einen Ausführungsplan durch die Brille des Scheiterns zu betrachten. Im Test identifizierte es in 7 von 8 Fällen mindestens einen realistischen Ausfallmodus — das Baseline-Claude nur in 2 von 8. Besonders wertvoll für Projektplanung, Migrationsstrategien und Risikoanalysen.

Beisprompt:

/premortem
Here is our Q2 migration plan from AWS to GCP. What could realistically go wrong?

Geeignet für: Claude (Opus 4.6, Sonnet 4.5)

Ursprung: GitHub Gist — 40 Claude Prompt Codes Studie

Warum diese Woche wichtig: Als einer der 7 validierten Codes in der ersten systematischen Studie dieser Art. Niedriger Aufwand (9 Zeichen), hoher ROI bei Strategiefragen.


3. AgentFlow — Harness-Optimierung für Multi-Agent-LLM-Systeme

Zusammenfassung: Eine typisierte Graph-DSL, die Agent-Rollen, Prompts, Tools, Kommunikationstopologie und Koordinationsprotokoll gemeinsam optimiert.

Erklärung: AgentFlow adressiert ein fundamentales Problem im Multi-Agent-Design: Der Harness (das Programm, das Agent-Rollen, Informationsfluss, Tools und Koordination definiert) kann bei festem Modell die Erfolgsrate um ein Vielfaches verändern. AgentFlow verwendet eine typisierte Graph-DSL und eine feedback-getriebene äußere Schleife, die Runtime-Signale aus dem Zielprogramm liest, um fehlerhafte Harness-Komponenten zu diagnostizieren und umzuschreiben. Das System erreichte 84,3% auf TerminalBench-2 und entdeckte 10 bisher unbekannte Zero-Day-Lücken in Google Chrome (darunter 2 Critical Sandbox-Escape CVEs).

Beisprompt-Konzept: Der Ansatz ist nicht direkt ein Text-Prompt, sondern ein Framework, das die Prompt-Generierung als Teil eines optimierbaren Graphen behandelt. Die Kernidee: Statt manuell Agent-Prompts zu schreiben, lässt man eine outer-loop den gesamten Agent-Harness (inklusive Prompts) basierend auf Runtime-Feedback optimieren.

Geeignet für: Multi-Agent-Systeme mit Claude Opus 4.6, Kimi K2.5

Ursprung: arXiv 2604.20801 — „Synthesizing Multi-Agent Harnesses for Vulnerability Discovery"

Warum diese Woche wichtig: Veröffentlicht am 22. April 2026. Demonstriert, dass Prompt-Design im Multi-Agent-Kontext als optimierbarer Parameter behandelt werden kann — mit messbar dramatischen Ergebnissen.


🏆 Highlight des Tages

Samarth Bhamares „40 Claude Prompt Codes" Studie ist die bedeutendste Veröffentlichung der letzten 24 Stunden für jeden, der mit Claude arbeitet. In einer eigenfinanzierten, blinden A/B-Test-Serie mit 40 der meistgeteilten „viral secret prompts" wurde erstmals systematisch zwischen strukturellen (ändern nur die Ausgabeform) und kognitiven (ändern tatsächlich die reasoning-Qualität) Prompt-Codes unterschieden. Das Ergebnis: Nur 7 von 40 Codes verändern, was Claude denkt. Die anderen 33 ändern nur, wie es klingt. Besonders wertvoll ist die Erkenntnis, dass Ablehnungslogik (Challenge-the-Premise, Commit-Before-Hedging) deutlich stärker wirkt als additive Codes („sei kompetenter", „sei expertenhafter"). Diese Studie sollte die Grundlage für jede zukünftige Prompt-Engineering-Diskussion werden — sie liefert die empirische Basis, die dieser Disziplin bisher fehlte.


📰 Erlesene Artikel & Ressourcen

1. „I blind A/B tested 40 Claude prompt codes, only 7 shift reasoning"

URL: https://gist.github.com/Samarth0211/0abecbbfc340c80de5bd21049115f9e2
Zusammenfassung: Systematische Studie mit 40 Claude-Prompt-Codes gegen Basislinie. 7 Codes zeigen messbare reasoning-Verbesserung (/skeptic, L99, /blindspots, /crit, /deep, /premortem, ULTRATHINK). Die restlichen 33 sind strukturell oder Placebo. 15.000-Wörter-Begleitbericht mit Before/after-Transkripten verfügbar. Erstellt: 23. April 2026, 06:59 UTC.

2. „Synthesizing Multi-Agent Harnesses for Vulnerability Discovery" (arXiv 2604.20801)

URL: https://arxiv.org/abs/2604.20801
Zusammenfassung: AgentFlow optimiert automatisch den gesamten Agent-Harness (Rollen, Prompts, Tools, Topologie). Erreicht 84,3% auf TerminalBench-2 mit Claude Opus 4.6, entdeckt 10 Zero-Day-Lücken in Chrome (2 Critical). Veröffentlicht: 22. April 2026.

3. „Can 'AI' Be a Doctor? Empathy & Readability in Clinical LLMs" (arXiv 2604.20791)

URL: https://arxiv.org/abs/2604.20791
Zusammenfassung: Evaluierung von LLMs auf klinische Kommunikation. Empathie-orientiertes Prompting reduziert FKGL-Komplexität um bis zu 6,87 Punkte. Collaborative Rewriting erreicht höchste semantische Ähnlichkeit zu Arzt-Antworten (0,93). Veröffentlicht: 22. April 2026.

4. Claude Code /ultrareview — Deep Multi-Agent Code Review

URL: https://code.claude.com/docs/en/ultrareview
Zusammenfassung: Neues Research-Preview-Feature in Claude Code v2.1.86+. Startet einen Fleet von Reviewer-Agenten in einer Remote-Sandbox, um Bugs in Branches/PRs zu finden und zu verifizieren. Jeder Fund wird unabhängig reproduziert — Fokus auf echte Bugs statt Style-Suggestions. Verfügbar für authentifizierte Claude.ai-Nutzer.

5. „Wan 2.2 Animate Motion Transfer" — Community Workflow

URL: https://www.reddit.com/r/StableDiffusion/comments/1stczot/
Zusammenfassung: Community-Beitrag mit Workflow und Tutorial für Charakter-Motion-Transfer mit Wan 2.2 Animate in ComfyUI. Joker-Treppentanz auf Harley Quinn übertragen. Zeigt die wachsenden Fähigkeiten offen zugänglicher Videomodelle.


⚠️ Datenqualität

  • Textgenerierung-Prompts: Starke Quelle durch die 40-Code-A/B-Test-Studie und arXiv-Literatur. Empirisch validiert.
  • Bildgenerierung: Gute Community-Quellen (r/StableDiffusion, r/midjourney), aber wenige neue „Prompt-Techniken" im engeren Sinne — der Fokus liegt heute eher auf Modellvergleichen und Workflow-Optimierung.
  • Videogenerierung: Nur 1 relevanter Fund (Wan 2.2 Motion Transfer). Limited Content in den letzten 24h.
  • Hacker News: Viele Claude Code/AI Agent-Themen, aber wenige direkt anwendbare Prompt-Techniken. Die 40-Code-Studie ist die Ausnahme.
  • arXiv: 10 relevante papers innerhalb des Fensters, aber viele anwendungsspezifisch (Medizin, Logistik) statt prompt-technisch.
  • Midjourney v8.1: Aktive Community-Posts, aber keine neuen Prompt-Techniken dokumentiert — hauptsächlich Bildshowcases.