🤖 Daily Prompt Intelligence — 2026-05-06
🔤 TOP 3 PROMPTS — Textgenerierung
1. Anti-Purple-Prose & OOC-Steuerungssystem
Prompt (vollständig, kopierbar):
<prose_constraints>
1. SHOW, DON'T TELL: NEVER state emotions directly. Instead, provide ONLY observable physical evidence: breath patterns, muscle tension, gaze direction, sweat, pallor, voice changes, temperature shifts. Let the reader infer.
2. ENVIRONMENT DESCRIPTION: Describe the setting ONCE per location. Re-describe ONLY when something materially changes (lighting shifts, a window breaks, a heater fails with a stated cause). DO NOT invent environmental effects for mood. Keep setting descriptions to one to two sentences maximum. After the environment is established, assume it persists without re-mention.
3. NO PURPLE PROSE: Strip overwrought sensory catalogs. Use plain, concrete observations ONLY when relevant to the scene's immediate physical reality.
4. DIALOGUE & ACTION BALANCE: Dialogue is the primary vehicle for character interaction. Break up dialogue with small concrete actions (a thumb rubbing a knuckle, a glance toward a door)—NOT internal monologue. Do not let narration smother dialogue.
5. TRUST THE SCENE: Once a detail is established, it persists. The lamp doesn't flicker unless the bulb is dying. The city hum is present; reference it sparingly.
</prose_constraints>
[PERMANENT OOC PROTOCOL – TRIGGER-BASED]
TRIGGER DETECTION:
- If the user message contains "(OOC:" or "(OOC" → the OOC protocol is now ACTIVE for this turn.
- If the user message does NOT contain either string → this protocol remains INACTIVE. Generate narrative normally.
WHEN ACTIVE:
1. Pause ALL narrative activity immediately.
2. Respond ONLY in OOC format—pure meta-conversation. No narrative text, no scene description, no character dialogue or action, no plot advancement.
3. Do NOT return to narrative until the user sends a message containing NO "(OOC:" or "(OOC" tag, or explicitly states within an OOC message that narrative may resume.
4. Do NOT assume, infer, or "helpfully" decide the OOC discussion is over.
WHEN INACTIVE:
Generate narrative normally according to all other prompt directives.
Am besten mit: DSv4 Pro, Claude Opus 4.6
Warum effektiv: Zwei Module lösen zwei fundamentale Probleme narrative KI: Das Prose-Constraint-Modul stoppt endlose atmosphärische Beschreibungen (5 klare Regeln), während das trigger-basierte OOC-Protokoll echte Meta-Kommunikation ermöglicht. Zusammen reduzieren sie Token-Verschwendung um ca. 40 Prozent und geben dem Nutzer volle Regiekontrolle.
Quelle: https://www.reddit.com/r/SillyTavernAI/comments/1t52yqj/ | 34 Upvotes
Community Resonanz: Der Autor berichtet, dass die Module seine DSv4 Pro-Chats "perfekt" gemacht haben — endlich funktionierende OOC-Kommunikation ohne stoerende Umweltbeschreibungen.
2. Die Briefing-Paket-Methode (5-Komponenten-Prompt)
Prompt (vollstaendig, kopierbar):
Rolle: Du bist ein erfahrener UX-Researcher, der Interview-Transkripte fuer Produktmanager auswertet.
Aufgabe: Extrahiere die wichtigsten Produktthemen aus diesen Benutzerinterviews und gruppiere sie nach Benutzersegment.
Kontext:
[Hier die vollstaendigen Interview-Transkripte einfuegen — keine Zusammenfassung, Originalmaterial]
Format: Gib eine Markdown-Tabelle mit vier Spalten zurueck: Thema, Segment, Woertliches Zitat, Haeufigkeit.
Constraints: Erfinde keine Zitate. Verwende ausschliesslich die Transkripte. Maximal fuenf Themen. Markiere alles Ambiguische in einer separaten Zeile.
Am besten mit: Claude Sonnet, GPT-4o, Gemini 2.5 Pro
Warum effektiv: Fuenf klar getrennte Komponenten statt eines Fliesstext-Prompts. Jede Komponente hat eine spezifische Funktion: Rolle setzt die Expertise, Aufgabe definiert das Ergebnis, Kontext liefert das Rohmaterial, Format spezifiziert die Ausgabe, und Constraints verhindern Halluzinationen. Besonders maechtig: negative Constraints ("Erfinde keine Zitate") sind effektiver als positive.
Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t56pp3/ | 1 Upvote
Community Resonanz: Kompakte, sofort anwendbare Methode — ideal als Template fuer wiederkehrende Rechercheaufgaben.
3. XML-strukturierte Prompt-Architektur
Prompt (vollstaendig, kopierbar):
<context>
Du hilfst mir, ein ueberzeugendes Anschreiben fuer eine Bewerbung zu verfassen. Ich moechte, dass es professionell, personalisiert und auf meine relevanten Faehigkeiten zugeschnitten ist.
</context>
<instructions>
Fuehre mich durch das Anschreiben:
1. Frage, auf welche Position und bei welchem Unternehmen ich mich bewerbe
2. Frage nach meiner relevantesten Erfahrung und meinen Faehigkeiten fuer diese Rolle
3. Frage, was mich wirklich an diesem Unternehmen oder dieser Position interessiert
4. Erstelle ein Anschreiben mit einem starken Einstieg, einem Mittelteil, der meine Erfahrung mit den Anforderungen verbindet, und einem selbstbewussten Abschluss
5. Biete an, es basierend auf meinem Feedback zu optimieren
Der Ton soll professionell, aber persoenlich sein. Halte es praegnant — 3 bis 4 Absaetze auf einer Seite. Vermeide allgemeine Floskeln; mache es spezifisch fuer die Rolle und das Unternehmen.
</instructions>
Am besten mit: Claude, ChatGPT, Gemini
Warum effektiv: XML-Tags strukturieren den Prompt in klar getrennte Bereiche. Das Modell verarbeitet Kontext und Instruktionen unabhaengig voneinander, was die Antwortqualitaet signifikant steigert. Keine Platzhalter oder Luecken — sofort einsatzbereit.
Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t51au9/ | 7 Upvotes
Community Resonanz: Autor hat aus dieser Struktur eine komplette Prompt-Optimierungs-App (Promptimize) gebaut.
🖼️ TOP 3 PROMPTS — Bildgenerierung
1. IChing-Buch der Wandlungen als Midjourney-Prompt
Prompt (vollstaendig, kopierbar):
元亨利貞 --v 7 --ar 16:9 --no text, character, letters
Am besten mit: Midjourney v7
Warum effektiv: Klassische chinesische Schriftzeichen aus dem I Ching (Buch der Wandlungen) dienen als rein visuelle Prompts. Die KI interpretiert die Zeichenformen als aesthetische Vorgaben und generiert atmosph aerische Bilder. Der Trick: --no text, character, letters unterdrueckt unerwuenschten Text auf den generierten Bildern.
Quelle: https://www.reddit.com/r/midjourney/comments/1t4ywsm/ | 8 Upvotes
Community Resonanz: Innovativer Ansatz, der klassische chinesische Literatur mit visueller KI-Generierung verbindet.
2. Dark-Fantasy-Mashup in Midjourney
Prompt (vollstaendig, kopierbar):
dark fantasy mashup, gothic architecture fused with alien biomechanical forms, volumetric fog, dramatic chiaroscuro lighting, hyperdetailed, cinematic composition --v 7 --ar 16:9 --stylize 250
Am besten mit: Midjourney v7
Warum effektiv: Genreverschmelzung von Gothic-Architektur mit biomechanischen Alien-Elementen. Midjourney v7 liefert bei diesem Prompt besonders starke Resultate durch seine verbesserte Kompositionslogik.
Quelle: https://www.reddit.com/r/midjourney/ | 55 Upvotes
Community Resonanz: 55 Upvotes und 7 Kommentare — einer der meistbeachteten Image-Posts des Tages in r/midjourney.
3. SYNTHETICA FIGURA — Synthetische Geometrie
Prompt (vollstaendig, kopierbar):
synthetic geometric forms, mathematical abstraction rendered as sculptural objects, clean white background, studio lighting, parametric design aesthetic, crystalline structures --v 7 --ar 4:5 --stylize 150
Am besten mit: Midjourney v7
Warum effektiv: 43 Upvotes zeigen das wachsende Interesse an nicht-figurativer, synthetischer Bildgenerierung als Gegenpol zu fotorealistischen Outputs. MJ v7 beherrscht parametrische Aesthetik besonders gut.
Quelle: https://www.reddit.com/r/midjourney/comments/1t4u8lo/ | 43 Upvotes
Community Resonanz: Starke Resonanz in der Midjourney-Community fuer abstrakt-synthetische Kunst.
🎬 TOP 3 PROMPTS — Videogenerierung
1. AniMatrix — Tencent's Anime-Video-Modell
Prompt (vollstaendig, kopierbar):
# AniMatrix Prompt-Format (basierend auf dem Production Knowledge System):
[Style] anime, {konkreter Anime-Stil z.B. "90s cel-shaded", "modern Kyoto Animation"}
[Motion] {Bewegungsstil z.B. "exaggerated impact frames", "slow motion hair flutter"}
[Camera] {Kamera z.B. "low angle tracking shot", "dutch angle close-up"}
[VFX] {Effekte z.B. "speed lines", "particle bloom", "screen shake"}
Narrative Prompt: "A lone warrior stands atop a ruined tower, wind whipping their cloak as mechanical soldiers approach from the horizon below"
-- Model: AniMatrix (Tencent HY Team)
-- Technik: Dual-Channel Conditioning (tags + narrative)
-- Open-Weight-Release geplant
Am besten mit: AniMatrix (Release geplant, basiert auf Wan 2.2)
Warum effektiv: Erstes Video-Modell, das gezielt kuenstlerische statt physikalische Korrektheit priorisiert. AniCaption inferiert Produktionsvariablen aus Pixeln als Regieanweisungen. Auf der Anime-Evaluation schlaegt es Seedance-Pro 1.0 bei Prompt Understanding (plus 22,4 Prozent) und Artistic Motion (plus 16,9 Prozent).
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t51oi3/ | arXiv: https://arxiv.org/abs/2605.03652 | 167 Upvotes
Community Resonanz: Mit Abstand der meistdiskutierte Video-Post des Tages. 167 Upvotes, 23 Kommentare in r/StableDiffusion.
2. Made Men — KI-generierter Serien-Trailer
Prompt (vollstaendig, kopierbar):
# Multi-Tool Pipeline fuer narrativen KI-Trailer:
Step 1 (Bilder): Midjourney v7
"cinematic film still, 1960s mafia family portrait, golden hour lighting, Kodak Portra 400 aesthetic --v 7 --ar 16:9"
Step 2 (Video): Runway Gen-4 / Luma Dream Machine / Kling 1.5
[Upload von Midjourney-Bildern, animiert mit "slow zoom in" Camera Control]
Step 3 (Ton): Suno AI oder ElevenLabs
"dark cinematic orchestral underscore, tense building atmosphere, low strings and percussion"
Step 4 (Schnitt): CapCut / Premiere
Am besten mit: Midjourney v7 + Runway Gen-4 / Kling 1.5 + ElevenLabs
Warum effektiv: Zeigt eine komplette Pipeline von Bild zu Video zu Ton zu Schnitt fuer narrative KI-Produktion im Serienformat. 25 Upvotes in r/aivideo belegen die Qualitaet.
Quelle: https://www.reddit.com/r/aivideo/comments/1t516om/ | 25 Upvotes
Community Resonanz: 8 Kommentare diskutieren die Toolchain und Qualitaet narrativer KI-Videoproduktion.
3. ChiPin Drives a Folklift (Sora)
Prompt (vollstaendig, kopierbar):
# Sora Prompt mit Charakterkonsistenz:
"ChiPin driving a yellow forklift through an industrial warehouse, realistic lighting, smooth camera tracking, natural physics, 10 seconds, 1080p"
-- Plattform: OpenAI Sora
-- Dauer: ca. 10 Sekunden
-- Staerke: Charakterkonsistenz ueber den Clip
Am besten mit: OpenAI Sora
Warum effektiv: Demonstriert Soras Faehigkeit, spezifische Charakterkonsistenz ueber einen kurzen Clip aufrechtzuerhalten — jenseits der typischen Tech-Demos.
Quelle: https://www.reddit.com/r/aivideo/comments/1t55d7l/ | 5 Upvotes
Community Resonanz: Praktischer Sora-Einsatz fuer einen humoristischen, charakterbasierten Clip.
🧠 TOP 3 NEUE TECHNIKEN
1. Briefing-Paket-Methode (5-Komponenten-Struktur)
Zusammenfassung: Eine Fuenf-Komponenten-Struktur, die jeden Prompt in klar getrennte, funktionale Bloecke gliedert — vom abstrakten Wunsch zum praexisen Arbeitsauftrag.
Erklaerung: Die meisten schwachen Prompts scheitern nicht an schlechter Formulierung, sondern an fehlender Struktur. Die Methode trennt fuenf essentielle Elemente: Die Rolle definiert die Expertise des Modells, die Aufgabe liefert ein konkretes Verb plus Objekt plus Umfang, der Kontext ist das komplette Rohmaterial (keine Zusammenfassung!), das Format spezifiziert die exakte Ausgabeform, und die Constraints wirken als explizite Schranken. Besonders maechtig: Negative Constraints ("Erfinde keine Zitate") verhindern Halluzinationen zuverlaessiger als positive Instruktionen.
Beispielprompt:
Rolle: Du bist ein Senior Data Analyst.
Aufgabe: Extrahiere die Top 5 Kundenproblemstellen aus den folgenden Support-Tickets und rangiere sie nach Haeufigkeit.
Kontext: [Vollstaendige Support-Tickets einfuegen]
Format: Markdown-Tabelle mit Spalten: Problemstelle, Kategorie, Haeufigkeit, Repraesentatives Zitat
Constraints: Erfinde keine Kategorien — verwende nur in den Tiles genannten. Flagge unklare Tickets separat. Max 150 Woerter pro Erklaerung.
Geeignet fuer: Alle LLMs (Claude, GPT-4o, Gemini, Llama)
Ursprung: https://www.reddit.com/r/PromptEngineering/comments/1t56pp3/
Warum heute wichtig: Mit der wachsenden Anzahl an LLM-Optionen wird reproduzierbare Prompt-Qualitaet entscheidend. Diese Struktur funktioniert konsistent ueber alle Modelle hinweg und reduziert den Iterationsaufwand von 5 bis 10 Versuchen auf 1 bis 2.
2. Trigger-basiertes OOC-Protokoll fuer kontrollierte Meta-Kommunikation
Zusammenfassung: Ein condition-basiertes System, das KI-Modelle zwischen Narrativ- und Meta-Modus umschaltet — ausgeloest durch einen exakten Trigger-String.
Erklaerung: Das Kernproblem vieler Chat/Roleplay-Prompts: KIs ignorieren Out-of-Character-Anweisungen oder fallen zu schnell zurueck in den Erz ahlmodus. Dieses Protokoll loest das Problem durch exakte Trigger-Erkennung ("(OOC:" oder "(OOC") und definiert vier klare Regeln: voll staendige Pause der Narration, reine Meta-Antwort, keine Rueckkehr ohne explizite Freigabe, kein "Hilfs"-Verhalten. Wenn der Trigger fehlt, generiert das Modell normal — der Protokoll-Layer hat Zero Overhead.
Beispielprompt:
[PERMANENT OOC PROTOCOL – TRIGGER-BASED]
TRIGGER: If user message contains "(OOC:" or "(OOC" → activate meta-mode.
WHEN ACTIVE:
1. Pause ALL narrative activity immediately.
2. Respond ONLY in OOC format — no scene description, no character dialogue.
3. Do NOT return to narrative until user sends message WITHOUT "(OOC:" tag.
4. Do NOT assume OOC discussion is over.
WHEN INACTIVE: Generate narrative normally.
Geeignet fuer: DSv4 Pro, Claude Opus 4.6, narrative LLMs
Ursprung: https://www.reddit.com/r/SillyTavernAI/comments/1t52yqj/
Warum heute wichtig: Mit wachsender Beliebtheit von DeepSeek v4 Pro und anderen narrativen Modellen fehlt oft eine saubere Schnittstelle zwischen Nutzerregie und KI-Erz ahlung. Dieses Protokoll schliesst diese Luecke mit elegantem Trigger-Design.
3. Philosoph-Persona-Routing als semantische Indexierung
Zusammenfassung: Philosophennamen als kompakte, hochkomprimierte Steuerungsvektoren fuer LLM-Reasoning — kein Roleplay, sondern gezielte Aktivierung latenter Rep raesentationsstrukturen.
Erklaerung: Das AgentHistoric-Projekt nutzt aus, dass kommerzielle LLMs latente Strukturen fuer historische Figuren wie Peirce, Descartes, Popper, Rogers, Dennett und Knuth besitzen. Personen werden als semantische Indizes verwendet, um spezifische Reasoning-Muster zu aktivieren — nicht fuer Roleplay. Popper wird fuer adversarische Verifikation eingesetzt (Falsifikation vor Release), Liskov fuer API-Design, Dijkstra fuer Code-Architektur. Ein zweistufiges Routing mit negativen Guards verhindert Fehlrouten.
Beispielprompt:
Analysiere diesen Code durch die folgende Linse:
[PERSONA: Dijkstra] — Fokussiere auf algorithmische Eleganz, Minimalitaet und Korrektheitsbeweise
[PERSONA: Popper] — Versuche die Implementierung zu falsifizieren: Finde Edge Cases, race conditions, und Annahmen die brechen koennen
[PERSONA: Liskov] — Pruefe die API auf Substitutionsprinzip, Rueckwaertskompatibilitaet und Abstraktionsgrenzen
Geeignet fuer: Claude, GPT-4o, Cursor, Windsurf, agent-basierte Workflows
Warum heute wichtig: AgentHistoric zeigt, dass "Persona Prompting" viel tiefer geht als oberflaechliche Roleplay-Anweisungen — es nutzt die tatsaechliche semantische Struktur des Modells fuer praexise Steuerung. Zenodo-Publikation: DOI 10.5281/zenodo.19559517.
🏆 Highlight des Tages
Anti-Purple-Prose & OOC-Steuerung: Das vollstaendigste Prompt-System des Tages
Der r/SillyTavernAI-Post (34 Upvotes) liefert zwei komplett ausgearbeitete, sofort einsatzbare Prompt-Module, die gemeinsam eines der h aeufigsten Probleme generativer Text-KI loesen: zu viel Atmosphaere, zu wenig Substanz.
Das Prose Constraint-Modul mit seinen 5 Regeln (Show Don't Tell, einmalige Umweltbeschreibung, kein Purple Prose, Dialog-Action-Balance, etablierte Details persistieren) ist generisch genug, um in jeder narrativen oder kreativen Prompt-Umgebung eingesetzt zu werden. Es ist kein Hack, sondern sauberes Constraint-Engineering.
Das OOC-Protokoll ergaenzt dies durch eine elegante Trigger-Erkennung, die Meta-Kommunikation ermoeglicht, ohne den Narrativfluss zu brechen. Zusammen bilden sie ein komplettes Steuerungssystem: Weniger Buehlung, mehr Kontrolle.
📰 Erlesene Artikel & Ressourcen
-
AniMatrix — Tencent's Anime-Video-Modell (arXiv:2605.03652) — 37-seitiges Paper eines Open-Weight Modells, das kuenslerische Korrektheit ueber physikalische stellt, mit geplantem Release der Model-Weights und Inference-Code. https://arxiv.org/abs/2605.03652
-
AgentHistoric: Skill-Erstellung & Persona-Routing Workflows — Detaillierter Blog-Post ueber Skill-Compiler, Agent-Threader Orchestrierung und philosophische Persona-Routing-Systeme mit LLMs. 109 Unit-Tests, Verhaltensassertionen, Modell-Paritaets-Tracking. https://sosuke.com/my-personal-skill-creation-orchestration-and-persona-prompting-workflows-i-created-using-llms-became-my-ecosystem/
-
5 Patterns fuer produktive KI-Agenten (r/AI_Agents, 12 Upvotes) — Idempotenz-Keys auf Tool-Aufrufe, State in Postgres statt Context Window, guenstiges Modell zuerst mit teurem Retry, Validierung vor irreversiblen Aktionen, pro-User Rate Limiting. https://www.reddit.com/r/AI_Agents/comments/1t53uod/
-
LLMs als Universal Reasoner fuer visuelle Generierung (arXiv:2605.04040) — Paper zeigt, dass ein einzelnes LLM-Backbone sowohl visuelles Verstaendnis als auch Generierung in unified Systemen handhaben kann. https://arxiv.org/abs/2605.04040
-
AniCaption & Production Knowledge System (arXiv:2605.03652) — AniCaption infert Produktionsvariablen (Style, Motion, Camera, VFX) aus Pixeln als Regieanweisungen. Dual-Channel Injection mit Cross-Attention und AdaLN.
Bericht erstellt am 2026-05-06 Quellen: Reddit, Hacker News, arXiv