🔤 TOP 3 PROMPTS — Textgenerierung
1. Multi-Foto-Reconciliation: Schnittmenge statt Durchschnitt
Prompt (vollständig, kopierbar):
You will see N photos of the same person. They were taken in different lighting conditions.
Your job is NOT to average across photos — it is to identify the attributes that are
CONSISTENT across lighting conditions. Lighting changes hue and saturation; it does
NOT change undertone, depth, or contrast. Return the season whose signal is present
in ALL photos, not the season most strongly suggested by any single photo.
Am besten mit: Claude Sonnet 4.6 (Vision), GPT-4o, Gemini 2.5
Warum effektiv: Der entscheidende Re-Frame: „Nimm die Schnittmenge, nicht den Durchschnitt." Nennt die Störquelle explizit (Licht ändert Farbton, nicht Undertone) und zwingt das Modell zu konsistenter Signal-Erkennung. Sprung von 55% auf 82% Übereinstimmung mit menschlichen Experten.
Quelle: https://www.reddit.com/r/ClaudeAI/comments/1sxrrup/claude_sonnet_46_multiphoto_reconciliation_prompt/ | 5 Upvotes
Community Resonanz: Ein Kommentar bestätigt: „Don't average, take the intersection — das ist ein echter Re-Frame, nicht nur Kosmetik." Das Muster überträgt sich auf jede Klassifizierungsaufgabe, bei der das invariante Signal gesucht ist.
2. DeepSeek-V4 Roleplay-Instruct am Ende der ersten User-Message
Prompt (vollständig, kopierbar):
[System: Dieser Prompt wird als zusätzliche Instruktion am Ende der ersten
User-Message eingefügt]
You are engaging in collaborative storytelling. Write responses from the
perspective of the character(s) you play, not the user's character.
Important guidelines:
- Show, don't tell — describe actions, expressions, and dialogue naturally
- Never speak for the user's character or put words in their mouth
- Keep responses immersive and in-character at all times
- Write your response in [language/style of your choice]
- Include internal thoughts for your character in *italics*
Am besten mit: DeepSeek V4 Pro, DeepSeek V3, SillyTavern
Warum effektiv: Die Platzierung am Ende der ersten User-Message ändert nachweislich den Think-Prozess des Modells. DeepSeek V4 reagiert deutlich sensitiver auf Instruktionen, die in der ersten Message eingebettet sind, als auf reinen System-Prompt. Speziell für Roleplay mit V4, das stark auf Storytelling trainiert ist.
Quelle: https://www.reddit.com/r/SillyTavernAI/comments/1sxtzow/if_youre_trying_deepseekv4_for_rp_this_roleplay/ | 14 Upvotes
Community Resonanz: „It changes the think process. DeepSeek 4 has more layers than I initially thought" — Nutzer bestätigen, dass die Positionierung der Instruktion den Denkprozess des Modells messbar verändert.
3. Director-Modus für kollaboratives Storytelling
Prompt (vollständig, kopierbar):
We are writing a story together. I am the DIRECTOR, you are the WRITER.
As Director, I will provide:
- Scene directions in [brackets]
- Character actions to include
- Plot points to hit
As Writer, you will:
- Flesh out the scene with rich descriptions and dialogue
- Stay true to established character voices
- Add appropriate emotional depth and sensory details
Director's notes: [Describe the scene, characters, and tone you want]
Am besten mit: Claude Sonnet 4.6, GPT-4o, DeepSeek V4
Warum effektiv: Statt als Co-Autor (Writer-Modus) agiert der Nutzer als Regisseur, der nur die Eckpunkte vorgibt. Das Modell füllt die Lücken mit überraschenden kreativen Wendungen, während die Narrative kontrolliert bleibt. Besonders stark mit Modellen, die auf kreatives Schreiben trainiert sind.
Quelle: https://www.reddit.com/r/SillyTavernAI/comments/1sxsr93/doing_roleplays_by_being_a_director_rather_than_a/ | 7 Upvotes
Community Resonanz: Community diskutiert verschiedene Implementierungen — von expliziten OOC-Instruktionen bis hin zu SillyTavern-Erweiterungen wie Errata und Aventuras, die diesen Modus direkt unterstützen.
🖼️ TOP 3 PROMPTS — Bildgenerierung
1. Z-Image Turbo Workflow mit Qwen Text Editor
Prompt (vollständig, kopierbar):
Elegant woman wearing a red silk evening dress, golden hour lighting,
cinematic portrait photography, shallow depth of field, --ar 16:9
--sampler euler_a --beta_schedule linear --steps 10 --cfg_scale 3.5
Am besten mit: Z-Image Turbo (F16 GGUF), Ultra-Flux VAE, Qwen Text Editor (GGUF)
Warum effektiv: Die Kombination aus Z-Image Turbo mit Euler-Sampler und beta_schedule in nur 10 Steps liefert ästhetisch hochwertige Bilder verschiedener Stile. Qwen als Text-Editor-Modell korrigiert automatisch Textfehler. LoRA-Stacking mit Slider-LoRAs ermöglicht vorhersagbare Anpassungen (dunkler, nebliger, glänzender).
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1sxhiyc/your_favourite_zimageturbo_checkpoints_and_loras/ | 26 Upvotes
Community Resonanz: „ZiT und Z-image base sind die besten für eine Vielzahl von Stilelo" — Nutzer berichten von täglicher Nutzung. Die BF16-Version des Turbo-Modells funktioniert am zuverlässigsten mit Character-LoRAs.
2. Flux Klein Konsistenz-LoRA mit negativen MPS-Werten
Prompt (vollständig, kopierbar):
Replace the dress with red and black dragon scale armor with bone decorations.
Change the lemonade into pitchers of red blood. Alter the sign text to say
"Dragon Blood". Replace the lemon in her hand with a torn out heart.
Change the facial expression to a fierce battle cry.
[Settings: Inpaint strength 100%, original image as reference,
do NOT change the face, do NOT alter hands or fingers]
Am besten mit: Flux 2 Klein 9B + Consistency LoRA, negativer MPS LoRA bei -0.3 bis -0.5
Warum effektiv: Zwei Techniken kombiniert: (1) Der Konsistenz-LoRA für Flux Klein verhindert Gesichtsveränderungen bei Bild-Editing. (2) Negative MPS-LoRA-Werte (-0.3/-0.5) pumpen Qualität ohne Konsistenz zu zerstören. Zusätzlich die explizite Negativ-Instruktion „do NOT change the face" im Prompt funktioniert bei Klein überraschend gut.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1sxg9e2/is_there_any_way_to_get_flux_klein_to_not_change/ | 21 Upvotes
Community Resonanz: Die Consistency-LoRA wird als sofortige Lösung für das Gesichtswechsel-Problem bei Flux Klein empfohlen. Der Flux-Klein-Composite Node erkennt automatisch Änderungen zwischen zwei Bildern und maskiert selektiv.
3. SenseNova U1 mit NEO-Unify — Any-to-Any Modell
Prompt (vollständig, kopierbar):
Generate a professional infographic showing the lifecycle of AI model training,
with clean typography, data visualization elements, and a modern tech aesthetic.
Resolution: 2048x2048, reasoning mode enabled.
Am besten mit: SenseNova U1 (native 2048×2048), mit T2I Reasoning (Think Mode)
Warum effektiv: SenseNova U1 ist ein neues Any-to-Any Modell mit T2I Reasoning im Think-Mode — das Modell „denkt" über das Bild nach, bevor es generiert. Native 2048×2048 Ausgabe ohne Upscaling. Die reasoning-Funktion verbessert insbesondere Infografiken und textlastige Bilder.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1sxqr4a/sensenova_u1_with_neounify_just_dropped/ | 109 Upvotes
Community Resonanzz: „T2I reasoning (think mode) this one is big" — die Community erkennt das Potenzial des Reasoning-Modes für strukturierte Bildgenerierung. Das Demo ist live verfügbar.
🎬 TOP 3 PROMPTS — Videogenerierung
1. WAN SCAIL mit Animate-Modus und MPS-LoRA
Prompt (vollständig, kopierbar):
A lone trucker sits in the cockpit of a weathered space freighter,
stars streaming past the cracked windshield, holographic dashboard
flickering with navigation warnings. Cinematic sci-fi atmosphere,
volumetric lighting, film grain, 8mm film aesthetic.
[Settings: WAN SCAIL, Animate mode, MPS negative LoRA -0.3,
FlashVSR upscaling afterwards, negative strength for MPS only]
Am besten mit: WAN SCAIL, FlashVSR (Upscaling), MPS LoRA
Warum effektiv: Drei konkrete Tipps aus der Praxis: (1) Der Animate-Modus liefert bessere Konsistenz als der Standard-Modus. (2) MPS-LoRA bei negativem Wert (-0.3 bis -0.5) verbessert Qualität ohne Konsistenz zu ruinieren. (3) FlashVSR-Upscaling nach der Generierung behebt viele der verbleibenden Artefakte.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1sxghxt/wan_scail_tips_for_quality/ | 116 Upvotes
Community Resonanz: 37 Diskussionen mit praktischen Erfahrungen. Warnung vor MPS-LoRA bei Gesichts-Konsistenz: „Pumpen Qualität, aber ruinieren Gesichterkonsistenz" — daher nur mit Vorsicht und negativen Werten einsetzen.
2. „The Space Trucker" — AI-Short-Film Workflow
Prompt (vollständig, kopierbar):
Scene: Cockpit interior, worn leather seat, control panels with glowing buttons.
Camera: Slow dolly-in from wide shot to medium closeup. 5 seconds.
Style: Cinematic sci-fi, practical effects look, naturalistic lighting.
[Tooling: WAN 2.2 / SCAIL for generation, FlashVSR for upscaling,
consistent character reference image provided]
Am besten mit: WAN 2.2 oder SCAIL, Character-LoRA für Konsistenz
Warum effektiv: Demonstriert einen praktischen Workflow für narrative AI-Videos: Charakter-Konsistenz durch LoRA, Kamera-Bewegungen durch Prompt-Engineering („slow dolly-in"), und Post-Processing mit FlashVSR. Zeigt dass konsistente Charaktere über mehrere Shots hinweg möglich sind.
Quelle: https://www.reddit.com/r/aivideo/comments/1sxudk8/the_space_trucker_short_movie/ | 26 Upvotes
Community Resonanz: Zeigt das Potenzial von WAN-basierten Workflows für narrative Kurzfilme. Die Qualität der Szene demonstriert Fortschritte gegenüber früheren AI-Video-Generationen.
3. „Soup Granny" — Emotionaler AI-Video-Stil
Prompt (vollständig, kopierbar):
An elderly grandmother stirring a large pot of soup in a cozy kitchen,
steam rising, warm afternoon light through the window, documentary style,
gentle camera pan, natural movements, Kodak Portra color grading.
[Settings: WAN 2.1, duration 4-5 seconds, subtle camera movement,
realistic motion, high temporal consistency]
Am besten mit: WAN 2.1 oder WAN 2.2, Dokumentarfilm-Stil
Warum effektiv: Zeigt dass AI-Video nicht nur actionlastig sein muss. Subtile, emotionale Szenen mit langsamer Kamerabewegung funktionieren besonders gut mit WAN 2.1. Der Dokumentarfilm-Look mit Portra-Color-Grading erzeugt natürliche, warme Ergebnisse ohne den typischen „AI-Glanz."
Quelle: https://www.reddit.com/r/aivideo/comments/1sxsexn/soup_granny/ | 12 Upvotes
Community Resonanz: Die Community schätzt den emotionalen Ansatz und diskutiert, dass solche subtilen Szenen oft mehr Wirkung haben als spektakuläre Effekte.
🧠 TOP 3 NEUE TECHNIKEN
1. Schnittmengen-Klassifizierung (Intersection Classification)
Zusammenfassung: Statt über mehrere Eingänge zu „mitteln," identifiziere das Signal, das in ALLEN Eingängen konsistent vorhanden ist.
Erklärung: Claude und andere VLMs neigen dazu, bei Multi-Image-Inputs die Beweise zu gewichten und einen Gewinner zu wählen. Das ist korrekt für Bild-Erkennung, aber falsch für invariante Attribute. Der Trick: (1) Benenne die Störquelle explizit, (2) Definiere die Aufgabe als Schnittmenge statt Durchschnitt, (3) Fordere das Feature, das in ALLEN Inputs präsent ist. Sprung von 55% auf 82% Übereinstimmung mit Experten.
Beispielprompt:
You will analyze 4 code review comments about the same pull request.
Each reviewer focuses on different aspects (security, performance, readability).
Your job is NOT to average across reviews — identify the issues that
ALL reviewers independently flagged. These are the genuine problems.
Reviewer-specific concerns (e.g., only one person cares about formatting)
are noise. Return only the intersection of concerns.
Geeignet für: Claude Sonnet 4.6, GPT-4o, Gemini 2.5, alle VLMs und Analysetext-Modelle
Warum heute wichtig: Multi-Image- und Multi-Source-Analysen werden alltäglich. Die meisten Nutzer „durchschnitteln" einfach — dabei ist die Schnittmenge fast immer das wertvollere Signal. Die Technik überträgt sich auf Code Reviews, Dokumentenanalyse, medizinische Bildgebung und mehr.
2. Prompt-Positionierung als Think-Steuerung
Zusammenfassung: Die Position einer Instruktion innerhalb der ersten User-Message steuert den „Think"-Prozess von DeepSeek V4 effektiver als reiner System-Prompt.
Erklärung: DeepSeek V4 (und ähnliche Thinking-Modelle) zeigen, dass Instruktionen am Ende der ersten User-Message den internen Denkprozess messbar verändern. Während System-Prompts als „allgemeine Regeln" behandelt werden, werden User-Message-Instruktionen als „spezifische Anweisungen für diese Anfrage" gewichtet. Dieser Unterschied ist besonders stark bei Modellen mit aktiviertem Reasoning/Thinking.
Beispielprompt:
User: [Your story setup here...]
---
[Instruction: From now on, write in the style of Ernest Hemingway.
Use short sentences. Focus on sensory details. Never use adverbs.
This applies to ALL future responses in this conversation.]
Geeignet für: DeepSeek V4, DeepSeek V3, o3, Claude mit Thinking Mode
Warum heute wichtig: Mit der Zunahme von Thinking/Reasoning-Modellen wird die Positionierung von Instruktionen immer wichtiger. Ein und derselbe Prompt an unterschiedlichen Stellen im Input kann völlig andere Denkwege auslösen.
3. Director-Modus für kreative Kontrolle
Zusammenfassung: Agiere als Regisseur, nicht als Co-Autor — das Modell übernimmt die kreative Arbeit innerhalb deiner narrativen Grenzen.
Erklärung: Statt jede Szene selbst zu schreiben (Writer-Modus) oder alles dem Modell zu überlassen (Chaos-Modus), positionierst du dich als Director. Du gibst Scene Directions, Plot Points und Charakter-Notizen vor; das Modell füllt die Lücken. Das nutzt die Stärke von LLMs als „Vorhersage-Maschinen" während du die narrative Kontrolle behältst. Besonders effektiv mit Tools wie Errata, Aventuras oder SillyTavern-Erweiterungen.
Beispielprompt:
[Director: Next, introduce a new character entering from the left.
She should be someone the protagonist hasn't seen in years.
The mood should shift from calm to tense. Focus on the protagonist's
reaction first, then reveal her face.]
Geeignet für: Claude Sonnet, GPT-4o, DeepSeek V4, alle stark narrative Modelle
Warum heute wichtig: Viele KI-Nutzer frustrieren, weil sie entweder zu viel Kontrolle wollen (jedes Wort vorgeben) oder zu wenig (das Modell halluziniert die Story weg). Der Director-Modus ist der Goldene Mittelweg.
🏆 Highlight des Tages
Die „Schnittmenge statt Durchschnitt"-Technik
Heute wurde eine Prompt-Technik veröffentlicht, die das Potenzial hat, eine ganze Klasse von KI-Aufgaben zu verbessern: Schnittmengen-Klassifizierung.
Das Problem: Wenn du einem VLM mehrere Bilder derselben Person gibst (unterschiedliches Licht, Winkel, Kleidung), neigt das Modell dazu, über alle Inputs zu „mitteln" — und liefert damit ein Ergebnis, das von den Störfaktoren verzerrt ist.
Die Lösung ist genial einfach: Statt „Schau dir alle Fotos an und gib mir die wahrscheinlichste Antwort," sag: „Finde das Signal, das in ALLEN Fotos konsistent ist. Nenne die Störquelle explizit. Ignoriere Features, die nur in einzelnen Fotos erscheinen."
Das Ergebnis: Sprung von 55% auf 82% Übereinstimmung mit menschlichen Experten. Ein Live-Demo steht bereit (whatcolorssuitme.com).
Die Technik überträgt sich auf:
- Code Reviews: „Was haben ALLE Reviewer als Problem identifiziert?"
- Dokumentenanalyse: „Welche Fakten erscheinen in ALLEN Quellen?"
- Medizin: „Welche Symptome sind über ALLE Untersuchungsmethoden konsistent?"
- Marktanalyse: „Welche Trends bestätigen ALLE Datenquellen?"
Quelle: https://www.reddit.com/r/ClaudeAI/comments/1sxrrup/claude_sonnet_46_multiphoto_reconciliation_prompt/ | 5 Upvotes, 15+ Kommentare
📰 Erlesene Artikel & Ressourcen
SenseNova U1 mit NEO-Unify — Any-to-Any Modell mit T2I Reasoning SenseNova U1 ist ein neues Any-to-Any Modell mit 2048×2048 nativer Auflösung und einem T2I Reasoning (Think Mode). Besonders für Infografiken und textlastige Bilder interessant. Demo: https://www.reddit.com/r/StableDiffusion/comments/1sxqr4a/sensenova_u1_with_neounify_just_dropped/
Z-Image Turbo — Beste Checkpoints und LoRAs Community-Diskussion über die besten Z-Image Turbo Setups: BF16 Originalversion, Euler Sampler mit beta_schedule, Qwen GGUF Text Editor, Ultra-Flux VAE, und Slider-LoRAs für vorhersagbare Anpassungen. https://www.reddit.com/r/StableDiffusion/comments/1sxhiyc/your_favourite_zimageturbo_checkpoints_and_loras/
Flux Klein Konsistenz-LoRA Neuer Consistency-LoRA für Flux 2 Klein 9B löst das Gesichtswechsel-Problem bei Bild-Editing. Civitai-Artikel: https://civitai.com/articles/27410/flux2-klein-9b-consistency-lora
Black Forest Labs Roadmap — FluxVideo1Dev und Roboter-Pläne BFL arbeitet an einem Video-Modell (FluxVideo1Dev) und plant einen AI-gesteuerten Roboter. Die Kern-Forscher (Robin Rombach, Patrick Esser) haben einen Rhythmus von einem Major-Release pro Jahr. https://www.reddit.com/r/StableDiffusion/comments/1sxnrsh/whats_new_for_bfl_fluxklein/
Wired-Artikel: Black Forest Labs plant physische AI-Produkte Startup plant AI-Roboter und Systeme, die in der physischen Welt handeln können. Hardware-Partner noch nicht bekannt. https://www.wired.com (via Reddit-Diskussion)
Bericht erstellt am 2026-04-29 Quellen: Reddit, Hacker News, arXiv