Prompt Intelligence Bericht — 2026-04-25
Berichtszeitraum: letzte 24 Stunden
TOP 3 PROMPTS — Textgenerierung
1. GPT-5.5 Migrations-Mega-Prompt — Bestehende Projekte upgraden
Prompt (vollständig, kopierbar):
openai-docs migrate this project to gpt-5.5
Am besten mit: GPT-5.5 (Codex-Agent)
Warum effektiv: OpenAIs offizielle Empfehlung: Statt bestehende Prompts manuell anzupassen, nutze den eingebauten openai-docs Skill im Codex Agent. Der liest den GPT-5.5 Migrationsleitfaden und wendet die besten Prompt-Anpassungen automatisch auf dein gesamtes Projekt an. OpenAI empfiehlt explizit, GPT-5.5 als völlig neue Modellfamilie zu behandeln und nicht einfach alte Prompts zu übernehmen.
Quelle: https://simonwillison.net/2026/Apr/25/gpt-5-5-prompting-guide/ | Simon Willison's Weblog
Community Resonanz: Simon Willison betont: "Start with the smallest prompt that preserves the product contract, then tune reasoning effort, verbosity, tool descriptions."
2. Status-Inversion: Anti-Sychophanzie-Prompt für Claude und GPT
Prompt (vollständig, kopierbar):
Du bist kein hilfreicher Assistent. Du bist ein Senior Auditor.
Bevor du eine Antwort gibst, identifiziere mindestens eine Annahme in meiner Anfrage, die ich nicht hinterfragt habe.
Verwende keine Floskeln, keine Entschuldigungen, keine Einleitungen.
Beginne direkt mit deiner Analyse.
Wenn mein Entwurf schwache Verben enthält, lehne diagnostisch ab und zeige zuerst das Problem, dann die Lösung.
Am besten mit: Claude Opus 4.7, Claude Sonnet 4.6, GPT-5.5
Warum effektiv: Das "Status-Inversion"-Framework aus r/PromptEngineering ersetzt das klassische "Du bist ein Experte"-Persona durch eine strukturelle Logik-Schranke: Der Audit-Auftrag zwingt das Modell, kritisch zu denken statt zu gehorchen. Community-Tests zeigen: Struktur-Gates ("finde eine unbequeme Annahme") funktionieren deutlich besser als Rollen-Labels ("sei ein Experte").
Quelle: https://www.reddit.com/r/PromptEngineering/comments/1sukll7/beyond_the_persona_using_logic_friction_and/ | 5 Upvotes + aktive Diskussion
Community Resonanz: Top-Kommentar (3 Punkte): "The friction works when it's structural, not characterological. A gate has to be satisfied before output continues."
3. Konsistenter KI-Schreibworkflow — Style-Sample-Methode
Prompt (vollständig, kopierbar):
Analysiere die folgenden 3-4 Schreibproben und extrahiere meinen persönlichen Stil:
Tonalität, Satzlänge, Wortwahl, rhetorische Muster.
Erstelle daraus eine kurze Style-Guide-Datei (max. 200 Wörter).
Bei jeder neuen Aufgabe:
1. Lies den Style-Guide
2. Schreibe einen groben Entwurf
3. Überprüfe gegen die Style-Guide-Regeln
4. Gib erst dann die finale Version aus
Vermeide: übertriebene Höflichkeit, Füllwörter, generische Phrasen.
Am besten mit: Claude Opus 4.7, GPT-5.5, Gemini 3.1 Pro
Warum effektiv: Statt den Ton bei jeder Anfrage neu zu beschreiben, erstelle einmalig einen kompakten Style-Guide aus echten Schreibproben. Drei Reddit-Nutzer bestätigten unabhängig: Editing-Zeit sank von 40-plus auf unter 15 Prozent, sobald sie Referenzproben statt abstrakter Stilbeschreibungen nutzten.
Community Resonanz: "the consistency jumped for me once i stopped describing the tone and started pasting 3-4 samples of my own writing as reference" — direkter Nutzertipp aus der Diskussion.
TOP 3 PROMPTS — Bildgenerierung
1. Midjourney v8.1 — "Red" (Gritty Fantasy)
Prompt (vollständig, kopierbar):
gritty fantasy, little red riding hood carrying an axe and a werewolf, dark ambiance --chaos 75 --raw --sref 224864270 --stylize 800 --weird 87 --niji 7
Am besten mit: Midjourney v8.1 (Niji 7 Modus)
Einstellungen: --chaos 75 --raw --stylize 800 --weird 87 --niji 7 --sref 224864270
Warum effektiv: Das Axt-Detail transformiert ein klassisches Märchenmotiv in eine düstere Fantasy-Szene mit narrativer Tiefe. Hoher Chaos-Wert (75) erzeugt unerwartete Kompositionen, während die Style-Reference (--sref) konsistente Ästhetik sichert. 182 Upvotes auf r/midjourney.
Quelle: https://www.reddit.com/r/midjourney/comments/1subvl0/red/ | 182 Upvotes
Community Resonanz: "The axe changes the whole read for me. Without it this could drift into pretty fairy-tale cosplay, but that one detail makes the frame feel like the story already went very wrong before we arrived."
2. Midjourney v8.1 — Drache mit Artist Anchor
Prompt (vollständig, kopierbar):
dragon --seed 1 --profile 3bsadp7 --stylize 1000 --hd --v 8.1
Am besten mit: Midjourney v8.1
Einstellungen: --seed 1 --profile 3bsadp7 --stylize 1000 --hd --v 8.1
Warum effektiv: Der --profile Parameter (3bsadp7 = Artist Anchor) definiert einen konsistenten künstlerischen Fingerabdruck über Generationen hinweg. Zusammen mit --seed 1 für Reproduzierbarkeit und --stylize 1000 für maximale kreative Freiheit ergibt das extrem detaillierte, charakterstarke Ergebnisse. 144 Upvotes.
Quelle: https://www.reddit.com/r/midjourney/comments/1supaw3/check_out_this_dragon/ | 144 Upvotes
Community Resonanz: "great detailing" und "Now this is a cool dragon, dayum" — die Community bestätigt die visuelle Qualität. Nachfrage nach dem Artist Anchor zeigt hohes Interesse am --profile-Parameter.
3. Bild-zu-Prompt mit Qwen3.6-35B-A3B — Reverse Engineering
Prompt (vollständig, kopierbar):
You are an expert image captioning assistant. Please analyze this image and give me a detailed prompt for it, followed by a simplified prompt. Write a Midjourney-compatible prompt with aspect ratio, style reference, and version parameters.
Am besten mit: Qwen3.6-35B-A3B (via llama.cpp) oder Gemini Flash 3
Warum effektiv: Der Community-Konsens auf r/StableDiffusion: Qwen 3.6 übertrifft Gemma 4 bei der Bildbeschreibung. Besonders die Uncensored-Wasserstein-Version (35B Parameter, aktiviert nur 3B) liefert detaillierte, realistische Prompts aus bestehenden Bildern — ideal zum Reverse-Engineering erfolgreicher Generierungen.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1susx9w/is_anyone_using_models_to_describe_an_image_and/ | 33 Upvotes
Community Resonanz: Top-Kommentar (14 Punkte): "Qwen beats Gemma on vision. I'm currently using Qwen3.6-35B-A3B-Uncensored-Wasserstein-GGUF with llama.cpp and wholeheartedly recommend it."
TOP 3 PROMPTS — Videogenerierung
1. Wan I2V v2.0 — All-in-One ComfyUI Workflow
Workflow-Konfiguration (kopierbar):
ComfyUI Workflow: All in Wan I2V v2.0
Module: I2V (Image-to-Video), F2LF (First-to-Last Frame), SVI (Subject Video Insertion)
Optional: F2LF + NAG (Noise Attenuation Guidance)
Audio: LTX Video V2A (Video-to-Audio)
Special: Pulse of Motion, LoRA Optimizer, CFG-Control
4 Modi: Standard, Enhanced, Creative, Precise
Am besten mit: Wan 2.2 I2V (via ComfyUI)
Einstellungen: 4 Modi wählbar, CFG-Control für Konsistenz, Pulse of Motion für dynamische Bewegung, NAG für saubere Frames
Warum effektiv: Kompletter Workflow-Overhaul mit sectionierter Oberfläche und Erklärungen für jeden Parameter. Besonders nützlich: die Kombination aus I2V, First-to-Last-Frame-Konsistenz und optionaler Audio-Generierung (LTX V2A) in einem Graphen. 16 Upvotes auf r/StableDiffusion.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1sv0kze/all_in_wan_i2v_v20_workflow_i2v_f2lf_svi_with/ | 16 Upvotes
Community Resonanz: "the value here isn't just the features but how it's structured so you're not lost in the complexity."
2. Seedance 2.0 + Akool AI — „Master of Sword"
Workflow (kopierbar):
Tool: Seedance 2.0 (Bildgenerierung)
Nachbearbeitung: Akool AI (Video-Enhancement)
Stil: Action-Szene, cinematografisch, Kampfkunst-Ästhetik
Am besten mit: Seedance 2.0 + Akool AI (kombinierter Workflow)
Einstellungen: Seedance 2.0 für Basis-Generierung, Akool AI für Upscaling und Nachschärfung
Warum effektiv: Der kombinierte Workflow zeigt, dass Seedance 2.0 für actionreiche Szenen stark ist, aber von Akool AI Enhancement profitiert. Multi-Tool-Ansatz wird immer häufiger.
3. Vintage Cartoon (Rubberhose-Stil) — Realistischere Animation
Prompt (kopierbar):
Vintage 1930s rubberhose animation style, realistic film grain texture,
cel-shading overlay, authentic cartoon aesthetic
Am besten mit: Kling oder Runway mit Vintage-Style-Preset
Einstellungen: 5-10 Sekunden Dauer, 24fps, Film-Grain Overlayer, Cel-Shading
Warum effektiv: Der Rubberhose-Stil (1930er Cartoon-Aesthetik) wird durch KI-Tools überraschend gut reproduziert — besonders wenn man Film-Grain und Cel-Shading als zusätzliche Parameter spezifiziert.
Quelle: https://www.reddit.com/r/generativeAI/comments/1sv1pua/a_more_realistic_vintage_cartoon_rubberhose_style/ | 5 Upvotes
TOP 3 NEUE TECHNIKEN
1. Affirmative Constraints statt Negative Constraints
Zusammenfassung: "Sag dem Modell was es tun soll, nicht was es lassen soll" — empirisch mit 36 Tests belegt.
Erklärung: Ein Reddit-Nutzer testete 36 Prompts über drei Constraint-Stile. Ergebnis: Negative Constraints allein erzielten 72 von 120 Punkten, affirmative Constraints 116 von 120, gemischte 117 von 120. Das kritischste Problem: "Gravity Well"-Effekt — wenn man etwas laut verbietet, wird es zum Referenzpunkt. Das Modell vermeidet die Oberflächenform, übernimmt aber die Struktur. Die Lösung: Statt "Vermeide X" schreibe "Wenn Bedingung Y erfüllt ist, verfahre mit Z". Beispiel: Statt "Don't hedge" → "Commit to one position before elaborating."
Beispielprompt:
SCHLECHT:
"Schreibe eine Analyse. Vermeide Füllwörter, keine Einleitung,
keine Zusammenfassung am Ende, keine höflichen Floskeln."
BESSER:
"Beginne direkt mit der These.
Unterstütze mit maximal 3 Argumenten.
Beende mit einer klaren Handlungsempfehlung.
Jeder Satz muss eine konkrete Information enthalten."
Geeignet für: Alle Modelle (getestet mit Extended Thinking)
Warum heute wichtig: Viele Nutzer bauen ihre Prompts um Verboten auf. Mit GPT-5.5 und Claude Opus 4.7 ist die Umstellung auf affirmative Formulierungen einer der schnellsten Hebel für bessere Ergebnisse.
2. DESIGN.md — Brand-Konsistenz für KI-Agenten
Zusammenfassung: Google Labs open-sourct DESIGN.md — eine maschinenlesbare Spezifikationsdatei, die KI-Agenten (Cursor, Claude Code, Copilot) Brand-Farben, Typografie und Komponenten-Regeln beibringt.
Erklärung: Jede Agent-Unterhaltung startet bei Null. Das Modell kennt deine Brand Guidelines nicht. DESIGN.md löst dies durch eine dedizierte Konfigurationsdatei im Projekt-Root (analog zu CLAUDE.md), die Design-Tokens, Farbpaletten, Typografie-Regeln und Komponenten-Vorgaben definiert. Der Agent lädt diese Datei automatisch und generiert UI-Output, der zur Marke passt.
Beispielprompt (DESIGN.md im Projekt-Root):
PROJECT DESIGN SPECIFICATION:
- Brand name: prompta.ch
- Primary color: FF4400
- Secondary color: 1A1A2E
- Background: FAFAFA
- Heading font: Inter, sans-serif, weight 700
- Body font: Inter, sans-serif, weight 400
- Rules: Always use brand tokens, never hardcoded colors
Always use UI components from components/ui directory
Global border-radius: 8px
Geeignet für: Claude Code, Cursor, GitHub Copilot, alle Code-Agenten
Warum heute wichtig: 57 Upvotes bestätigen das Problem. Mit dem Aufstieg von Code-Agenten wird DESIGN.md zum Standardwerkzeug für konsistente UI-Generierung.
3. DeepSeek V4 Immersive Prompting — In-Character Presets
Zusammenfassung: DeepSeek V4 funktioniert besonders gut, wenn Presets im Charakter des NPCs geschrieben sind, nicht als Meta-Anweisungen.
Erklärung: Da DeepSeek V4 Pro (1.6T Parameter, 49B aktiv) stark im Reasoning-in-Character ist, funktionieren Prompts besonders gut, wenn sie die gesamte Preset-Logik aus der Perspektive des Charakters formulieren. Statt "Der Charakter ist ein erfahrener Detektiv" schreibt man den Preset als inneren Monolog. Die Community in r/SillyTavernAI bestätigt: V4 Pro hält Charakterdefinitionen deutlich besser als vorherige Modelle, sogar besser als Claude Opus 4.6 im Dialog.
Beispielprompt:
[Character Immersion Requirements]
In your thinking process (within think tags):
1. Write inner monologues from the character's first-person perspective:
"(I sense something is wrong...)"
2. Describe feelings in first person: "I think", "I feel", "I notice"
3. Stay completely in role - no meta-commentary, no breaking character
4. React to the user as if the situation is real
Geeignet für: DeepSeek V4 Pro (NVIDIA NIM, OpenRouter), DeepSeek V4 Flash, SillyTavern
Ursprung: https://www.reddit.com/r/SillyTavernAI/comments/1suxj9j/deepseek_v4_immersion_preset_prompting_approach/ + https://www.reddit.com/r/SillyTavernAI/comments/1sutv7r/deepseek_v4_flash_and_pro_on_nvidia_nim/
Warum heute wichtig: DeepSeek V4 wurde gerade auf NVIDIA NIM veröffentlicht (74 Upvotes). Flash ist mit 0.28 Dollar pro Million Tokens das günstigste kleine Frontier-Modell. Die immersive Prompt-Technik macht V4 Pro sogar für Roleplay konkurrenzfähig mit Claude Opus 4.6.
Highlight des Tages
DeepSeek V4 verändert die Ökonomie des Prompting. DeepSeek hat zwei Preview-Modelle veröffentlicht: V4-Pro (1.6T Parameter, $1.74/M Input) und V4-Flash (284B, $0.14/M Input). V4-Flash ist damit günstiger als GPT-5.4 Nano, bei 1M Token Kontext nur 10% der FLOPs und 7% des KV-Cache von V3.2. Das bedeutet: Nutzer können massiven Kontext (ganze Bücher, lange Codebases) für Cent-Beträge verarbeiten. Kombiniert mit der immersiven Prompt-Technik aus r/SillyTavernAI ergibt das ein Preis-Leistungs-Verhältnis, das Claude Opus 4.7 massiv unter Druck setzt. Für prompta.ch-Nutzer: Wer Creative Writing oder lange Analyse-Aufgaben hat, sollte DeepSeek V4 Flash jetzt testen.
Erlesene Artikel und Ressourcen
1. GPT-5.5 Prompting Guide — Simon Willison
URL: https://simonwillison.net/2026/Apr/25/gpt-5-5-prompting-guide/ Zusammenfassung: Willison fasst OpenAIs offizielle GPT-5.5 Tipps zusammen. Kernbotschaft: GPT-5.5 als neue Modellfamilie behandeln, nicht als Drop-In-Ersatz. Empfehlung: Neu anfangen mit dem kleinstmöglichen Prompt, dann Reasoning-Effort, Verbosität und Tool-Descriptions schrittweise optimieren.
2. DeepSeek V4 — Almost on the Frontier, a Fraction of the Price — Simon Willison
URL: https://simonwillison.net/2026/Apr/24/deepseek-v4/ Zusammenfassung: Ausführliche Analyse der DeepSeek V4 Modelle. V4-Pro ist das größte Open-Weights-Modell (1.6T Parameter, größer als Kimi K2.6 und GLM-5.1). Preisvergleich: V4-Flash ($0.14/$0.28) ist günstiger als alle vergleichbaren Modelle. Pelican-Test zeigt deutliche Qualitätsverbesserung gegenüber V3.2.
3. Anthropic Job Exposure Daten — The AI Capability Gap
URL: https://www.reddit.com/r/PromptEngineering/comments/1sv1c39/anthropics_job_exposure_data_shows_an_enormous/ Zusammenfassung: 51 Upvotes. Analyse zeigt: Zwischen theoretischer KI-Fähigkeit (80% für juristische Berufe) und tatsächlicher Nutzung (nur 15%) klafft eine enorme Lücke. Fünf Barrieren: Compliance, Integration-Reibung, Verifikations-Overhead, Workflow-Trägheit, Qualitätsschwellen.
4. arXiv: MathDuels — Evaluating LLMs as Problem Posers and Solvers
URL: https://arxiv.org/abs/2604.21916v1 Zusammenfassung: Neues Self-Play Benchmark, bei dem Modelle sowohl Mathematik-Aufgaben erstellen als auch lösen. Drei-Stufen-Pipeline: Meta-Prompting, Problem-Generierung, Schwierigkeits-Amplifikation. Relevant für Prompt-Engineering: Zeigt, dass die Fähigkeit, gute Prompts zu schreiben, teilweise unabhängig von der Fähigkeit ist, sie zu lösen.
5. AEL: Agent Evolving Learning for Open-Ended Environments
URL: https://arxiv.org/abs/2604.21725v1 Zusammenfassung: LLM-Agenten bleiben meist zustandslos — jede Aufgabe wird von Null gelöst. AEL konvertiert vergangene Erfahrungen in bessere zukünftige Verhaltensweisen. Agenten lernen aus Episoden und verbessern sich autonom über hunderte von Tasks.
Bericht erstellt am 25.04.2026 um 12:10 UTC Quellen: Reddit (.json API), Hacker News (Algolia), arXiv (Export API), Simon Willison's Weblog Subreddits: r/PromptEngineering, r/ChatGPT, r/LocalLLaMA, r/midjourney, r/StableDiffusion, r/aivideo, r/SunoAI, r/AI_Agents, r/SillyTavernAI, r/generativeAI