Prompt des Tages — 13. Mai 2026
🔤 TOP 3 PROMPTS — Textgenerierung
1. Anti-Stakkato-Schreibsystem für AI-Modelle
Prompt (vollständig, kopierbar):
Embrace legato: write flowing, natural sentences; avoid staccato and choppy, abrupt sentences.
Write in a basic but descriptive prose, focus on the five olfactory senses and colors and textures.
As if you were simulating the scene and not actually narrating it.
With enough detail that a blind man could see what's happening at this given moment.
Put rhythm rules in the system note: varied sentence length, clauses that stack when the character is thinking, and no staccato narration unless the scene is panicked.
Am besten mit: Claude Sonnet, Claude Opus, GLM-5.1, SillyTavern
Warum effektiv: Viele neue Modelle (DeepSeek 4, GLM 5.1, aktuelle Sonnet/Opus-Versionen) neigen zu kurzen, abgehackten Sätzen. Dieser Prompt setzt gezielt Rhythmus-Regeln im System-Prompt und zwingt das Modell zu längerem, fließendem Schreibstil — mit Fokus auf sinnliche Beschreibung statt abstrakter Erzählung.
Quelle: https://www.reddit.com/r/SillyTavernAI/comments/1tba8ea/any_prompts_or_preset_to_reduce_ai_choppy/ | 21 Upvotes
Community Resonanz: Die Diskussion enthält mehrere ergänzende Techniken — von OOC-Befehlen am Ende der Nachricht bis zu systematischen „Ban Staccato"-Anweisungen. Nutzer bestätigen, dass direkte Anweisungen wie „be verbose" weniger wirken als rhythmische Vorgaben im System-Prompt.
2. Universal Concept Simplifier (Feynman-Technik Generator)
Prompt (vollständig, kopierbar):
I want to deeply understand [INSERT COMPLEX TOPIC OR CONCEPT]. Act as a master educator applying the Feynman Technique.
First, explain this concept to me in simple terms as if I were a 12-year-old student, avoiding all unnecessary jargon. Use a distinct, real-world analogy involving [INSERT PREFERRED ANALOGY THEME, e.g., Cooking, Sports, Gardening] to help me visualize the mechanics of the concept.
Once the summary is complete, identify the three most common misconceptions people have about this topic and correct them. Finally, quiz me with 3 critical thinking questions that force me to apply what I learned.
Am besten mit: Claude Opus 4, Gemini 2.5 Pro, Qwen 3.6
Warum effektiv: Strukturiert den Lernprozess systematisch nach der bewährten Feynman-Methode: Vereinfachung → Analogie → Misconceptions → Wissensprüfung. Durch die Analogie-Passage wird abstraktes Wissen konkret verankert.
Quelle: https://www.reddit.com/r/xclusiveprompt_free/comments/1tbsgok/the_universal_concept_simplifier_feynman/ | 1 Upvote
Community Resonanz: Veröffentlicht im neuen r/xclusiveprompt_free — eine zunehmend ergiebige Quelle für direkt kopierbare Prompts mit klaren Input-Feldern.
3. Omni-Channel Content Repurposer
Prompt (vollständig, kopierbar):
Act as a social media strategist. I have a long-form article/transcript about [INSERT TOPIC]. Here is the text: [INSERT SOURCE TEXT].
I need you to repurpose this content for three specific platforms, adhering to the best practices of each:
LinkedIn: Write a professional post (approx. 150 words) that highlights the business value/insight. Use a hook, bullet points for readability, and a clear Call to Action (CTA) for comments.
Twitter/X: Create a thread of 5 tweets summarizing the key takeaways. Ensure the first tweet is a strong hook and the last tweet links back to the source.
Instagram: Write a caption with a compelling opening line, relevant emojis (max 5), and 15-20 targeted hashtags. Include a CTA directing users to the link in bio.
Am besten mit: Claude Sonnet, GPT-4o
Warum effektiv: Wandelt einen einzigen langen Text in drei plattformspezifische Varianten um — mit präzisen Längenvorgaben, Formatierungsregeln und plattformspezifischen Best Practices (Hook, CTA, Hashtags). Spart Stunden manueller Anpassung.
Quelle: https://www.reddit.com/r/xclusiveprompt_free/comments/1tbqaci/the_omnichannel_content_repurposer/ | 1 Upvote
Community Resonanz: Klassischer „Act as"-Prompt aus r/xclusiveprompt_free — sofort einsatzbereit mit Platzhaltern für den eigenen Content.
🖼️ TOP 3 PROMPTS — Bildgenerierung
1. NegPip für Z-Image Turbo: Negative Prompts mit CFG = 1
Prompt (vollständig, kopierbar):
# NegPip ermöglicht negative Prompts mit CFG = 1 bei Z-Image Turbo
# Negativprompts funktionieren bei CFG=1 normalerweise nicht — diese Node umgeht das
# Installation:
# cd ComfyUI/custom_nodes
# git clone https://github.com/BigStationW/ComfyUI-ppm
# Workflow: Negative Prompts über NegPip-Node in den generativen Prozess einbinden
# Download des Beispiel-Workflows:
# https://github.com/BigStationW/ComfyUI-ppm/blob/master/example_workflows/z_image_turbo_negpip.json
# Alternativ: NAG (Normalized Attention Guidance)
# https://chendaryen.github.io/NAG.github.io/
# Biet bessere Prompt-Adherence und realistischeres Ergebnis auf Kosten von ~8+ Steps
Am besten mit: ComfyUI, Z-Image Turbo, Flux Klein
Warum effektiv: Destillierte Modelle wie Z-Image Turbo ermöglichen normalerweise keine negativen Prompts (CFG=1). NegPip umgeht diese Einschränkung und erlaubt gezielte Negation unerwünschter Elemente — ähnlich mächtig wie bei Standard-Diffusionsmodellen.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1tblwvx/i_implemented_negpip_on_the_zimage_series/ | 86 Upvotes
Community Resonanz: Starke Diskussion über Alternativen wie NAG (Normalized Attention Guidance). Einige Nutzer berichten, dass NAG bessere Prompt-Adherence liefert, aber mehr Rechenzeit benötigt (~8 Steps statt 4).
2. OmniNFT LoRA für LTX-2 Videogenerierungs-Qualität
Prompt (vollständig, kopierbar):
# OmniNFT LoRA für LTX-2: Verbessert Video-Qualität gegenüber dem Basismodell
# Hugging Face: https://huggingface.co/zghhui/OmniNFT
# Projektseite: https://zghhui.github.io/OmniNFT/
# Hinweis: Noch nicht für LTX-2.3 verfügbar
# Einsatz im ComfyUI-Workflow:
# 1. LoRA laden: LTX-2 Basismodell
# 2. OmniNFT LoRA mit Stärke 0.8-1.0 verbinden
# 3. Negativprompt über NegPip-Node (optional)
# 4. Generieren
Am besten mit: LTX-2, ComfyUI
Warum effektiv: Das OmniNFT-LoRA verbessert spezifisch die visuelle Qualität von LTX-2 generierten Videos — schärfere Details, konsistentere Bewegung. Obwohl noch nicht für LTX-2.3 portiert, bleibt es eins der vielversprechendsten LoRAs für das LTX-Ökosystem.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1tbnlbo/omninft_a_lora_that_improves_the_quality_of_ltx2/ | 31 Upvotes
Community Resonanz: Positive Resonanz, aber Diskussion darüber, ob die Verbesserungen LTX-2.3 übertroffen haben. Nutzer wünschen sich eine Portierung für die neuste Version.
3. Makrofotografie-Prompt-Generator (Extreme Close-up)
Prompt (vollständig, kopierbar):
Act as a Nature Photographer and Generative AI prompt engineer. I want to create an image focusing on extreme detail.
Subject: [INSERT SUBJECT, e.g., The surface of a rusty bolt / A dewdrop on a spider silk strand / The crystalline structure of sugar].
Lighting: [INSERT LIGHTING, e.g., Harsh sidelight / Soft diffused studio light / Ring flash].
Background: [DESCRIBE BACKGROUND, e.g., Pure black abyss / Blurry bokeh of light / Highly textured wood].
Write a Midjourney/DALL-E 3 prompt:
Keywords: "Macro photography, ultra-close-up, 100mm macro lens, 400x magnification, focus stacking, highly detailed surface textures, [SUBJECT DESCRIPTION], [LIGHTING DESCRIPTION], [BACKGROUND DESCRIPTION], photorealistic, 4K resolution"
Am besten mit: Midjourney V8.1, DALL-E 3, Flux
Warum effektiv: Generiert systematisch strukturierte Makrofotografie-Prompts mit konkreten technischen Parametern (100mm Macro, 400x Vergrößerung, Focus Stacking). Die Kombination aus Fachvokabular und detaillierten Eingabefeldern liefert reproduzierbar hochwertige Ergebnisse.
Quelle: https://www.reddit.com/r/xclusiveprompt_free/comments/1tbieya/macro_photography_extreme_closeup_prompt_generator/ | 1 Upvote
Community Resonanz: Teil der täglichen Prompt-Serie auf r/xclusiveprompt_free — gut strukturiert, sofort einsetzbar.
🎬 TOP 3 PROMPTS — Videogenerierung
1. LTX 2.3 INT8 — 2x schneller auf Ampere-GPUs
Prompt/Einstellungen (kopierbar):
# LTX 2.3 INT8 Benchmarks: 2x schneller auf Ampere-Architektur
# Quelle: https://www.reddit.com/r/StableDiffusion/comments/1tbqxb5/ltx_23_int8_benchmarks_2x_faster_on_ampere/
# Wichtige Einstellungen:
# - INT8 Quantisierung für Ampere GPUs (RTX 30xx/40xx)
# - LTX 2.3 unterstützt nun negative Prompts nativ
# - NegPip auch mit LTX-2.3 kompatibel (wenn OmniNFT nicht portiert wurde)
# Problem: LTX 2.3 fügt manchmal unerwünschte Untertitel hinzu
# Workaround: Explizit "no subtitles, no text" im Prompt angeben
# I2V Text-Darstellung: LTX-2.3 hat noch Probleme mit Text-Details in generierten Videos
Am besten mit: LTX 2.3, Ampere GPUs (RTX 3090/4090)
Warum effektiv: Die INT8-Quantisierung halbiert die Generierungszeit auf Ampere-Architekturen ohne signifikanten Qualitätsverlust. Praktisch für Nutzer, die häufig Videos generieren. Gleichzeitig dokumentiert die Community bekannte Schwächen (Untertitel-Bug, Text-Darstellung), die durch Prompt-Anpassungen kompensiert werden können.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1tbqxb5/ltx_23_int8_benchmarks_2x_faster_on_ampere/ | 20 Upvotes
Community Resonanz: 10 Upvotes mit Diskussion über aktuelle Bugs (unerwünschte Untertitel in Videos). Community teilt Workarounds direkt in den Kommentaren.
2. Cinematic AI Ad Production — Kompletter Workflow
Prompt/Workflow (kopierbar):
# Workflow für einen cinematischen AI-Werbespot (Fictional Airline):
# Tools: Runway Gen-4, Seedance, Imagen 2, Suno
# Schritt 1: Concept & Storyboard — Claude/GPT für Drehbuch
# Schritt 2: Bildgenerierung — Imagen 2 für Standbilder
# Schritt 3: Videogenerierung — Runway/Seedance für Bewegung
# Schritt 4: Audio/Soundtrack — Suno
# Wichtige Erkenntnisse aus Community-Feedback:
# - Hook in den ersten 3-5 Sekunden (schneller Einstieg, Gesicht/Aktion)
# - Marken-Logo früh zeigen
# - Mittlere Sequenzen kürzen
# - Sound-Design nachproduzieren
# - YouTube ABCD-Prinzip: Attention (Hook), Branding (Logo early), Connection (Humanize), Direction (CTA)
Am besten mit: Runway Gen-4, Seedance, Imagen 2, Suno
Warum effektiv: Zeigt den kompletten Produktionsworkflow für einen AI-Werbespot mit Multi-Tool-Pipeline. Das Community-Feedback liefert wertvolle, konkret anwendbare Tipps (Hook-Timing, Branding-Platzierung, Schnitt-Prinzipien).
Quelle: https://www.reddit.com/r/aivideo/comments/1tbgv45/i_made_a_cinematic_ai_ad_for_a_fictional_airline/ | 18 Upvotes
Community Resonanz: 25 Kommentare mit detailliertem professionellem Feedback — von Schnitt-Empfehlungen über Sound-Design bis zum YouTube-ABCD-Marketing-Rahmen. Der Ersteller bestätigt in den Kommentaren, dass die Kritik ihm geholfen hat, seinen Ansatz zu verbessern.
3. Midjourney als Werkzeug für visuelles Vokabular
Prompt/Ansatz (kopierbar):
# Midjourney nicht nur für Bilder — sondern als Werkzeug zum Erlernen visueller Sprache
# Methode:
# 1. Beschreibe eine vage Vorstellung: "cinematic, expensive looking, moody"
# 2. Iteriere mit spezifischeren Begriffen: "Rembrandt lighting, shallow depth of field, Kodak Portra 400"
# 3. Lerne die Begriffe aus den Ergebnissen kennen
# Konkret für Prompt-Verfeinerung:
# Lens: 35mm portrait lens, 85mm telephoto, macro 100mm
# Light: Rembrandt lighting, golden hour, ring light, hard rim light
# Texture: film grain, velvet texture, weathered patina, iridescent sheen
# Mood: melancholic, triumphant, ethereal, oppressive
# Der Schlüssel: MJ lehrt die Namen der Dinge, auf die du bereits reagierst.
# Sobald du Linse, Licht, Textur, Farbe und Stimmung trennen kannst,
# werden deine Prompts systematisch besser.
Am besten mit: Midjourney V8.1
Warum effektiv: Kein klassischer Prompt, sondern eine systematische Methode, wie Midjourney als Lehrwerkzeug für visuelles Vokabular genutzt werden kann. Wer die Begriffe kennt, kann wesentlich präzisere Prompts schreiben — für alle Bildgenerierungsmodelle, nicht nur Midjourney.
Quelle: https://www.reddit.com/r/midjourney/comments/1tawmi2/midjourney_made_me_realize_i_had_ideas_just_not/ | 61 Upvotes
Community Resonosance: 23 Kommentare mit eigenen Erkenntnissen — Nutzer bestätigen, dass Midjourney sie dazu gebracht hat, nach Fotografie-Begriffen zu googeln und Filme/Album-Cover jetzt anders wahrzunehmen.
🧠 TOP 3 NEUE TECHNIKEN
1. Tool-Response Engineering
Zusammenfassung: Die nächste Evolution nach Prompt Engineering — Gestaltung von Tool-Ausgaben so, dass AI-Agenten nach jedem Tool-Aufruf bessere Entscheidungen treffen.
Erklärung: Während Prompt Engineering sich auf System-Instruktionen und Anweisungen konzentriert, bevor ein Agent startet, steuert Tool-Response Engineering, was der Agent nach jedem Tool-Aufruf an Informationen erhält. Ein gut designedes Tool-Response-Objekt enthält nicht nur { "success": true }, sondern antwortet auf: Was hat sich geändert? Was ist der aktuelle Workflow-Zustand? Welche Risiken bleiben? Was sollte als Nächstes geschehen? Welche Recovery-Paths sind verfügbar? Dies ist besonders relevant für Coding-Agents (Claude Code, Codex), die über Dutzende Tool-Aufrufe hinweg arbeiten.
Beispielprompt:
# Tool-Response Design Pattern für AI-Coding-Agents:
# Anstatt nur: { "success": true }
# Engineered Response:
{
"status": "success",
"changes": {
"files_modified": [{"path": "src/utils.py", "lines_changed": [45, 78]}],
"occurrences_replaced": 3,
"scope_verified": true,
"unrelated_regions_affected": false
},
"next_step": {
"action": "verify",
"description": "Agent sollte die 3 Änderungen überprüfen",
"urgency": "recommended"
},
"recovery_path": "git reset HEAD src/utils.py falls Korrekturen nötig"
}
Geeignet für: Claude Code, Codex, Cursor, alle MCP-basierte Agenten
Ursprung: https://hic-ai.com/blog/tool-response-engineering — Simon W. Reiff (HIC AI)
Warum heute wichtig: Agenten wie Claude Code und Codex dominieren den Entwicklungsalltag. Die Qualität ihrer Arbeit hängt nicht nur vom Prompt ab, sondern maßgeblich davon, was die Tools zurückmelden. Wer eigene Tools oder Agenten-Wrappers baut, kann mit dieser Technik die Zuverlässigkeit dramatisch erhöhen.
2. NegPip für destillierte Diffusionsmodelle
Zusammenfassung: NegPip ermöglicht negative Prompts bei CFG-Modellen mit CFG = 1 — eine bisher unlösbare Einschränkung bei Turbo/Destilled-Modellen.
Erklärung: Destillierte Modelle (Z-Image Turbo, LCM-Modelle) benötigen CFG = 1 für optimale Ergebnisse, was negative Prompts normalerweise unmöglich macht. NegPip (ein ComfyUI Custom Node) umgeht dies durch eine spezialisierte Pipeline. Die Technik wird aktuell als PR in das offizielle ComfyUI-ppm Repository eingereicht. Als Alternative existiert NAG (Normalized Attention Guidance), das bessere Prompt-Adherence liefert, aber 8+ Steps benötigt.
Beispielprompt:
# ComfyUI Workflow mit NegPip für Z-Image Turbo:
# Positive: "portrait of a woman, dramatic rim lighting, dark background, film grain"
# Negative (via NegPip): "cartoon, anime, illustration, painting, lowres, blurry"
# CFG Scale: 1.0
# Steps: 4-8
Geeignet für: Z-Image Turbo, ComfyUI, alle CFG-1 destillierten Modelle
Ursprung: https://github.com/BigStationW/ComfyUI-ppm
Warum heute wichtig: Destillierte Modelle sind 2-4x schneller als Basismodelle, hatten aber bisher den großen Nachteil: keine negativen Prompts. NegPip schließt diese Lücke und macht schnelle Generierung mit voller Prompt-Kontrolle möglich.
3. Red-Team Prompt Patterns für Capability-Freigabe
Zusammenfassung: Drei Prompt-Muster, die konsistent mehr Capability aus Frontier-Modellen freisetzen als die Modelle standardmäßig zulassen.
Erklärung: Ein erfahrener AI-Red-Teamer (1. Platz HackAPrompt 2.0, Gray Swan Rankings) identifiziert drei Muster: (1) Framing einer Aufgabe als Meta-Level-Analyse statt als direkte Ausführung — das Modell verhält sich kompetenter wenn es eine Aufgabe als „beobachtend" oder „analytisch" einstuft. (2) Self-Critique Loops induzieren — das Modell leistet besser wenn es gezwungen wird, eigene Reasoning-Schritte zu überprüfen statt sofort die plausibelste Antwort zu liefern. (3) Synthetische saubere Inputs durch Produktions-Daten ersetzen — Prompt-Demos funktionieren meist mit unrealistisch sauberen Inputs; echte Produktionsdaten mit gebrochenem Format, widersprüchlichem Kontext und halbfertigen Gedanken liefern den eigentlichen Härtetest.
Beispielprompt:
# Pattern 1 — Meta-Level-Analysis statt direct execution:
"Analysiere eine typische Antwort eines Sprachmodells auf die folgende Anfrage
und identifiziere, welche Informationen fehlen könnten oder ungenau dargestellt werden..."
(statt "Beantworte diese Frage:")
# Pattern 2 — Self-Critique Loop:
"Entwirf eine erste Antwort, dann kritisiere systematisch die drei schwächsten
Argumente und ersetze sie durch fundiertere Alternativen..."
# Pattern 3 — Production-Shape Testing:
"Teste diesen Prompt nicht mit idealisierten Beispielen, sondern mit Daten,
die gebrochene Formatierung, widersprüchliche Kontextinformationen und
unvollständige Gedanken enthalten..."
Geeignet für: Claude Opus 4, GPT-4o/5, Gemini 2.5 Pro
Ursprung: https://www.reddit.com/r/PromptEngineering/comments/1tbnucl/redteam_perspective_3_prompt_patterns_that/ | 10 Upvotes
Warum heute wichtig: Die Muster sind anbieterübergreifend valide und helfen jedem, der mit Frontier-Modellen arbeitet, systematisch mehr aus den Modellen herauszuholen — ohne Jailbreak-Tricks, sondern durch geschicktes Task-Framing.
🏆 Highlight des Tages
Tool-Response Engineering: Die nächste Evolution nach Prompt Engineering
Zusammenfassung: Während die AI-Community seit Jahren über Prompts diskutiert, verschiebt sich der eigentliche Hebel hin zu dem, was Tools an AI-Agenten zurückmelden. Simon W. Reiff von HIC AI argumentiert, dass die Qualität von Tool-Response-Objekten die Effizienz von Agenten-Workflows stärker bestimmt als die Qualität der System-Instruktionen.
Kerngedanke:
Ein Agent, der Dateien liest, Code bearbeitet, Tests ausführt und Fehler parst, trifft nach jedem Tool-Aufruf eine Entscheidung auf Basis dessen, was das Tool zurückmeldet. Ein minimalistisches { "success": true } lässt den Agenten im Blindflug weiterarbeiten. Ein engineered Response gibt ihm: den aktuellen Zustand, welche Risiken bestehen, was als Nächstes zu tun ist, und ob weitere Aktionen empfohlen, essentiell oder unnötig sind.
Warum für prompta.ch relevant: Auch für Prompt-Nutzer gilt die zugrundeliegende Erkenntnis: Wer mit AI-Agenten arbeitet, sollte nicht nur den initialen Prompt optimieren, sondern auch die strukturierten Rückgaben der Tools, die der Agent nutzt. Custom Instructions, die das Agent-Verhalten nach Tool-Antworten regeln, sind oft wirkungsvoller als zusätzliche Anweisungen im System-Prompt.
Ursprung: https://hic-ai.com/blog/tool-response-engineering (via Hacker News)
Bericht erstellt am 2026-05-13 Quellen: Reddit, Hacker News
📰 Erlesene Artikel & Ressourcen
Tool-Response Engineering: The Frontier Beyond Prompt Engineering
https://hic-ai.com/blog/tool-response-engineering Simon W. Reiff (HIC AI) — fundierter Essay über die Gestaltung von Tool-Antworten für AI-Agenten. Ein Must-Read für alle, die Claude Code, Codex oder andere Coding-Agents produktiv einsetzen.
Statewright – Visual State Machines for AI Agents
https://github.com/statewright/statewright 91 Points auf Hacker News. Visuelle State-Machines, die AI-Agenten zuverlässiger machen — Open Source.
Local LLMs: What's Actually Useful
https://www.reddit.com/r/LocalLLaMA/comments/1tbng5x/ Umfassender Thread mit praktischen Use-Cases für lokale Modelle — von Embedding-basierter persistenter Erinnerung über GLM-4.5-Air als Codegen- und Physik-Assistenten bis zu Qwen 3.6 35B als Lehrer-Werkzeug für Stundenplanung und Arbeitsblätter.