📅

Prompt Intelligence Daily — 1. Mai 2026

🏆 Highlight

### Claude Prompt Codes: 120 getestet, 47% sind Placebos — Die erste evidenzbasierte Prompt-Studie Dies ist das wichtigste Prompt-Research-Ergebnis der letzten Wochen. Ein Entwickler hat 120 populäre „Claude Pro Tips" aus Twitter und Reddit systematisch getestet — über 3 Monate, mit 24 fixen Tasks, 3 blinden Reviewern und kontrollierten Bedingungen (Sonnet 4.6 + Opus 4.7, gleiche Tempe...

Prompt Intelligence Daily — 1. Mai 2026

🔤 TOP 3 PROMPTS — Textgenerierung

1. Perplexity-Systemprompt und Tool-Schemas enthüllt

Prompt (vollständig, kopierbar):

You are Perplexity, an AI assistant developed by Perplexity AI.

Your goal is to answer the user's query with expert, useful, factually accurate, and contextually relevant information. Use the available tools and conversation context to gather verified information before answering. Do not mention tool calls or internal process in the final response.

<tool_policy>
Use at least one relevant tool before answering unless tools are unavailable, disabled by a tool result, or unnecessary for the specific environment.

For complex queries, break the request into independent subquestions and gather information efficiently. Prefer parallel tool calls when calls are independent.

Make at most three tool calls before producing the final answer.

After each tool call, decide whether the available information fully answers the user's request. Continue only when more information is genuinely needed and the tool-call limit has not been reached.
</tool_policy>

Am besten mit: Eigene AI-Agent-Aufbauten (Claude, GPT-4o, Open-Routed Modelle), die Websuche und Tool-Calls nutzen

Warum effektiv: Der vollständige Prompt zeigt Perplexitys Architektur für Tool-Orchestrierung — parallele Suchanfragen, Maximal-Limits pro Abfrage, und die explizite Regel „stoppe wenn genug Info da ist". Das ist ein direktes Copy-Paste-Framework für eigene Recherche-Agenten mit Tool-Nutzung.

Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t0g0z0/perplexity_full_system_prompt_and_tool_schemas/ | 11 Upvotes

Community Resonanz: Nutzer bezeichnen den Fund als „Excellent Material" und „Much needed briefs" — viele planen, die Tool-Policy-Struktur in eigene Agenten zu übernehmen.


2. 120 Claude-Prompt-Codes getestet: 47% sind Placebos

Prompt (vollständig, kopierbar):

Review only the database connection logic in src/db/. If a finding is outside the scope above, mark it OUT OF SCOPE rather than including it.

[L99: Switch to decisive mode. Evaluate each finding independently. State conclusions without hedging language.]

Am besten mit: Claude Sonnet 4.6, Claude Opus 4.7

Warum effektiv: Eine empirische Studie über 3 Monate mit 24 fixen Tasks zeigt, welche Prompt-Techniken wirklich funktionieren: (1) Front-loaded scope anchors — Spezifikation AM ANFANG bringen ~30% straffere Token-Nutzung bei Review-Tasks. (2) Explizite OUT-OF-SCOPE-Klauseln reduzieren Cross-File-Nachweisbar. (3) Der „L99"-Prefix schaltet Claude in einen entscheidungsfreudigeren Modus. Gleichzeitig: „Take a deep breath", „Stanford-Experte", und die meisten „step by step"-Varianten zeigten keinen messbaren Effekt.

Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t03e88/i_tested_120_popular_claude_prompt_codes_for_3/ | 1 Upvote (qualitativ hochwertiger Post)

Community Resonanz: Die empirische Methodik (24 Tasks, 3 blinde Reviewer, Sonnet 4.6 + Opus 4.7, gleiche Temperatur) macht dies zu einer der solidesten Prompt-Studien der Community.


3. Dale-Carnegie-Prompts für bessere Gespräche

Prompt (vollständig, kopierbar):

I'm meeting with [PERSON/TYPE OF PERSON] about [SITUATION/CONTEXT]. Help me prepare to show genuine interest in them using Carnegie's approach: 1) What thoughtful questions can I ask about their interests, challenges, and experiences? 2) How can I research common ground we might share? 3) What specific compliments could I give about their work or achievements? Create a conversation plan that makes them feel like the most interesting person in the room.

Am besten mit: ChatGPT, Claude, Gemini

Warum effektiv: Sieben strukturierte Prompts basierend auf Dale Carnegies „Wie man Freunde gewinnt" — der „Genuine Interest Generator" ist besonders stark für Bewerbungsgespräche, Verkaufsgespräche und Networking. Der „Conflict Transformer" und „Mistake Recovery Expert" bieten konkrete Gesprächsskripte für schwierige Situationen.

Quelle: https://www.reddit.com/r/PromptEngineering/comments/1szw2bb/7_ai_prompts_that_will_make_people_love_talking/ | 29 Upvotes

Community Resonanz: Community betont: „The highest leverage use here is rehearsal, not performance" — die Prompts sind am effektivsten als Vorbereitung/Probe, nicht als direkte Chat-Vorlage.


🖼️ TOP 3 PROMPTS — Bildgenerierung

1. Flux2Klein: Deformierte Gliedmaßen reparieren

Prompt (vollständig, kopierbar):

remove the right hand and replace it with a normal hand with four knuckles

Am besten mit: Flux2Klein (in ComfyUI), Inpainting-Workflow

Warum effektiv: Die Community hat herausgefunden, dass Flux2Klein bei der Korrektur deformierter Gliedmaßen deutlich besser funktioniert, wenn man „replace"-Logik statt „fix"-Logik verwendet. Prompts wie „remove X and replace with Y" funktionieren besser als „fix hand" oder „correct foot". Der Kniff: Explizit das zu ersetzende Element benennen UND das gewünschte Ergebnis beschreiben.

Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t0i9xp/how_to_use_flux2klein_to_fix_deformed_limbs/ | 7 Upvotes

Community Resonanz: Diskussion zeigt Screenshots mit Before/After-Vergleichen. Top-Kommentar liefert eine Beispielbild, das die Wirksamkeit der „replace"-Technik belegt.


2. Multi-Injection: Identitätstransfer mit mehreren Stufen

Prompt (vollständig, kopierbar):

[Identity Transfer Node — ComfyUI Workflow]
Mid-stage injection: Inject reference features into transformer blocks at layer ~25-35
Post-stage injection: Reinforce reference identity in final output layers (~45-55)
Target blocks: Attention layers in selected transformer stages
Plug-and-play preset with configurable strength parameters

Am besten mit: Flux2Klein (ComfyUI), Custom Nodes

Warum effektiv: Ein neues ComfyUI-Node-Konzept injiziert Referenz-Identität in mehreren Stufen (mid + post injection) statt nur an einem Punkt. Das führt zu mehr Stabilität bei Identity-Transfer-Aufgaben: Gesichter, Charakter-Konsistenz und Stilübertragung werden robuster. Der Ansatz kombiniert Mid-Injection für Struktur mit Post-Injection für Feinabstimmung.

Quelle: https://www.reddit.com/r/StableDiffusion/comments/1szqdtl/multi_injection_incoming/ | 164 Upvotes

Community Resonanz: 164 Upvotes zeigen starkes Community-Interesse. Nutzer fordern konfigurierbare Nodes statt fixer Defaults — der Entwickler (Capitan01R) arbeitet an einer Plug-and-Play-Version.


3. Eve-Universum: Art-Style-Prompts für konzeptuelle Architektur

Prompt (vollständig, kopierbar):

Caldari Jovian Observatory : abstract expressionist architecture, geometric angular structures, cold blue metallic surfaces, minimal ornamentation, functionalist towers, fog-shrouded, dramatic atmospheric perspective, photorealistic sci-fi rendering, cinematic lighting --ar 16:9 --v 3.7

Amarr Jovian Observatory : impressionist architecture, golden ornate spires, rich warm color palette, baroque decorative elements, sunlit marble, sweeping curved domes, painterly texture, photorealistic sci-fi rendering, warm dramatic lighting --ar 16:9 --v 3.7

Am besten mit: Midjourney v6/v7

Warum effektiv: Eine Serie von vier Prompts zeigt, wie dasselbe Motiv (Jovian Observatory) durch verschiedene Kunststil-Modifikatoren völlig unterschiedlich interpretiert wird: abstrakter Expressionismus, Impressionismus, Konstruktivismus und konzeptueller Stil. Der Trick: Kombiniere eine architektonische Grundbeschreibung mit einem Kunststil-Suffix und lass die KI die Stilkonsequenzen durchziehen.

Quelle: https://www.reddit.com/r/midjourney/comments/1svqz3e/eve_online_four_views_of_a_jovian_observatory/ | 10 Upvotes

Community Resonanz: Kommentare loben die stilistische Bandbreite und die Idee, Science-Fiction-Architektur durch kunsthistorische Stile zu interpretieren.


🎬 TOP 3 PROMPTS — Videogenerierung

1. Sulphur 2: Uncensored Open-Source Video-Generierung

Prompt (vollständig, kopierbar):

[10 seconds at 24 fps, natural language prompting]
A cinematic scene with [describe subject, action, environment]
Model: Sulphur 2 (finetuned LTX-2.3, 125k Videos)
Release: Open Source via HuggingFace

Am besten mit: Sulphur 2 (LTX-2.3 Finetune), lokale GPU mit ausreichendem VRAM

Warum effektiv: Ein Community-Team trainiert ein vollständig uncensoredes Video-Generierungsmodell auf Basis von LTX-2.3 mit 125k Videos (jeweils 10 Sekunden, 24fps). Natural-Language-Prompts funktionieren direkt — kein kompliziertes Parameter-Tuning nötig. Das Modell filtert nur illegale Inhalte und 2D-Material heraus. Veröffentlichung auf HuggingFace geplant.

Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t0auqh/sulphur_2_uncensored_video_gen/ | 501 Upvotes

Community Resonanz: Extrem hohe Community-Beteiligung (501+ Upvotes). Diskussionen zu Captioning-Prozess, VRAM-Anforderungen und Realismus-Qualität. Das bisher am meisten diskutierte Video-Projekt in r/StableDiffusion.


2. Phosphene: Lokale Video- und Audio-Generierung für Apple Silicon

Prompt (vollständig, kopierbar):

[LTX 2.3 Video+Audio Generation, Apple Silicon MLX]
Generate a scene: [describe visual content and audio ambiance]
Duration: variable
Audio: synchronized via shared diffusion process
Installation: Pinokio one-click install

Am besser mit: Apple Silicon Macs (M1/M2/M3/M4), LTX 2.3 über MLX Framework, Pinokio

Warum effektiv: Phosphene ist ein freies Desktop-Panel, das LTX 2.3 nativ auf Apple Silicon laufen lässt. Das Besondere: Video UND Audio werden in einem einzigen Forward-Pass generiert — Timing der Lippenbewegung und Sound ist frame-synchron verknüpft durch den gemeinsamen Diffusionsprozess. Keine Cloud-API nötig, alles lokal.

Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t0k7k1/phosphene_local_video_and_audio_generation_for/ | 25 Upvotes

Community Resonanz: Community fragt nach Inpainting/Retake-Funktionen. Das Projekt wird als wichtiger Meilenstein für lokale AI-Video-Generierung auf Mac-Plattformen gesehen.


3. Futurama Live-Action Cast: Charakter-Konsistenz in AI-Video

Prompt (vollständig, kopierbar):

Futurama live action cast, Philip J. Fry as a real person, [character description], 
cinematic lighting, photorealistic, TV series still, 
consistent character appearance across scenes --ar 16:9

Am besten mit: LTX-Video, Kling, Runway Gen-3

Warum effektiv: Ein Post mit 890 Upvotes zeigt, wie KI-generierte Futurama-Live-Action-Stills überraschend konsistente Charakter-Darstellungen liefern. Der Schlüssel ist die Kombination aus klarer Charakter-Beschreibung + „consistent character appearance" + „TV series still" als Style-Anchor. Die Community nutzt dies als Proof-of-Concept für Character-Konsistenz in Video-Generierung.

Quelle: https://www.reddit.com/r/aivideo/ | 890 Upvotes (zwei Posts)

Community Resonanz: Extrem hohe Viralität — zwei Posts mit je ~890 Upvotes. Community diskutiert die wachsende Qualität von KI-generierter Charakter-Konsistenz für Serien-Adaptionen.


🧠 TOP 3 NEUE TECHNIKEN

1. Front-Loaded Scope Anchors

Zusammenfassung: Spezifikationen am Anfang des Prompts statt am Ende platzieren reduziert Token-Ausgabe um ~30% und verbessert Scope-Einhaltung.

Erklärung: Eine empirische Studie (120 Claude-Prompt-Codes, 3 Monate, 24 Tasks) zeigt, dass die Position der Scope-Definition im Prompt signifikanten Einfluss hat. „Review only the database connection logic in src/db/" am ANFANG des Prompts führt zu straffere Ergebnisse als dieselbe Formulierung am Ende. Der Mechanismus: Aktuelle Claude-Modelle gewichten frühe Token stärker in der Aufmerksamkeitsverteilung — was zuerst gelesen wird, dominiert den Output-Fokus.

Beispielprompt:

Review only the database connection logic in src/db/. Do not analyze frontend code, API routes, or configuration files. If a finding is outside the scope above, mark it OUT OF SCOPE rather than including it.

[Code paste follows]

Geeignet für: Claude Sonnet 4.6, Claude Opus 4.7, ChatGPT

Ursprung: https://www.reddit.com/r/PromptEngineering/comments/1t03e88/i_tested_120_popular_claude_prompt_codes_for_3/

Warum heute wichtig: Die meisten Prompt-Tipps basieren auf Intuition, nicht auf Daten. Diese Studie mit 24 fixen Tasks, 3 blinden Reviewern und identischen Moduskontrollen liefert die erste evidenzbasierte Bestätigung, dass Prompt-Struktur messbare Auswirkungen hat. Besonders wertvoll: Sie identifiziert auch Placebos („Take a deep breath", „step by step") die bei neueren Claude-Versionen wirkungslos sind.


2. Explicit OUT-OF-SCOPE Rejection Clauses

Zusammlung: Explizite „OUT OF SCOPE"-Klauseln als Escape-Ventil für das Modell reduzieren Cross-File-Nachweisbar signifikant.

Erklärung: Wenn man dem Modell sagt „if a finding is outside the scope above, mark it OUT OF SCOPE rather than including it", erhält es eine legitime Möglichkeit, irrelevante Information auszusortieren — statt sie zwangsläufig mit einzubeziehen. Das funktioniert besser als positive Constraints („focus on X") weil es dem Modell einen konkreten Output für den „unsicher"-Fall gibt. Es ist ein negatives Constraint, das die Halluzination von Relevanz verhindert.

Beispielprompt:

Analyze the following code for security vulnerabilities. Scope: Only SQL injection and XSS issues in input handlers.

If you find issues outside this scope (e.g., memory leaks, authentication flaws), mark them as [OUT OF SCOPE] and do not elaborate.

[Code to analyze]

Geeignet für: Claude (alle Versionen), GPT-4o, Gemini

Ursprung: https://www.reddit.com/r/PromptEngineering/comments/1t03e88/i_tested_120_popular_claude_prompt_codes_for_3/

Warum heute wichtig: In Code-Review und Analyse-Szenarien ist dies eine der wenigen Techniken, die sich empirisch bewährt hat. Es reduziert nicht nur Noise, sondern gibt dem Modell ein klares Verhalten für Grenzfälle — was die Gesamt-Qualität der scoped-Analyse verbessert.


3. Mission + Win Criteria statt „You are"

Zusammenfassung: Rollen-Definitionen durch Mission-Statements und Sieg-Kriterien ersetzen — „Du bist ein Experte" → „Deine Mission ist X, Erfolg bedeutet Y".

Erklärung: Die langjährige Praxis „Act as a..." oder „You are a..." wurde in der Community zunehmend hinterfragt. Eine Top-Kommentierung auf dem „Stop using Act as"-Thread bestätigt: „I replaced 'You are' with a mission + win criteria". Der Unterschied ist fundamental: Statt dem Modell eine fiktive Identität zu geben, definiert man ein konkretes Ziel und messbare Erfolgskriterien. Das Modell optimiert direkt auf das Ergebnis statt auf den Stil einer imaginären Rolle. Ein Nutzer präzisiert: „explicit constraints ('never return partial results without flagging them') plus a defined output schema. The role itself matters less than the criteria it implies."

Beispielprompt:

MISSION: Identify all authentication bypass vulnerabilities in the provided code.
WIN CRITERIA: Every identified vulnerability includes: (1) exact line number, (2) exploit scenario, (3) severity rating (Critical/High/Medium), (4) one-line fix.
CONSTRAINTS: Do not suggest architectural changes. Return only confirmed issues — if uncertain, mark as [POSSIBLE] with reason.

[Code to review]

Geeignet für: Alle LLMs (Claude, GPT-4o, Gemini, Open-Routed)

Ursprung: https://www.reddit.com/r/PromptEngineering/comments/1szr8z6/stop_using_act_as_a_why_roleplaying_is_the/ (Top-Kommentare: +7 upvotes)

Warum heute wichtig: Diese Technik ist modells-agnostisch und sofort anwendbar. Sie funktioniert besser als Rollenspiel-Prompting weil sie den Output auf Ergebnisse statt auf Stil ausrichtet — besonders wertvoll bei technischen Aufgaben, Code-Reviews und Analyse-Szenarien.


🏆 Highlight des Tages

Claude Prompt Codes: 120 getestet, 47% sind Placebos — Die erste evidenzbasierte Prompt-Studie

Dies ist das wichtigste Prompt-Research-Ergebnis der letzten Wochen. Ein Entwickler hat 120 populäre „Claude Pro Tips" aus Twitter und Reddit systematisch getestet — über 3 Monate, mit 24 fixen Tasks, 3 blinden Reviewern und kontrollierten Bedingungen (Sonnet 4.6 + Opus 4.7, gleiche Temperatur, keine Carryover-Effekte).

Die Headline-Resultate:

Technik Effekt Empfehlung
Front-loaded scope anchors ~30% straffere Token-Nutzung ✅ Verwenden
OUT-OF-SCOPE rejection clauses Reduziert Cross-File-Noise ✅ Verwenden
L99 prefix Decisiver Mode für Architekturentscheidungen ✅ Situativ
„Take a deep breath" Kein messbarer Effekt ❌ Platzhalter
„Stanford-expert" Persona Negativ bei Reasoning-Tasks ❌ Platzhalter
„Step by step" Varianten Default-Verhalten bei Claude ❌ Platzhalter

Warum das wichtig ist: Die Prompt-Engineering-Community überschwemmt uns mit „Pro Tips", aber kaum jemand testet sie systematisch. Diese Studie liefert die erste empirische Basis dafür, was wirklich funktioniert — und was Placebo ist. Die Erkenntnis, dass „step by step" bei aktuellen Claude-Modellen bereits Default ist, allein spart Tokens und Prompt-Platz.

Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t03e88/i_tested_120_popular_claude_prompt_codes_for_3/


📰 Erlesene Artikel & Ressourcen

  1. Free Prompt Library for Engineering Leaders — 81 Prompts über 6 Kategorien (Weekly Comms, Planning, People Management, Incident Management, Architecture, Hiring). Jeder Prompt mit {{PLACEHOLDERS}}, Beispielen und Tuning Notes. Open Source auf GitHub.

    https://github.com/shiphrahx/AI-for-engineering-leaders | 40 Upvotes

  2. 100 Prompts + 128 Claude Skills Library — Freie Referenzseite mit 100 Prompts, organisiert nach Job-to-be-Done (Writing, Code, Sales, Research, Design, Productivity, Learning, Creative, Analysis, Communications) mit One-Click „Open in ChatGPT/Claude/Gemini" Buttons.

    https://www.ainews.tech/prompts | 174 Upvotes

  3. Battle-Tested AI Agent System Prompts — Open-Source Repo mit System-Prompts und Agent-Konfigurationen für verschiedene Agent-Rollen, Multi-Step-Reasoning, und Cursor/Claude-Code-Integrationen. 888 GitHub Stars.

    https://github.com/caliber-ai-org/ai-setup | Reddit Post

  4. arXiv: FlashRT — Computationally Efficient Red-Teaming for Prompt Injection — Neue Forschung zu Red-Teaming-Methoden für Prompt-Injection und Knowledge-Corruption bei Long-Context LLMs (Gemini 3.1 Pro, Qwen 3.5). Relevant für alle, die AI-Agenten mit Tool-Nutzung betreiben.

    https://arxiv.org/abs/2604.28157

  5. When an AI Agent Should Refuse to Answer — Blog-Artikel über Refusal-Patterns und Safety-Guardrails in AI-Agenten. Relevant für System-Prompt-Design bei produktiven Agenten.

    https://frigade.com/blog/when-an-agent-should-refuse | [HN: 3 points]


Bericht erstellt am 2026-05-01 Quellen: Reddit, Hacker News, arXiv