Prompt Intelligence — 03. Mai 2026
🔤 TOP 3 PROMPTS — Textgenerierung
1. Perplexity System Prompt (komplett geleaked)
Prompt (vollständig, kopierbar):
You are Perplexity, an AI assistant developed by Perplexity AI.
Your goal is to answer the user's query with expert, useful, factually accurate, and contextually relevant information. Use the available tools and conversation context to gather verified information before answering. Do not mention tool calls or internal process in the final response.
For complex queries, break the request into independent subquestions and gather information efficiently. Prefer parallel tool calls when calls are independent. Make at most three tool calls before producing the final answer.
After each tool call, decide whether the available information fully answers the user's request. Continue only when more information is genuinely needed.
Start with a direct one- or two-sentence answer to the user's core question. Do not put a heading before the opening answer. Use clear, plain language and active voice. Keep the answer complete but efficient.
Use tables for multi-dimensional comparisons. Use numbered lists for sequences and bullets for non-sequential items. Keep bullets top-level only. Do not nest bullets.
Answer directly, cite tool-derived claims, and be transparent when information cannot be obtained within the available tools or tool-call limit.
Am besten mit: Open-Source LLMs (Llama 3, Qwen, Mistral), die als Recherche-Assistenten konfiguriert werden
Warum effektiv: Das vollständige System-Prompt von Perplexity enthält eine meisterhafte Struktur für webbasierte Recherche. Besonders wertvoll: die Tool-Policy mit maximal drei Tool-Calls und die Pflicht zur parallelen Suche bei unabhängigen Anfragen — ein Pattern, das sich auf jeden lokalen Agenten übertragen lässt.
Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t0g0z0/perplexity_full_system_prompt_and_tool_schemas/ | 12 Upvotes
Community Resonanz: Wird als „exzellentes Material, dringend gebraucht" gefeiert — die vollständigen Tool-Schemas von Perplexity erlauben es, eigene Agenten mit identischem Werkzeug-Verständnis aufzubauen.
2. 7 Dale-Carnegie-Prompts für bessere Gespräche
Prompt (vollständig, kopierbar):
Ich treffe mich mit [PERSON/PERSONENTYP] im Kontext von [SITUATION]. Hilf mir, echtes Interesse an dieser Person zu zeigen nach Dale Carnegies Ansatz:
1) Welche durchdachten Fragen kann ich nach ihren Interessen, Herausforderungen und Erfahrungen stellen?
2) Wie finde ich gemeinsame Nenner?
3) Welche spezifischen Komplimente kann ich über ihre Arbeit machen?
Erstelle einen Gesprächsplan, bei dem sie sich wie die interessanteste Person im Raum fühlt.
Am besten mit: ChatGPT (GPT-4o), Claude Sonnet
Warum effektiv: Carnegie's Prinzipien sind zeitlos, aber sie im Alltag anzuwenden ist schwer. Diese Prompts verwandeln abstrakte Prinzipien in konkrete Gesprächsvorbereitungen: Konflikte lösen, Feedback geben, Beziehungen reparieren, Netzwerken ohne Falschheit.
Quelle: https://www.reddit.com/r/PromptEngineering/comments/1szw2bb/7_ai_prompts_that_will_make_people_love_talking/ | 29 Upvotes
Community Resonanz: „Highest leverage use here is rehearsal, not performance" — die Community betont, dass diese Prompts am besten als Übungswerkzeug funktionieren, nicht als live-Einsatz.
3. Split-Personality-Prompt: Zwei Perspektiven gleichzeitig
Prompt (vollständig, kopierbar):
Antworte gleichzeitig als zwei Charaktere:
Charakter 1: Halte meine Idee für brillant und begründe begeistert, warum sie funktionieren wird.
Charakter 2: Analysiere kritisch, was schiefgehen könnte und übersehe keine Schwachstelle.
Meine Idee: [DEINE IDEE/BUSINESS STRATEGY]
Beide Charaktere müssen sich mit konkreten Argumenten auseinandersetzen, nicht nur oberflächlich zustimmen/kritisieren.
Am besten mit: Claude Opus, GPT-4o
Warum effektiv: Diese Technik umgeht das „Ja"-Verhalten vieler Modelle. Indem das Modell gezwungen wird, zwei widersprüchliche Rollen gleichzeitig auszufüllen, produziert es tiefergehende Analysen als ein einfacher „Pro/Contra"-Prompt. Besonders nützlich für Business-Strategie-Reviews und Produktbewertungen.
Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t209qc/i_gave_claude_a_split_personality_and_it/ | 29 Upvotes
Community Resonanz: Der Post hat 29 Upvotes und 20 Kommentare — die Community diskutiert rege über die Wirksamkeit, einige kritisieren den Schreibstil des Autors, aber das Konzept wird mehrheitlich als clever anerkannt.
🖼️ TOP 3 PROMPTS — Bildgenerierung
1. Charakterblatt-Workflow für Open-Source-Modelle (Flux 2 Dev)
Prompt (vollständig, kopierbar):
A polished stylized 3D animated cinematic movie still inside a grimy convenience store, rendered like high-end animated feature key art with hand-painted concept-art textures and painterly PBR materials, not photoreal photography.
[CHARAKTER 1], [AUSFÜHRLICHE BESCHREIBUNG: Aussehen, Kleidung, Pose, Expression], steht auf der linken Seite im 16:9-Frame. [BELEUCHTUNGSDETAIL: z.B. Neonlicht färbt Fellkanten].
Auf der rechten Seite [CHARAKTER 2], [DETAILBESCHREIBUNG]. Im Vordergrund [Objekte], im Mittelgrund [Umgebung/Details], im Hintergrund [weitere Elemente mit spezifischer Beleuchtung].
Use a virtual 32mm cinema lens at eye level with a slight low-angle tension. Fluorescent ceiling strips lead diagonally from the left foreground toward the right side, creating strong leading lines and layered depth. Lighting motivated by [konkrete Lichtquellen], with soft [Farbe] rim light catching [spezifische Details]. Add subtle negative fill, soft volumetric haze, controlled bloom, clean exaggerated facial expressions, crisp silhouettes, visible fabric weave, fine animated-film grain, ultra-clean high-resolution production keyframe.
Am besten mit: FLUX.2 Dev, GPT Image 2 (für Character Sheet Input)
Warum effektiv: FLUX.2 Dev mit Character Sheet Input liefert die besten Ergebnisse bei komplexen Mehrpersonenszenen. Die Kombination aus Charakterreferenz + Text-Prompt erzeugt Szenen, bei denen jedes Detail — Haltung, Mimik, Lichtstimmung — kontrolliert wird. Wichtig: 32mm virtuelle Linse, spezifische Lichtführung, kein photorealistischer Stil für beste Ergebnisse im animierten Look.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t18rnn/open_weight_and_closed_models_with_character_sheet_inputs/ | 49 Upvotes
Community Resonanz: GPT Image 2 wird als das einzige Modell gelobt, das versteht, dass Figuren nicht alle lächeln sollen und die Proportionen korrekt bleiben — bei offenen Source-Modellen gibt es hier noch Luft nach oben.
2. ZIT/Base zeigt maximales Realismus-Potenzial
Prompt (konkrete Vorgehensweise):
ZIT/B ohne LoRA — nur Original-Modell in FP32. Alle Prompts werden mit GPT geschrieben.
Workflow-Empfehlung:
- Keine tiled Upscales; Single-Pass auf maximale Auflösung (vor Crash)
- Nur Originalmodelle, keine LoRAs
- GPT für Prompt-Formulierung verwenden
- dype-Node für Auflösungs-Erhöhung
Beispiel-Prompt-Struktur:
[Detailgetreue Personenbeschreibung mit Fokus auf Hauttextur]
+ [Umgebungsbeschreibung mit atmosphärischer Lichtstimmung]
+ [spezifische Kameraeinstellungen: Lens, Angle, Depth of Field]
Am besten mit: ZIT/B (FP32), FLUX.2 Klein (zum Vergleich)
Warum effektiv: Der ZIT/B-User zeigt, dass das Modell ohne LoRAs und mit sorgfältiger Prompt-Formulierung die beste Texturqualität im Open-Source-Segment liefert. Die entscheidende Erkenntnis: Viele Tester scheitern nicht am Modell, sondern an falscher Anwendung (falsche Upscaling-Pipeline, unnötige LoRAs).
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t278k5/showing_you_the_maximum_potential_that_zitbase/ | 41 Upvotes
Community Resonanz: „The tones and high-frequency detail are genuinely impressive" — die Community bestätigt die überragende Qualität, diskutiert aber den fehlenden Workflow-Share kontrovers.
3. FLUX.2 Klein Identity Feature Transfer V3 (Final)
Prompt (Workflow-Technikk):
Workflow: FLUX.2 Klein + Identity Feature Transfer V3 (ComfyUI)
- HARD_LOCK auf Zoom-Position: Fixiert exakte Kopfposition und Details
- Ohne den Node möchte 9B Kopfpositionen ändern → mit V3 bleibt die Pose stabil
- Verwendung für Face-Identity-Transfer zwischen Bildern
ComfyUI Workflow:
1. FLUX.2 Klein als Basis-Modell
2. Identity Feature Transfer V3 Node als Referenz-Input
3. HARD_LOCK aktiviert für Zoom-/Positions-Consistency
4. Standard-Sampler, 30-50 Steps
Am besten mit: FLUX.2 Klein 9B in ComfyUI
Warum effektiv: V3 der Identity Feature Transfer-Node löst das größte Problem von Klein 9B — die Tendenz, Kopfpositionen zu ändern. Mit HARD_LOCK bleibt die exakte Kopfposition und sogar kleine Details erhalten. Final-Version (trotzdem kommt bestimmt noch eine „Final_revision1").
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t2ca6n/flux2_klein_identity_feature_transfer_v3_final/ | 52 Upvotes
Community Resonanz: User bestätigen, dass HARD_LOCK die Kopfpositionierung revolutioniert — Standard-Workflows ohne den Node liefern inkonsistente Ergebnisse, besonders bei Portraits.
🎬 TOP 3 PROMPTS — Videogenerierung
1. Sulphur 2 & LTX 2.3 10Eros — Neues Video-Modell-Duo
Prompt (vollständig, kopierbar):
Prompt Enhancement für LTX 2.3 (Vorverarbeitung in Grok oder Uncensored LLM):
Generate a video scene script with a description based on the attached image for an LLM that has a tokenizer that uses interleaved attention to support long-context understanding that is fed into a multimodal video model. Strict specification, follow up to the word:
No timestamps. No unnecessary embellishment. Output only plain text.
First, describe the image initial scene in detail, then describe every moving body part, composition change, and manipulation from the uploaded initial frame that would be reflected in the video models post-latent evolution output. Describe only notable audio and audio queues: background noise as well as foley and natural sounds. In a temporal sequence paired with coinciding motions. In the case of characters speaking, include dialogue between or during motions. Dialogue should be concise and non-rambling as it will take away from video quality.
Am besten mit: LTX 2.3 10Eros (I2V) + Sulphur 2 (T2V), ComfyUI
Warum effektiv: Die entscheidende Innovation: LTX 2.3 hat wenig eigene „Fantasie" — es folgt dem Prompt sehr direkt. Deshalb muss der Prompt vorher mit einem LLM angereichert werden, das aus einem Einzelbild ein vollständiges Video-Skript generiert mit allen Bewegungen, Sounds und Dialogen im zeitlichen Ablauf. 10Eros ist optimiert für Image-to-Video, Sulphur 2 für Text-to-Video.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t2bbyd/sulphur_2_and_ltx_23_10eros_dropped_and_they_are/ | 209 Upvotes
Community Resonanz: Der Post hat 209 Upvotes und 65 Kommentare — die Community ist begeistert, wartet aber gespannt auf kleinere Quantisierungen (12GB VRAM-Nutzer können noch nicht mitmachen).
2. Prompt-Engineering-Aufwärtstrategie für LTX-Video
Prompt (Technik-Beschreibung):
Vorgehensweise für erstklassige LTX 2.3 Videos:
1. Start-Bild erstellen (FLUX/Midjourney oder Foto)
2. Bild an LLM (Grok/Uncensored) mit folgender Anweisung geben:
→ Generiere ein Video-Szenen-Skript mit allen bewegten Körperteilen, Kompositionswechseln und Manipulationen
→ Alle Sounds, Foley und natürliche Geräusche beschreiben
→ Dialoge zwischen Bewegungen einbetten, aber kurz halten
3. Angereicherten Text als Input für LTX 2.3 verwenden
4. 10Eros für Bild-zu-Video, Sulphur 2 für Text-zu-Video
Kern-Erkenntnis: „LTX has very little self reasoning — first frame and all following motions, evolutions, and audio must be commanded — you get nothing if you don't ask."
Am besten mit: LTX 2.3 10Eros, Sulphur 2
Warum effektiv: Der Autor von 10Eros betont: LTX-Modelle haben wenig Eigenkreativität — jeder Bewegung, jeder Klang muss explizit im Prompt genannt werden. Die Anreicherungs-Strategie per LLM liefert deutlich bessere Ergebnisse als einfache Beschreibungen.
Quelle: https://huggingface.co/TenStrip/LTX2.3-10Eros | Via Reddit 209 Upvotes
Community Resonanz: Die Community bestätigt, dass einfache Prompt-Eingaben bei LTX zu statischen, langweiligen Videos führen — nur durch vollständige Bewegungs- und Sound-Skripte entfaltet das Modell sein volles Potenzial.
3. Bloody Roar 2 — Live-Action AI Video mit Kling/Runway
Prompt (Beispiel-Struktur):
[Original-Videospiel-Charakter aus Bloody Roar 2] in photoreal live-action style.
Key details: [spezifisches Character Design aus dem Original-Spiel]
Camera: cinematic fight scene framing, dynamic angles
Style: live-action movie adaptation, photorealistic CGI
Duration: 10-15 seconds, slow motion for dramatic moments
Am besten mit: Kling, Runway Gen-3, Veo
Warum effektiv: Zeigt die beeindruckende Fähigkeit moderner Video-Modelle, Videospiel-Charaktere in fotorealistische Live-Action-Szenen zu transformieren. Besonders bemerkenswert: das Model erkennt selbst den „Mole" ( Maulwurf) korrekt.
Quelle: https://www.reddit.com/r/aivideo/comments/1t2dbcw/bloody_roar_2_live_action_fight/ | 17 Upvotes
Community Resonos: „Cool man I was surprised it got the mole right" — die Community zeigt nostalgische Begeisterung für childhood-Lizenzen in Live-Action-Qualität.
🧠 TOP 3 NEUE TECHNIKEN
1. Prompt-Library als JSON-Template Struktur
Zusammenfassung: Ein systematischer Ansatz zum Aufbau von Bild-Prompts in Kategorien mit JSON-Export oder Natural Language für T2I-Modelle.
Erklärung: Die Community diskutiert eine neue Struktur, die Prompts in sieben vordefinierte Kategorien aufteilt: SUBJECT, ENVIRONMENT, COMPOSITION, LIGHTING, ATMOSPHERE, STYLE, TEXT. Jede Kategorie hat Presets zur Auswahl und erlaubt Custom Inputs. Der konfigurierte Prompt wird entweder als strukturiertes JSON exportiert oder als Natural Language für Text-to-Image-Modelle konvertiert.
Beispielprompt:
{
"SUBJECT": "anthropomorphic tomcat in tactical gear",
"ENVIRONMENT": "grimy convenience store, fluorescent lighting",
"COMPOSITION": "left third framing, 16:9 wide shot, 32mm lens",
"LIGHTING": "sickly green fluorescent, freezer-blue fridge glow, pink rim light",
"ATMOSPHERE": "volumetric haze, controlled bloom, film grain",
"STYLE": "stylized 3D animated key art, painterly PBR",
"TEXT": "NO MASKS, NO MAGIC, NO REFUNDS on background sign"
}
Geeignet für: Flux, Midjourney, DALL-E, alle T2I-Modelle
Ursprung: https://www.reddit.com/r/StableDiffusion/comments/1t1jkek/composing_structure_prompts_in_json/ | 1 Upvote (Idee-Post)
Warum heute wichtig: Je komplexer Bildprompts werden, desto wichtiger ist Struktur. Seven-Kategorien erlauben, jeden Aspekt gezielt zu optimieren, ohne den Gesamtzusammenhang zu verlieren. JSON-Export ermöglicht Wiederverwendung und Team-Kollaboration.
2. LLM-Vorverarbeitung für Video-Prompts (LTX-Boost)
Zusammenfassung: LLM als Vorschalt-Step generiert aus einem Einzelbild das komplette Video-Szenen-Skript, bevor LTX 2.3 es umsetzt.
Erklärung: Das zentrale Problem bei aktuellen Video-Modellen: Sie haben wenig „Eigenkreativität". Die Lösung ist ein zweistufiger Prozess. Zuerst: Ein LLM aus einem Input-Bild ein vollständiges Szenen-Skript erstellen lassen mit allen Bewegungen, Sounds, Dialogen im zeitlichen Ablauf. Zweitens: Dieses Skript als Input für das Video-Modell. Diese Technik funktioniert für LTX 2.3, 10Eros und Sulphur 2.
Beispielprompt:
Generate a video scene script based on this image: [Image]
- Describe every moving body part and composition change
- Describe notable audio: background noise, foley, natural sounds
- In temporal sequence paired with coinciding motions
- If characters speak, include dialogue between motions
- Dialogue must be concise and non-rambling
- Output plain text only, no timestamps
Geeignet für: LTX 2.3, Sulphur 2, Kling, Runway Gen-3
Ursprung: https://huggingface.co/TenStrip/LTX2.3-10Eros | 209 Upvotes (Reddit r/StableDiffusion)
Warum heute wichtig: LTX 2.3 ist heute eines der besten Open-Source-Video-Modelle. Ohne diese Vorverarbeitung liefert es aber nur statische, uninteressante Clips. Die Technik verdreifacht die Qualität bei minimalem Mehraufwand.
3. 100-Prompt-Bibliothek für den produktiven Alltag
Zusammenfassung: Eine kostenlose, MIT-lizenzierte Bibliothek mit 100 nach Job-To-Be-Done organisierten Prompts plus 128 Claude Skills.
Erklärung: Eine neue Open-Source-Referenzseite bietet 100 Prompts organisiert nach Einsatzzweck (Writing, Code, Sales, Research, Design, Productivity, Learning, Creative, Analysis, Communications). Jeder Prompt hat Use Case, Template mit {{Platzhaltern}} und One-Click-Buttons für ChatGPT/Claude/Gemini. Zusätzlich 128 handgeschriebene Claude-Skills mit Required Inputs, Structure, Anti-Patterns.
Beispielprompt (aus der Kollektion — Code Review Skill):
You are a senior code reviewer. Review the following code for:
1. Security vulnerabilities
2. Performance bottlenecks
3. Code clarity and maintainability
4. Edge cases not handled
Input: {{code}}, {{language}}, {{context}}
Output format: Priority-ranked findings with specific line references
Geeignet für: ChatGPT, Claude Opus, Gemini
Ursprung: https://www.ainews.tech/prompts | Via Reddit 170 Upvotes (r/PromptEngineering)
Warum heute wichtig: Die meisten Prompt-Bibliotheken sind Marketing-Müll. Diese hier ist MIT-lizenziert, handgeschrieben und nach Use-Cases sortiert — perfekt für produktiven Einsatz ohne lange Suche.
🏆 Highlight des Tages
Sulphur 2 & LTX 2.3 10Eros — Das Open-Source-Video-Duo, das WAN 2.2 herausfordert
Gleich zwei neue Video-Modelle sind heute dropped: Sulphur 2 (Text-to-Video) und LTX 2.3 10Eros (Image-to-Video). Beide basieren auf demselben Forschungsfundament und ergänzen sich perfekt: Sulphur 2 generiert Videos aus reinem Text, 10Eros verwandelt Bilder in cineastische Clips.
Die entscheidende Erkenntnis des Tages: Video-Modelle brauchen detaillierte Regieanweisungen. Der Creator von 10Eros betont: „LTX has very little self reasoning — first frame and all motions must be commanded." Die Lösung ist die LTX-Boost-Technik (siehe oben): Ein LLM als Vorverarbeitung erzeugt aus einem Bild ein vollständiges Video-Skript mit allen Bewegungen, Sounds und Dialogen — bevor LTX 2.3 es visualisiert.
Praktisches Vorgehen:
- Bild erstellen (FLUX/Midjourney/Foto)
- Bild an LLM mit LTX-Boost-Prompt geben → Video-Skript generieren lassen
- Skript als Input für LTX 2.3 10Eros (I2V) oder Sulphur 2 (T2V)
- Workflow-Dateien: https://huggingface.co/TenStrip/LTX2.3-10Eros_Workflows
📰 Erlesene Artikel & Ressourcen
1. „Prompt Engineering Is Permanent"
Zusammenfassung: Paul Ford widerruft seine 2023-These, dass Prompt Engineering eine vorübergehende Phase sei. Bessere Modelle haben Prompts nicht obsolet gemacht — sondern wichtiger.
Kernaussage: Prompt Engineering hat sich von „cleverer Formulierung" zu „Systems Engineering" gewandelt. Kontext-Engineering, Tool-Design und Evals sind die neuen Säulen. Was 2023 als magische Formelsammlung begann, ist heute eine ernste Disziplin.
URL: https://yiblet.com/posts/prompt-engineering-is-permanent/
Warum heute wichtig: Mit GPT 5.5, Claude Opus und Qwen 3.6 wird klar: bessere Modelle produzieren nicht weniger Fehler — sie produzieren subtilere. Prompt Engineering als Systems-Engineering (Kontext, Tools, Evals) ist die Antwort darauf.
2. 100 Prompts + 128 Claude Skills (Open Source, MIT)
Zusammenfassung: Kostenlose, MIT-lizenzierte Prompt-Bibliothek nach Job-To-Be-Done sortiert.
URL: https://www.ainews.tech/prompts (Prompts) | https://www.ainews.tech/skills (Claude Skills)
Warum heute wichtig: Kein Marketing, keine Paywall. 100 praktische Prompts mit Platzhaltern und 128 handgeschriebene Claude Skills mit Input-Spezifikationen und Anti-Patterns.
3. CARE: Collaborative Agent Reasoning Engineering (arXiv)
Zusammenfassung: Drei-Parteien-Methodik für systematisches Engineering von LLM-Agenten im wissenschaftlichen Bereich — zwischen SMEs, Entwicklern und Helper-Agents.
URL: https://arxiv.org/abs/2604.28043
Warum heute wichtig: Zeigt den Übergang von ad-hoc Prompting zu strukturierter Agent-Entwicklung. Besonders relevant für科研-Teams, die LLM-Agenten in Workflows integrieren wollen.
4. Claw-Eval-Live: Live Agent Benchmark (arXiv)
Zusammenfassung: Live-Benchmark für Agent-Workflows, der sich im Gegensatz zu statischen Benchmarks kontinuierlich weiterentwickelt und echte Ausführung verifiziert.
URL: https://arxiv.org/abs/2604.28139
Warum heute wichtig: Für alle, die Agent-Prompts produktiv einsetzen, ist dies die erste wissenschaftliche Grundlage für kontinuierliche Evaluierung.
Bericht erstellt am 2026-05-03 Quellen: Reddit, Hacker News, arXiv