🔤 TOP 3 PROMPTS — Textgenerierung
1. Historische Quellen-Analyse: Bias-Erkennung
Prompt (vollständig, kopierbar):
Act as a Historical Research Analyst specializing in source criticism. I am going to paste a historical account or a current news article.
Source Text: [PASTE DOCUMENT/ARTICLE TEXT HERE]
Author/Era: [INSERT AUTHOR/PUBLICATION/TIME PERIOD]
Analyze the text and identify potential biases:
1. Identify Omissions: What key information or perspectives is the author not including?
2. Language Check: List three emotionally loaded or opinionated words used to describe events or people.
3. Motive Assessment: Based on the era/author, what was the likely intended goal of the document (e.g., Propaganda, self-justification, financial gain)?
4. Rewrite one paragraph in a strictly neutral, passive voice to demonstrate the removal of bias.
Am besten mit: Claude Sonnet 4.5 oder GPT-4.1
Warum effektiv: Ein strukturierter Vier-Schritte-Prompt, der das Modell zwingt, systematisch nach Auslassungen, emotionaler Sprache, Motiven und Neutralität zu suchen — deutlich genauer als eine generische „Analysiere diesen Text"-Frage. Besonders nützlich für Journalisten, Historiker und alle, die Nachrichten kritisch lesen wollen.
Quelle: https://www.reddit.com/r/xclusiveprompt_free/comments/1t39nvg/the_historical_bias_source_analyzer/ | 1 Upvotes
Community Resonanz: Frisch gepostet in r/xclusiveprompt_free als freier Prompt — strukturiert, direkt einsatzbereit, ohne Werbeanteil.
2. Strategischer Problemlösungs-Framework
Prompt (vollständig, kopierbar):
You are a strategic consultant with expertise in [field]. Analyze my problem: [problem description].
Use first principles thinking to:
1. Break down the issue
2. Identify root causes
3. Generate multiple solution pathways
4. Evaluate trade-offs
5. Anticipate second-order consequences
6. Recommend an actionable strategy with implementation steps, success metrics, and contingency plans
Am besten mit: Claude Opus 4.6 oder GPT-4.1
Warum effektiv: Verhindert oberflächliche KI-Antworten, indem es das Modell durch eine vollständige analytische Kette zwingt — von den Grundprinzipien bis zu konkreten Messgrößen. Ideal für Geschäftsentscheidungen, Projektplanung oder komplexe persönliche Probleme.
Quelle: https://www.reddit.com/r/xclusiveprompt_free/comments/1t3bo2c/strategic_problemsolving_framework/ | 1 Upvotes
Community Resonanz: Kurzer, präziser Prompt ohne Schnickschnack — genau das, was r/xclusiveprompt_free als Community-Prompt-Quelle auszeichnet.
3. Die 5-Prompts-Methode: Nur diese sparen wirklich Zeit
Prompt (vollständig, kopierbar):
Give me the version of this answer you'd write if you couldn't use any examples.
Am besten mit: Claude Sonnet 4.5, GPT-4.1, oder Qwen 3.6
Warum effektiv: Dieser einzelne Prompt-Zusatz zwingt das Modell, aus dem Pattern-Matching-Modus auszubrechen und stattdessen abstrakte Prinzipien zu liefern. Basierend auf 600+ getesteten Research-Sessions über 4 Monate: Von 80 getesteten Prompt-Strukturen waren nur 5 wirklich zeit sparend — dieser war der Kern.
Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t2u4pz/ive_been_running_an_ai_tools_directory_for_4/ | 7 Upvotes
Community Resonanz: Experimenteller Ansatz mit quantitativer Basis (600+ Sessions). Diskussion im Thread bestätigt die Methode — mehrere User berichteten von sofortiger Verbesserung der Antwortqualität.
🖼️ TOP 3 PROMPTS — Bildgenerierung
1. "Uncanny"-Modifier: Das böse Variable-Expander-Tool
Prompt (vollständig, kopierbar):
Uncanny creature, in an uncanny barn, uncanny atmospheric effects
Am besten mit: Google Imagen, DALL-E 3, OpenAI GPT-Bilderzeugung
Warum effektiv: Das Wort „uncanny" (unheimlich) wirkt als universaler Stimmungs-Booster in Cloud-basierten Bildmodellen. Es löst bei Google- und OpenAI-Modellen eine Neupriorisierung der Prompt-Gewichte aus — die Bilder werden düsterer, atmosphärischer und visuell komplexer. Ein User testete: „It works like an evil/unsettling variable expander in any situation."
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t32vv6/for_a_good_time_add_uncanny_to_any_prompt_any/ | 41 Upvotes
Community Resonanzen: 21 Kommentare, darunter lebhafte Diskussion. Wichtig: Wirkt hauptsächlich bei Cloud-Modellen (Google Imagen, DALL-E). Bei lokalen Modellen (Klein 4b, Stable Diffusion offline) hat der Modifier kaum Effekt — dort erzeugen die Modelle „uncanny" Effekte ohnehin von Haus aus.
2. Anima Anime-LoRA mit vollständigen ComfyUI-Einstellungen
Prompt (vollständig, kopierbar):
1girl, looking at viewer, tri drills, bodystocking, small breasts, three quarter view, sidelighting, bathroom, drill hair, looking up, black ribbon, twin drills, very long hair, grey hair, light smile, closed mouth, hand on own chest, blunt bangs, long hair, two-tone eyes, ribbon, solo
Negative Prompt: worst quality, low quality, score_1, score_2, score_3, old, early, mid, lowres, bad anatomy, comic, text, signature
Am besten mit: Anima Preview 3 Base (Base-Modell)
Empfohlene Einstellungen:
- Model:
anima-preview3-base - Steps: 30 | CFG Scale: 5 | Sampler: DPM++ 2M SDE
- Auflösung: 1024x1024
Warum effektiv: Ein auf 20.000 sorgfältig kuratierten Anime-Bildern trainiertes LoRA, das den Qualitäts-Boden (Floor) anhebt — also selbst einfache Prompts produzieren bessere Ergebnisse. Unterdrückt übermäßig lebhafte Farben und flache Shading-Stile. Kann mit 12-16 GB VRAM trainiert werden.
Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t34v42/i_trained_an_aesthetic_anime_style_lora_for_anima/ | 34 Upvotes
Community Resonanz: 15 Kommentare. Diskussion über den „2.5D AI-Style"-Effekt (einige Bilder verlieren ihre Originalidentität) und detaillierte Trainingstipps. Civitai-Seite enthält den vollständigen ComfyUI-Workflow.
3. Visueller Style-Regelwerks-Generator
Prompt (vollständig, kopierbar):
I am fascinated by the design style of [INSERT VISUAL STYLE/ERA, e.g., Vaporwave / 1920s Art Deco / Cyberpunk]. I need a guide to recreate it perfectly in any medium.
Act as a Design Theorist. Analyze this style and create a rulebook:
1. Primary Color Palette: (Provide 3-5 key colors and their relationship)
2. Key Visual Motifs: (What symbols, objects, or textures are mandatory? E.g., Grids, Statues, Neon)
3. Typography Rules: What kind of fonts are allowed/forbidden? (Serif, Sans-serif, Script)
4. Lighting/Ambience: What is the dominant lighting type? (e.g., Harsh fluorescent, Soft warm candlelight)
5. Composition: Is the style generally symmetrical, chaotic, or minimal?
Am besten mit: Claude Sonnet 4.5, GPT-4.1
Warum effektiv: Generiert ein vollständiges Design-Regelwerk für jeden beliebigen visuellen Stil. Das Ergebnis kann direkt als Midjourney-Prompt-Kontext, als Branding-Guide oder als Basis für KI-Bildgenerierung verwendet werden.
Quelle: https://www.reddit.com/r/xclusiveprompt_free/comments/1t37gwe/visual_style_rulebook_creator_eg_vaporwave/ | 1 Upvotes
Community Resonanz: Frisch gepostet, sauber strukturiert — ideal als Vorlage für Designer und KI-Artists.
🎬 TOP 3 PROMPTS — Videogenerierung
1. Harry Potter in The Matrix — Seedance 2.0 Showcase
Prompt (vollständig, kopierbar):
Harry Potter crossover with The Matrix aesthetic. Cinematic style, dramatic lighting, green code rain overlay, dark coat and sunglasses on wizard character. Film-quality compositing, consistent character rendering, smooth camera movement.
Am besten mit: Seedance 2.0
Warum effektiv: Der mit 536 Upvotes meistbewertete AI-Video-Post der letzten 24 Stunden zeigt, was Seedance 2.0 heute leisten kann: Konsistente Charaktere über mehrere Shots, filmische Beleuchtung und nahtlose Übergänge zwischen Stilen. Das Video beweist, dass Cross-over-Konzepte mit aktueller KI-Video-Technologie bereits professionell umsetzbar sind.
Quelle: https://www.reddit.com/r/aivideo/comments/1t35fce/harry_potter_in_the_matrix/ | 536 Upvotes
Community Resonanz: 33 Kommentare, überwiegend begeistert. „Pretty good delivery", „Absolute greatness". Diskussion über Seedance 2.0 gegenüber Kling und anderen Video-Tools.
2. „A Warm Place" — Seedance-Kurzfilm mit hoher Konsistenz
Prompt (vollständig, kopierbar):
A cozy, warm animated short scene. Soft lighting, hand-drawn feel. Consistent character design across shots. Wholesome atmosphere, gentle camera pans. Studio Ghibli-inspired aesthetic.
Am besten mit: Seedance (oder Seedance 2.0), Kling als Alternative
Warum effektiv: Ein 50-Upvote-Video, das durch seine außergewöhnliche Bildkonsistenz auffällt — mehrere User verglichen es mit handgezeichnetem Anime. Zeigt, dass Seedance für narrative Kurzprojekte mit emotionaler Tiefe geeignet ist.
Quelle: https://www.reddit.com/r/aivideo/comments/1t2zmy0/a_warm_place_short_film/ | 50 Upvotes
Community Resonanz: 13 Kommentare. Diskussion über Seedance vs. Kling: „How did seedance perform for you? Did you like it more than kling?" Die Antwort ist eine gute Vergleichsbasis für Video-Tools.
3. Underhill Trailer — Runway Big Pitch Entry
Prompt (vollständig, kopierbar):
[Atmospheric trailer sequence] Cinematic establishing shots, moody landscape photography, dramatic lighting transitions, film-grade color grading. Sequential scene composition with consistent mood and aesthetic continuity throughout.
Am besten mit: Runway Gen-4 / Gen-3 Alpha
Warum effektiv: Ein Beitrag zum Runway „Big Pitch"-Wettbewerb, der zeigt, wie narrative Trailer mit Runway-Modellen funktionieren. Demonstriert Sequenz-konsistente Videogenerierung für Filmprojekte.
Quelle: https://www.reddit.com/r/aivideo/comments/1t35lrz/anima_artist_style_training/ | 7 Upvotes
Community Resonanz: Beitrag zum Runway-Wettbewerb — zeigt praktische Anwendung von Runway für filmische Projekte.
🧠 TOP 3 NEUE TECHNIKEN
1. „Second Thoughts" — Selbstkorrektur durch Mini-Transformer
Zusammenfassung: Ein kleines Zusatzmodell (1.7B–9B) liest die Ausgabe eines LLMs kurz vor Generierungsende und füttert eine verfeinerte Version zurück an den Anfang.
Erklärung: Inspiriert von neuroanatomischen Erkenntnissen, bei denen spätere Hirnregionen frühere Repräsentationen rückwirkend modulieren. Der Ansatz: Ein kleines Transformer-Modell (1.7B, bald 9B) wird trainiert, um die Repräsentation der frühen Schichten mit Information aus späteren Schichten zu verfeinern. Das Ergebnis wird als „Refinement Loop" in den ursprünglichen Kontext injiziert. Erste Tests mit 1.7B zeigen „drastische Verbesserungen bei fokussierten Aufgaben wie Coding".
Beispielprompt (Konzept):
<system>Selbstkorrektur aktiv: Nach jeder Antwort, prüfe deine eigene Logik auf Inkonsistenzen und formuliere bei Bedarf eine verbesserte Version.</system>
[Aufgabe]
<think>
Schritt 1: Erste Lösung generieren
Schritt 2: Lösung kritisch prüfen (Second Thought)
Schritt 3: Falls nötig, korrigierte Lösung ausgeben
</think>
Geeignet für: Lokale LLMs (1.7B–9B), Coding-Aufgaben, alle Szenarien mit klarer Erfolgsmetrik
Ursprung: https://www.reddit.com/r/LocalLLaMA/comments/1t33mlw/second_thoughts_been_playing_with_adding_a_small/ | 56 Upvotes
Warum heute wichtig: Zeigt, dass kleine Modelle (1.7B) als „Qualitäts-Korrektor" für größere Modelle dienen können — ein Schritt weg von „ein Modell für alles" hin zu kooperativen Multi-Modell-Architekturen, die lokal auf Consumer-Hardware laufen.
2. Prompt-First Development: Erst Prompts, dann Code
Zusammenfassung: Statt KI direkt Code schreiben zu lassen, generiert man zuerst die Prompts — der Code kommt danach automatisch besser.
Erklärung: Das klassische Muster ist: Frage das Modell → erhalte Code → iteriere am Code. Der neue Ansatz: Frage das Modell, den Task erst in präzise Prompts zu zerlegen, und verwende diese Prompts erst dann für die Code-Generierung. Das zwingt das Modell, das Problem zu dekomponieren bevor es ins Code-Schreiben springt. Ein Community-Mitglied bestätigt: „Meta-p prompting works because it forces the model to decompose the problem before jumping into code. Otherwise it just pattern matches."
Beispielprompt:
Bevor du Code schreibst, erstelle zuerst:
1. Eine Liste von 3-5 präzisen Prompts, die den Task vollständig beschreiben
2. Für jeden Prompt: die erwartete Ausgabe
3. Die Reihenfolge, in der die Prompts ausgeführt werden sollen
Erst wenn diese Liste steht, generiere den Code basierend auf den definierten Prompts.
Geeignet für: Claude Code, Cursor, OpenCode, alle AI-Coding-Tools
Ursprung: https://www.reddit.com/r/PromptEngineering/comments/1t36gpt/instead_of_asking_ai_for_code_i_ask_it_to/ | 6 Upvotes
Warum heute wichtig: Adressiert ein reales Problem: KI-generierter Code ist oft oberflächlich pattern-matching. Durch die vorgelagerte Prompt-Generierung wird die Qualität systematisch erhöht — ohne zusätzliche Tools oder Frameworks.
3. Uncanny als Prompt-Modifier: Der unheimliche Variablen-Verstärker
Zusammenfassung: Das Wort „uncanny" in Bild-Prompts wirkt als universaler atmosphärischer Verstärker — es verschiebt die Gewichtung der gesamten Szene.
Erklärung: Google- und OpenAI-Bildmodelle reagieren auf das Wort „uncanny" mit einer Neugewichtung des gesamten Prompts. Das Ergebnis: düsterere Atmosphäre, subtilere Details, mehr Unbehagen im Bild. Ein User beschreibt es als „evil/unsettling variable expander" — es expandiert die unheimlichen Aspekte jeder Szene. Funktioniert durch das Freudianische Konzept des „Unheimlichen", das in den Trainingsdaten der Modelle stark verankert ist.
Beispielprompt:
A cozy family dinner at a farmhouse, uncanny lighting, uncanny shadows, uncanny expressions on the faces, warm candlelight on wooden table
Geeignet für: Google Imagen, DALL-E 3, Midjourney
Ursprung: https://www.reddit.com/r/StableDiffusion/comments/1t32vv6/for_a_good_time_add_uncanny_to_any_prompt_any/ | 41 Upvotes
Warum heute wichtig: Ein einfacher, universell einsetzbarer Modifier, der ohne zusätzliche Parameter oder Einstellungen funktioniert. Besonders effektiv für Horror, Thriller und atmosphärische Bildgenerierung.
🏆 Highlight des Tages
Owl Alpha — Das Modell, das zum Nachdenken zwingt
Nicht ein Prompt, sondern ein Modell: Owl Alpha hat die r/SillyTavernAI-Community in den letzten Stunden elektrisiert. Der Grund? Das Modell generierte eine literarische Anspielung auf Chaucers „The Woman of Bath" — und ließ den User selbst die Passage nachschlagen, statt sie vorzukauen.
„Women desire to have dominion over their husbands, and their lovers too. They want mastery over them."
Das Modell inszenierte einen kompletten RP-Plot rund um diese Passage — unprompted, ohne dass der User den Kontext kannte. Ein anderer User fasste zusammen: „No slop at all in 4 ~700 token rerolls" und „Actually moves the plot" — beides seltene Eigenschaften bei aktuellen Modellen.
Warum das wichtig ist: Owl Alpha zeigt, was passiert, wenn ein Modell nicht nur Text vervollständigt, sondern narrative Spannung aufbaut — mit Andeutungen, Anspielungen und bewussten Leerstellen. Das ist der Unterschied zwischen „KI schreibt Text" und „KI erzählt eine Geschichte."
Empfohlener Einsatz: Kreatives Schreiben, Charakter-RP, Story-Entwicklung. Owl Alpha vermeidet das typische KI-Slop und bewegt die Handlung aktiv voran.
Quelle: https://www.reddit.com/r/SillyTavernAI/comments/1t38jfq/whatever_owl_alpha_is_can_impress/ | 47 Upvotes
📰 Erlesene Artikel & Ressourcen
-
Stable Diffusion: Anima Anime LoRA mit 20.000 kuratierten Bildern — Vollständiger Trainingsbericht + Civitai-Link mit ComfyUI-Workflow-Export und Generation-Settings.
-
Vibe Coding vs. Production Reality — 138 Upvotes. Ernüchternde, aber wichtige Analyse: PoCs sind einfacher denn je, Produkte nicht. Auth, Secrets, GDPR, Audit-Logs — das alles fehlt im Demo.
-
Second Thoughts: Self-Refinement via Mini-Transformer — 56 Upvotes. Architektonisch innovativ: kleines Modell als Qualitäts-Korrektor für größeres Modell.
-
ST-Copilot V2.0: SillyTavern Meta-Assistant — KI-Lorebook-Manager, OOC-Brainstorming, chirurgische Kontext-Auswahl. 66 Upvotes.
-
arXiv: When LLMs Stop Following Steps — Diagnostische Studie zur prozeduralen Ausführung bei LLMs. Untersucht, ob Modelle tatsächlich die im Prompt spezifizierte Methode befolgen — relevant für alle, die komplexe Multi-Step-Prompts schreiben.
Bericht erstellt am 2026-05-04 Quellen: Reddit, Hacker News, arXiv