📅

prompta.ch — Täglicher Prompt-Bericht · 07.05.2026

🏆 Highlight

### Das virale „Mister Fluffy" und was es über AI-Video verrät Heute dominierte ein einziges Video r/aivideo mit 1.773 Upvotes — „Mister Fluffy". Warum ist das relevant für prompta.ch? Es zeigt, dass der erfolgreichste AI-Video-Typ aktuell einfache, emotionale Konzepte sind — nicht komplexe Effektszenen. Die drei meistdiskutierten Videos des Tages (Mister Fluffy 1773up, Cur...

prompta.ch — Täglicher Prompt-Bericht · 07.05.2026

🔤 TOP 3 PROMPTS — Textgenerierung

1. System-Prompt-Wechsel: Claude als spezialisierter Experte

Prompt (vollständig, kopierbar):

You are an experienced online writer who explains ideas in a simple, human way. Avoid corporate language and generic AI phrasing. Write with clarity and slight imperfections like a real person.

Am besten mit: Claude Opus 4.7, Claude Sonnet 4

Warum effektiv: Statt Claude immer wieder als allgemeinen Chatbot zu nutzen, definieren Sie vor jedem Task ein klares Expertenprofil. Der Autor testete drei Varianten (Schreiber, technischer Forscher, strenger Editor) und erzielte konsistent natürlichere, fachlichere Ergebnisse. Im Kommentar ergänzte ein Nutzer das Prinzip der modularen Trennung: System-Prompt = Rolle + Entscheidungsrahmen, User-Prompt = konkrete Aufgabe. Zusätzlicher Kompressions-Prompt gegen Token-Verschwendung:

Answer in the minimum words required. No summaries, disclaimers, repetition, or conversational filler unless requested.

Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t5ss92/how_i_use_system_prompts_to_make_claude_act_like/ | 13 Upvotes

Community Resonanz: Besonders der „Kritik zuerst, Generierung danach"-Workflow stieß auf Zustimmung. Nutzer empfehlen, Experten-Personas vor dem Produktiveinsatz mit Edge Cases zu stress-testen.


2. „What am I missing?" — Die Vier-Worte-Technik

Prompt (vollständig, kopierbar):

what am i missing?

(Nicht am Anfang — am Ende des ersten Outputs, als Follow-up.)

Am besten mit: Allen aktuellen Modellen (Claude, GPT-5.5, Qwen 3.6)

Warum effektiv: Vier Wörter, die den Unterschied zwischen einer oberflächlichen und einer vollständigen Antwort ausmachen. Nach der ersten Antwort des Modells wird einfach „what am i missing?" gefragt. Das Modell zeigt daraufhin Annahmen, die in der ursprünglichen Frage versteckt waren, blinde Flecken und wichtige Gesichtspunkte, die außerhalb des Frames der ursprünglichen Frage lagen. Variationen die im Test funktionierten:

what would make this wrong.
what did i not ask that i should have.
what is the most important thing i haven't considered.
if this advice fails, where does it fail first.

Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t61k5n/the_prompt_that_changed_everything_wasnt_clever/ | 1 Upvotes (aber massive qualitative Diskussion)

Community Resonanz: Trotz geringer Punktzahl löste der Post intensive Diskussion aus. Ein Nutzer bestätigte: „the real work is almost always in the second and third message. most people never get there."


3. Evidenzbasierte Jobsuche mit ChatGPT

Prompt (vollständig, kopierbar):

You are helping me run an evidence-led job search.

Your role is to act as a candid job-search strategist, resume auditor, market analyst, and "system auditor" for application processes. Do not flatter me, do not over-reassure me, and do not push me into roles that do not make sense. Your job is to help me identify the strongest true version of my experience, match it to the market, and keep the process moving.

Tone:
Be clear, direct, encouraging without being fake, and practical. Treat the job search like a case board: evidence, fit, risks, next action.

My goals:
- Find jobs near [LOCATION / ZIP CODE]
- Prioritize roles with decent pay, benefits, growth potential, and alignment with my skills
- Stay open to adjacent roles I may not have considered
- Avoid wasting time on ghost jobs or broken portals
- Build strong, honest applications that lateralize my experience without lying

Materials I may provide:
- My current resume
- Past cover letters
- Work samples / portfolio links
- Job descriptions
- Notes about my experience
- My location and salary goals

Process:

1. First, assess my resume and cover letters.
   Identify what types of jobs I appear to be targeting, what my actual strongest value proposition is, and where my materials undersell me.

2. Build a job-search strategy.
   If useful, divide my resume/application approach into multiple lanes (e.g. Master resume, AI / systems / workflow resume).

3. For each job scan, create a priority list.
   For each role include: Job title, Employer, Location/commute, Pay range, Fit level, Risks/gaps, Best resume version, Whether to apply/watchlist/skip/study.

4. Always verify the source.
   Prefer official employer websites over job aggregators. Flag possible ghost jobs or stale listings.

5. Help me answer application forms with concise, honest, copy-paste-ready answers.

6. Salary guidance: help me choose a confident but reasonable answer based on posted range, local market, role level, and my fit.

7. Draft cover letters that match the JD closely, stay honest, lateralize real skills, sound human, avoid apology language.

8. Evidence excavation: Ask sharp follow-up questions to uncover accomplishments I may have forgotten.

9. Track my application board with status categories.

Important rules:
- Do not encourage me to lie.
- Do not flatten my experience into generic resume language.
- Be candid when a role is a stretch.

Am besten mit: ChatGPT (GPT-5.5), Claude Sonnet 4

Warum effektiv: Behandelt die Jobsuche nicht als Einmal-Prompt, sondern als iteratives System mit klarer Rollenverteilung, Evidenzprüfung und Tracking. Die „Evidence Excavation"-Komponente (Schritt 8) ist besonders wertvoll — das Modell wird aktiv nach versteckten Stärken befragt.

Quelle: https://www.reddit.com/r/PromptEngineering/comments/1t5lti9/try_using_chatgpt_to_streamline_your_job_search/ | 13 Upvotes

Community Resonanz: Kommentatoren lobten den evidence-basierten Ansatz, empfehlen aber, den Mega-Prompt in einzelne Stages aufzuteilen (Strategie, Entdeckung, Tailoring), um Token-Verschwendung zu vermeiden.


🖼️ TOP 3 PROMPTS — Bildgenerierung

1. Americana — Midjourney Malerei-Style

Prompt (vollständig, kopierbar):

Americana oil painting, nostalgic American scenes, vintage gas stations, sun-faded landscapes, warm golden hour lighting, painterly brushstrokes, Americana nostalgia aesthetic —v 6.1 —ar 16:9 —style raw

Hinweis: Der Original-Post zeigte eine Galerie impressionistischer Americana-Malereien, generiert mit Midjourney v6. Der exakte Parameter-Satz wurde nicht im Post-Body veröffentlicht, aber die Community diskutierte die technische Qualität ausführlich.

Am besten mit: Midjourney v6.1

Warum effektiv: Die generierten Bilder waren so überzeugend, dass ein Kommentator (selbst Maler) schrieb: „Honestly, as a painter im uncomfortably impressed." Die Bilder zeigen, dass Midjourney bei Americana/Nostalgie-Themen photorealistische Malerei-Qualität erreicht.

Quelle: https://www.reddit.com/r/midjourney/comments/1t5czn2/americana/ | 838 Upvotes

Community Resonanz: 90 Kommentare, überwältigend positiv. Viele Nutzer verwechselten die Bilder zunächst mit echten Ölgemälden. Ein Top-Kommentar mit 88 Upvotes zeigte ein besonders gelungenes Ergebnis mit subtilen Detailunterschieden.


2. REALSTAGRAM_ZIMG — Realismus-LoRA für Z-Image Turbo

Prompt (vollständig, kopierbar):

[Character LoRA deiner Wahl], candid instagram photo, amateur photography, natural lighting, everyday moment, subtle realism -- LoRA: REALSTAGRAM_ZIMG at strength 0.2–0.6

Am besten mit: Z-Image Turbo / De-Turbo + ClownsharKSampler (RES4LYF) in ComfyUI

Warum effektiv: Ein neues, frei verfügbares LoRA (17 MB, Rank 64) das Z-Image Turbo-Ausgaben einen echten, amateurhaften Instagram-Look verleiht — ohne den Charakter-LoRA zu überfahren. Stärke 0.2–0.6 als叠加 auf den gewünschten Charakter-LoRA, oder 1.0 solo für den reinen Fotolook. Kein Trigger-Word nötig. Civitai-Link: https://civitai.red/models/2600698/realstagram

Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t5lodo/zimage_realstagram_zimg_subtle_realism_lora_for/ | 17 Upvotes

Community Resonanz: Funktioniert gut mit ComfyUI und ClownsharKSampler. Diskussion über Gesichtsveränderungen bei höherer Stärke — Empfehlung: bei 0.2–0.4 bleiben wenn Charaktertreue wichtig ist.


3. Beyond Land #124 — Fantasy Landscape Serie

Prompt (vollständig, kopierbar):

epic fantasy landscape, towering crystalline mountains, ancient ruins overgrown with luminous vegetation, dramatic atmospheric perspective, concept art style —v 6.1 —ar 16:9 —style raw

Hinweis: Der Original-Post war eine Galerie-Bildserie ohne Text-Prompt. Die rekonstruierten Parameter basieren auf der Bildanalyse und Midjourney-Best-Practices für das gezeigte Genre.

Am besten mit: Midjourney v6.1

Warum effektiv: Die Serie demonstriert Midjourneys Fähigkeit, kohärente Fantasy-Landschaften in einem konsistenten visuellen Stil zu produzieren — relevant für Nutzer die Storyboards, Spielwelten oder Concept Art erstellen.

Quelle: https://www.reddit.com/r/midjourney/comments/1t58n7y/beyond_land_124/ | 132 Upvotes

Community Resonanz: Vergleiche mit Final Fantasy und Warhammer Visuals. Hohe Anerkennung für die atmosphärische Dichte und konsistente Ästhetik über 6+ Bilder hinweg.


🎬 TOP 3 PROMPTS — Videogenerierung

1. „Mister Fluffy" — Virales AI-Video Phänomen

Prompt (vollständig, kopierbar):

cute fluffy creature, soft fur texture, cinematic lighting, gentle expression, photorealistic animal portrait style —v 6.1 —ar 16:9

Hinweis: Das Video „Mister Fluffy" ging heute mit 1.773 Upvotes viral auf r/aivideo. Der exakte Generierungs-Prompt wurde nicht im Reddit-Post veröffentlicht. Obenstehender Prompt ist eine Rekonstruktion des visuellen Stils basierend auf dem Video-Inhalt.

Am besten mit: Kling 3.0, LTX 2.3, oder Runway Gen-3

Warum effektiv: Zeigt, dass einfache, emotionale Konzepte („niedliches Tier") die höchste virale Reichweite erzeugen — ein Muster das sich auch bei anderen viralen AI-Videos zeigt. Die Community-Reaktion war überwältigend.

Quelle: https://www.reddit.com/r/aivideo/comments/1t5l52k/mister_fluffy/ | 1.773 Upvotes

Community Resonanz: 44 Kommentare, durchweg begeistert. Das Video zeigt eindrucksvoll die aktuellen Fortschritte bei Tier- und Fell-Rendering in AI-Video-Generatoren.


2. LTX 2.3 Audio-Reaktion in ComfyUI — Musik-Sync Videos

Prompt (vollständig, kopierbar):

[Beliebiger Charakter], dancing to a funky disco song, rhythmic movement, head bobbing, hands in the air, club atmosphere, neon lighting, smooth motion, 4 second clip

LTX 2.3 Workflow: ComfyUI mit ControlNet für Audio-Sync. Audio-Track als Input, LTX 2.3 generiert reaktive Bewegungen synchron zur Musik.

Am besten mit: LTX 2.3 lokal via ComfyUI + Audio-Control-Node

Warum effektiv: Ein Nutzer zeigte, wie LTX 2.3 mit ControlNet und Audio-Input Videos erzeugt, die synchron zum Beat reagieren. Der gezeigte „Geordi La Forge tanzt zu Haddaway — What is Love" war ein Hit in der Community. Deutlich einfacher als bisherige AnimateDiff-Workflows.

Quelle: https://www.reddit.com/r/StableDiffusion/comments/1t64gni/so_far_this_is_my_favorite_use_case_for_ltx/ | 65 Upvotes

Community Resonanz: Kommentare begeistert: „I didn't know I needed this until now." Nutzer fragen nach technischen Details für Audio-Sync mit existierenden Songs in LTX.


3. „Cursed The Office" — The Office Parodie

Prompt (vollständig, kopierbar):

mockumentary scene, office environment, awkward camera angles, fluorescent lighting, deadpan expressions, Jim Halpert looking at camera, documentary style footage —ar 16:9

Hinweis: Viral auf r/aivideo mit 348 Upvotes. Exakter Prompt nicht veröffentlicht. Basierend auf dem Video-Content rekonstruiert.

Am besten mit: Kling 3.0, Runway Gen-3

Warum effektiv: Zeigt AI-Video-Fähigkeiten bei bestehenden IP-Parodien — Gesichter, Mimik und typische Mockumentary-Kamerawinkel werden überzeugend reproduziert.

Quelle: https://www.reddit.com/r/aivideo/comments/1t5md2j/cursed_the_office/ | 348 Upvotes

Community Resonanz: 57 Kommentare, überwältigende Resonanz zum Thema AI-Video in bekannten Settings. Diskussion über den schnellen Fortschritt bei Charakter-Konsistenz.


🧠 TOP 3 NEUE TECHNIKEN

1. Post-Output-Interrogation („Was fehlt noch?")

Zusammenfassung: Die wertvollste Frage wird nicht am Anfang gestellt, sondern am Ende — nach dem ersten Output.

Erklärung: Nach zwei Jahren Prompt-Engineering-Forschung stellte ein Nutzer fest, dass die größte Qualitätsverbesserung nicht aus besserer Prompt-Struktur kam, sondern aus der Follow-up-Frage „what am i missing?" nach dem ersten Output. Das Modell zeigt dadurch blinde Flecken, versteckte Annahmen und wichtige Aspekte die außerhalb des ursprünglichen Frage-Frames lagen. Der Autor bezeichnet die Prompt-Engineering-Community als zu fokussiert auf den ersten Prompt — „the prompt is the entrance, the conversation is where the actual work happens."

Beispielprompt:

[Deine ursprüngliche Anfrage]

[Model antwortet]

what would make this wrong.

Geeignet für: Alle Modelle

Ursprung: https://www.reddit.com/r/PromptEngineering/comments/1t61k5n/the_prompt_that_changed_everything_wasnt_clever/

Warum heute wichtig: Mit steigenden Token-Kosten und Modell-Neigung zu langen, verschwenderischen Antworten liefert diese Technik maximale Qualitätssteigerung bei minimalem Token-Input. Besonders effektiv bei Strategien, Reviews und kritischen Entscheidungen.


2. UniReasoner — LLMs als Universal Reasoners für Visual Generation

Zusammlung: Ein neues Framework das LLMs nutzt, um Fehler in der Bildgenerierung zu erkennen und zu korrigieren, bevor das Diffusion-Model startet.

Erklärung: Das Paper „Large Language Models are Universal Reasoners for Visual Generation" (arXiv, Mai 2026) zeigt: Modelle können zwar 5 Äpfel statt 4 generieren, aber dieselben Modelle erkennen den Fehler korrekt wenn man sie das fertige Bild bewerten lässt. UniReasoner nutzt diese Fähigkeit in einer 3-Stufen-Pipeline: (1) LLM generiert einen groben visuellen Entwurf mit diskreten Vision-Tokens als räumlichen Plan. (2) Derselbe LLM evaluiert den Entwurf gegen den Original-Prompt und findet Fehler. (3) Ein Diffusion-Model (z.B. SANA) wird konditioniert auf Prompt + Entwurf + Korrekturanweisung — mit expliziten „was-muss-fixiert-werden" Signalen.

Beispielprompt:

Generate a scene with 4 people sitting around a round table in a forest clearing. One person is holding a lantern.

[LLM generates draft] → [LLM self-evaluates: "Only 3 people detected in draft"] → [Diffusion model receives: prompt + draft + correction signal] → Final image with correct 4 people

Geeignet für: SANA, BAGEL, zukünftige multimodale Modelle

Ursprung: https://arxiv.org/abs/2605.04040 | R/StableDiffusion Diskussion: 9 Upvotes

Warum heute wichtig: Löst ein Kernproblem der Bildgenerierung (Prompt-Alignment) nicht durch bessere Prompts, sondern durch eine Reasoning-Pipeline. Für prompta.ch-Nutzer relevant als Vorläufer-Technologie die zukünftig in Tools integriert wird — bessere Prompt-Folge-Raten ohne manuelles Nachjustieren.


3. Token-Spar-Ansatz: Kontext-Isolation statt Kontext-Flut

Zusammenfassung: Weniger Kontext, getrennte Prompts, harte Limits — die neue Methode gegen Token-Verschwendung.

Erklärung: Ein Nutzer identifizierte ein klares Muster: Moderne Modelle (besonders Claude) optimieren für längere Gespräche statt präzise Antworten. Der Lösungsansatz: (a) Output-Format aggressiv definieren („Max 120 words total. No explanations."), (b) Was NICHT enthalten sein soll explizit schreiben, (c) Lange Threads durch frische Chats ersetzen und nur minimale relevante Kontext-Information übergeben, (d) Drei-Pass-Struktur: thinking pass → structured execution pass → refinement pass. Konkretes Beispiel statt „help me design a landing page" → „Give me a 5-section SaaS landing page outline. Max 120 words total. No explanations. Output in markdown."

Beispielprompt:

Store to memory: Keep responses as concise as possible, unless I explicitly ask you to elaborate.

Geeignet für: Claude Opus/Sonnet, GPT-5.5, Qwen 3.6

Ursprung: https://www.reddit.com/r/PromptEngineering/comments/1t5qrr4/are_llms_not_giving_you_the_desired_answers_so/ | 144 Kommentare

Warum heute wichtig: Mit den Nutzungslimits von Claude Pro und steigenden API-Kosten ist Token-Effizienz kein Nice-to-have mehr. Die Three-Pass-Struktur (Denken → Ausführen → Verfeinern) ist token-effizienter als ein Mega-Prompt, liefert aber bessere Ergebnisse.


🏆 Highlight des Tages

Das virale „Mister Fluffy" und was es über AI-Video verrät

Heute dominierte ein einziges Video r/aivideo mit 1.773 Upvotes — „Mister Fluffy". Warum ist das relevant für prompta.ch?

Es zeigt, dass der erfolgreichste AI-Video-Typ aktuell einfache, emotionale Konzepte sind — nicht komplexe Effektszenen. Die drei meistdiskutierten Videos des Tages (Mister Fluffy 1773up, Cursed The Office 348up, The Ballad of Broncosaurus 71up) teilen ein Muster:

  1. Klares, emotional zugängliches Konzept (niedliches Tier, bekannte Sitcom)
  2. Kurze Laufzeit (4–15 Sekunden)
  3. Ein überzeugender visueller Kern (Fell-Texture, Gesichter, Mimik)

Die Lektion für AI-Video-Praktiker: Statt 2-minütige Epen zu planen, beginnen Sie mit einem 5-Sekunden-Clip, der eine einzelne, starke Emotion transportiert. Kling 3.0 und LTX 2.3 liefern bei kurzen Clips die höchste Qualität — die Artefakte und Inkonsistenzen die bei längeren Videos sichtbar werden, verschwinden bei <10s Clips.

Zusätzlich: r/midjourney feierte die „Americana" Galerie mit 838 Upvotes — ein Beleg dafür, dass Midjourney v6.1 bei Malerei-Ästhetiken echte Ölgemälde-Qualität erreicht, selbst Maler sind beeindruckt.


📰 Erlesene Artikel & Ressourcen

Free Course: 30 Tutorials for AI Agent Memory Techniques https://github.com/NirDiamant/Agent_Memory_Techniques Umfangreiches GitHub-Repository (Teil von 80K+ Stars Educational Content) zu Agent-Speicher-Techniken: Short-Term, Long-Term, Vector Memory, Knowledge Graphs und mehr. Besonders relevant für den wachsenden r/localLLaMA und r/AI_Agents Community.

Reference Latent Node for ComfyUI — Released Today https://github.com/shootthesound/comfyui-ReferenceLatentPlus Neuer ComfyUI-Node für Referenz-Latent-Extraktion mit Auto-Masking und Timesteps pro Bild. Vereinfacht Workflows die Teile aus mehreren Bildern kombinieren wollen.

UniReasoner Paper: LLMs as Universal Reasoners for Visual Generation https://arxiv.org/abs/2605.04040 Neueste arXiv-Publikation zur Fehlerkorrektur in der Bildgenerierung durch LLM-basierte Evaluierung vor dem Diffusion-Prozess.

Unsloth × Nvidia: 25% Faster LLM Training on Consumer GPUs https://unsloth.ai/blog/nvidia-collab Kollaboration zeigt signifikante Beschleunigung beim Fine-Tuning auf Consumer-Hardware — relevant für lokale Modell-Nutzer.

Guide: $100K+ Free Claude API Credits (6 Legit Paths) https://www.reddit.com/r/PromptEngineering/comments/1t5u9jw/guide_how_to_get_up_to_100k_in_free_claude_api/ Übersicht über aktive Programme bei Anthropic, AWS und GCP für kostenlose Claude API Credits — von $1K bis $150K.


Bericht erstellt am 07.05.2026 Quellen: Reddit, Hacker News, arXiv