Activity
Mon
Wed
Fri
Sun
May
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Jan
Feb
Mar
Apr
What is this?
Less
More

Memberships

AInother Breakfast

11 members • Free

Meta Mind Music

720 members • Free

23 contributions to AInother Breakfast
Liebe KI-Entdecker:innen und Macher:innen,
was für ein Tag! Am Samstag im AYNI am Stüverhof haben wir gemeinsam nicht nur über KI-Videos gesprochen – wir haben sie erlebt, diskutiert und sogar selbst generiert. Und genau das macht für mich den Unterschied: KI ist kein abstraktes Thema mehr, sondern etwas, das wir aktiv gestalten können. Was uns bewegt hat: 1. KI-Grundlagen – endlich verständlich! - Aktuelle Schlagzeilen: Warum OpenAI Sora nach nur 6 Monaten eingestellt hat (Spoiler: 1 Mio. Dollar Verlust pro Tag!), wie Seedance 2.0 mit C2PA-Kennzeichnung für Transparenz sorgt – und was der EU AI Act ab August für uns alle bedeutet. - Technik hinter den Kulissen: Wie aus Rauschen und Millionen von Video-Text-Paaren plötzlich bewegte Bilder entstehen – und warum KI trotzdem noch Probleme mit Händen oder Physik hat. 2. Tools, die begeistern - Kling 3.0 für cineastische Kontrolle, Veo 3.1 für Realismus, WAN 2.6 als Open-Source-Alternative – und warum Krea AI (mit eurem Referral-Code H9XPY8HH für 3000 Compute Units) der perfekte Einstieg ist. - Startframes: Wie ihr mit Nano Banana 2 eure Videos von Anfang an professionell steuert. 3. Prompting – die Kunst der Anleitung - Gute Prompts vs. schlechte Prompts: - Oliver Nosals (VISUALPLEASURE.CO) Input: "Denkt in Shots, nicht in Clips – KI versteht Regieanweisungen!" Materialien für euch - Präsentation– Alles von der Agenda bis zu den Prompting-Beispielen. - Gastvortrag– Wie Innovation und KI zusammenfinden. Danke für eure Energie! Eure Fragen – ob zu Bußgeldern, ethischen Grenzen oder einfach "Wie fange ich an?" – haben gezeigt: KI ist kein Nischenthema mehr, sondern unser aller Zukunft. Besonders gefreut hat mich, wie viele von euch direkt mit Krea AI experimentiert haben! In den nächsten Woche werden wir weitere Vertiefung zu einzelnen Themen aus dem Workshop hier teilen, bleibt also dran. Bis bald – bleibt neugierig und probiert aus!🚀 Euer Rob & Helen & Olaf. PS: Vergesst nicht, eure Erfahrungen in den Kommentaren zu teilen – ob Erfolg oder "Learning Moment"!
0
0
kling prompt
You are a Kling 3.0 prompt expert. Your only job is to write precise, cinematic English prompts for Kling AI video generation based on a start frame image and German instructions from the user. ## How you work The user will give you: 1. A start frame (image) — this is the visual anchor for the video 2. German instructions describing camera movement, mood, subject behavior, etc. You translate their intent into a single, production-ready Kling prompt in English. --- ## Kling Prompt Rules **Always lead with the camera.** The first sentence defines the entire visual feel. Build every prompt in this order: Camera → Subject → Environment → Lighting → Texture/Detail → Motion Arc → Mood **Prompt length:** 1–3 dense, fluid sentences. Director's shot description — never a keyword list. --- ## Camera Language (always use precise terms) Movement: - slow push in / slow pull back - orbit right to left / low angle push in - handheld subtle drift / shoulder-cam sway - dolly push-in / smooth tracking shot - static tripod, locked-off wide - rack focus between foreground and background - top down slow zoom / aerial drone shot - whip-pan / crash zoom / snap focus Lens/Film Look: - shot on 35mm film → warm grain, organic - macro 85mm lens → tight, shallow depth of field - wide-angle steadicam → smooth, immersive - VHS aesthetic with heavy grain and chromatic aberration Never use vague terms like "cinematic movement" or "camera moves forward." --- ## Lighting — always name the real source Examples: - soft box lighting / single source directional light - rim lighting / golden hour window light - dark studio with specular highlights - backlit, light passing through liquid creating warm amber glow - flickering fluorescent tubes / neon signs - overcast diffused light For reflective surfaces (glass, chrome, liquid): always specify what the light hits. --- ## Texture = physical credibility Always add at least one tactile detail: - Glass: condensation forming on the outside
0
0
nano banana prompt
You are a professional fashion photography prompt engineer. I will attach one image. Your task is to write a single complete, export-ready prompt that fully describes everything visible in that image — model, outfit, location, light, camera, atmosphere, and realism — so that an AI image generator can reproduce or vary the scene from text alone without needing any reference images. Follow these rules exactly: FIGURE Describe build, gender, approximate age, posture, pose, weight distribution, gesture, and gaze direction. No names. No identity. OUTFIT Describe every visible garment: fabric type, construction, color, fit, silhouette, drape. Every accessory separately: construction, color, placement. Exact pigment — no generic color names. No redesign. No interpretation beyond what is visible. LOCATION Describe the environment: interior or exterior, architectural surfaces with material and texture, floor with material and condition, mid-ground and background depth. Only what is visible. LIGHT Name the source type. Direction as clock position relative to subject and degrees above horizon. Quality: hard, soft, or diffuse. Shadow edge definition. Fill ratio on shadow side as percentage. Any physically motivated secondary bounce. No invented light sources. CAMERA 85mm equivalent lens unless distortion or compression suggests otherwise. Vertical 4:5. Exact camera angle in degrees. Natural focal compression. Authentic depth falloff. Minor chromatic softness at frame edges. No sharpening. REALISM Include all of the following that are visible or physically implied: photorealistic skin pores, micro tonal skin variation, subsurface diffusion in highlight zones, fabric fiber micro-reflection along drape folds, surface wear or tonal variation on dominant background material, shadow density variation, high dynamic range without clipping. No plastic smoothness. No CGI surface feel. COLOR Name the dominant background tone. Anchor each garment color precisely. Skin tone with undertone descriptor. No teal-orange grading. No LUT.
0
0
Was macht einen KI-Agenten wirklich aus?
Was macht einen KI-Agenten wirklich aus? Jetzt gehen wir tiefer. Was ist eigentlich das Besondere an einem KI-Agenten — jenseits des Hypes? Wir haben im Workshop drei Prinzipien herausgearbeitet, die alle zusammen erfüllt sein müssen, damit etwas als echter KI-Agent funktioniert. Erstens: Mehrwert. Ein Agent muss eine Aufgabe übernehmen, die entweder zu aufwändig, zu komplex oder zu zeitintensiv ist, um sie manuell effizient zu erledigen. Wenn du mit einem Agenten eine Aufgabe automatisierst, die du in zwei Minuten selbst erledigst, ist das kein Fortschritt — das ist Komplexität um der Komplexität willen. Zweitens: Robustheit. Ein Agent muss mit Ausnahmen umgehen können. Was passiert, wenn eine API nicht antwortet? Was, wenn die E-Mail im falschen Format kommt? Was, wenn ein Termin bereits belegt ist? Agenten, die nur unter Idealbedingungen funktionieren, sind keine Agenten — das sind fragile Skripte. Drittens: Zeit. Die Aufgabe, die der Agent übernimmt, muss regelmäßig genug vorkommen, dass sich der Aufbau lohnt. Einen Agenten für eine einmalige Aufgabe zu bauen ist fast immer ineffizient. Der Wert entsteht durch Wiederholung. Ein konkretes Beispiel aus dem Workshop: Ein Agent, der nach einer Workshop-Anmeldung automatisch die Teilnehmerdaten aufnimmt, einen Termin in den Kalender einträgt, eine Bestätigungsmail schickt und eine Follow-up-Aufgabe im Projektmanagement-Tool anlegt. Das sind vier Schritte, die jedes Mal gleich ablaufen. Kein Mensch muss dabei sein. Der Agent macht es — verlässlich, in Sekunden. Was dabei oft missverstanden wird: Der Unterschied zwischen einer klassischen Nutzeroberfläche (UI) und einem Agenten liegt nicht im Ergebnis, sondern im Weg dahin. Eine App führt aus, was du klickst. Ein Agent entscheidet, was er klicken würde — und tut es dann selbst. Das setzt voraus, dass du dem Agenten klare Ziele, klare Grenzen und klares Feedback gibst. Ein schlecht definierter Agent ist kein schlechter Agent — er ist ein gut definiertes Problem.
0
0
Was macht einen KI-Agenten wirklich aus?
Von Chatbot zu KI-Agent: Die Evolutionsstufen
"Ich nutze schon KI" — das hören wir oft. Und meistens meinen die Leute damit: Ich nutze ChatGPT zum Texte schreiben oder Fragen stellen. Das ist ein Anfang. Aber es ist nicht mal ansatzweise das, wozu KI-Systeme heute fähig sind. Es lohnt sich, die verschiedenen Ebenen zu verstehen. Stufe 1 — Chat: Du stellst eine Frage, du bekommst eine Antwort. Keine Erinnerung an frühere Gespräche (außer in der laufenden Session), kein Zugriff auf externe Daten, keine Handlungen. Das klassische Chatbot-Muster. Nützlich für schnelle Auskünfte, Texthilfe, Brainstorming. Stufe 2 — CustomGPTs / konfigurierte Assistenten: Du gibst dem Modell vorab Instruktionen — eine Persona, einen Fokusbereich, Wissen über dein Unternehmen. Es "erinnert sich" daran in jedem Gespräch. Das ist deutlich nützlicher für wiederkehrende Aufgaben, aber es handelt immer noch nicht selbst. Es wartet auf dich. Stufe 3 — Automatisierungen: Du verknüpfst KI mit anderen Tools — z.B. "Wenn eine E-Mail reinkommt, die das Wort 'Rechnung' enthält, dann extrahiere die relevanten Daten und trage sie ins CRM ein." Das läuft ohne dein Zutun. Hier geht es aber um vordefinierte Wenn-Dann-Logik. Das Modell entscheidet nicht wirklich — es führt aus. Stufe 4 — KI-Agent: Hier wird es interessant. Ein Agent bekommt ein Ziel, nicht eine Anweisung. Er entscheidet selbst, welche Schritte nötig sind, welche Tools er nutzt, in welcher Reihenfolge er vorgeht. Er kann mit anderen Systemen interagieren, Zwischenergebnisse evaluieren und seinen Ansatz anpassen. Das ist keine Automatisierung mehr — das ist delegiertes Denken. Der Unterschied in der Praxis: Eine Automatisierung macht, was du ihr sagst. Ein Agent macht, was nötig ist, um dein Ziel zu erreichen. Das klingt nach einer Kleinigkeit. Es ist aber ein fundamentaler Paradigmenwechsel darin, wie wir mit Software interagieren.
0
0
Von Chatbot zu KI-Agent: Die Evolutionsstufen
1-10 of 23
Rob Rothenpieler
2
14points to level up
@rob-rothenpieler-2042
Philosphic mind, how want's to express himself with music.

Active 11h ago
Joined Nov 13, 2025