User
Write something
KI Q&A is happening in 8 days
Wenn Selfies lügen lernen
Ich habe gestern Selfies mit Von der Leyen, Musk, Tim Cook und Jennifer Lawrence gemacht. Ohne mein Büro zu verlassen. 📸 Und genau da fängt das Problem an. ChatGPT Images 2.0 und Nano Banana Pro liefern mittlerweile Bilder, bei denen meine eigene Mutter angerufen hat, wann ich denn in Brüssel war. Hautporen, Lichtstimmung, das schiefe Selfie-Lächeln – alles sitzt. Keine sechs Finger mehr. Keine Wachsfiguren-Optik. Einfach echt. Was bedeutet das für uns? Eine ganze Beweis-Währung wird gerade entwertet. Jahrelang galt: Pics or it didn't happen. Ein Foto war ein stabiles Stück Wirklichkeit. Im Urlaub, im Job, vor Gericht, in der Bewerbung. Diese Selbstverständlichkeit ist gerade Geschichte. Und es geht in beide Richtungen: → Falsche Bilder wirken echt. → Echte Bilder können als „bestimmt KI" abgetan werden. Juristen nennen das die Liar's Dividend – die Dividende des Lügners. Wer ohnehin lügt, profitiert am meisten davon, dass Wahrheit angreifbar geworden ist. Was heißt das konkret für uns als Community? Spart euch die „So erkennt ihr KI-Bilder in 5 Schritten"-Listen. Die funktionieren nicht mehr. Was funktioniert, ist eine neue Standardannahme: ❌ Alt: Ein Bild ist echt, solange nichts dagegen spricht. ✅ Neu: Ein Bild ist ein Vorschlag, solange seine Herkunft nicht überprüft ist. Klingt anstrengend. Ist es auch. Aber genau diese Hygiene macht den Unterschied zwischen „Ich nutze KI" und „KI nutzt mich". Wer KI als Superkraft begreift, muss auch die Schattenseite verstehen. Sonst wird man Teil des Problems, statt Teil der Lösung. Den ausführlichen Kommentar dazu findet ihr in meinem aktuellen LinkedIn-Beitrag – mit allen Beispiel-Selfies, die ich mit ChatGPT Images 2.0 erstellt habe. Schaut euch das an, ihr werdet es nicht glauben. 💬 Eure Frage an euch selbst: Wann habt ihr zuletzt ein Bild im Netz gesehen und euch gefragt: Ist das wirklich echt? Schreibt's in die Kommentare. Lasst uns diskutieren – und voneinander lernen. 🦾 Eure Superkraft KI Soll ich noch eine kürzere Version (für ein schnelles „Daily Drop" in der Community) oder eine ausführlichere Variante mit konkretem Diskussions-Workshop daraus bauen?
Wenn Selfies lügen lernen
Bild-KI: OpenAI greift Google an – und holt auf
Gestern hat OpenAI ChatGPT Images 2.0 rausgehauen. Und zum ersten Mal seit Monaten wird's im Bild-KI-Rennen wieder richtig interessant. Kurz zur Einordnung: Seit November führt Googles Nano Banana Pro den Markt an. Das Ding ist ein Biest – 4K-Auflösung, 14 Referenzbilder gleichzeitig, bis zu fünf Personen konsistent über mehrere Bilder hinweg, volle Kontrolle über Licht, Kamera und Tiefenschärfe. Studio-Qualität. Was OpenAI jetzt kontert: 🧠 „Thinking"-Modus – das Modell denkt vor dem Zeichnen. Es recherchiert im Web, prüft sich selbst und baut Layouts durch, bevor es rendert. 🎞 Bis zu 8 zusammenhängende Bilder aus einem Prompt – mit gleichen Figuren. Heißt: Storyboards, Comics, Kampagnen-Serien in einem Rutsch, statt mühsam Bild für Bild zu stitchen. 🌍 Sauberes Text-Rendering auch in Japanisch, Koreanisch, Hindi, Bengali. Genau da, wo Google bisher die Messlatte gesetzt hat. 📐 Bis zu 2K-Auflösung, flexible Formate von 3:1 bis 1:3. Wer liegt jetzt vorn? Ehrlich: Google noch. Nano Banana Pro bleibt bei Auflösung (4K), Referenzbildern (14 vs. OpenAIs geringere Zahl) und Feinkontrolle klar überlegen. OpenAI hat aber bei Text, Multilingualität und dem Thinking-Ansatz ordentlich aufgeholt – und in manchen Workflows (Sequenzen, Storyboards) könnte Images 2.0 sogar besser sein. Was bedeutet das für Dich? 👉 Keine Glaubensfrage. Werkzeugfrage. Für Infografiken, Produktmockups und alles, wo Du maximale Kontrolle brauchst: Nano Banana Pro. Für Storytelling, Comic-Serien, mehrteilige Kampagnen mit konsistenten Figuren: unbedingt Images 2.0 testen. Ich werde in den nächsten Tagen beide Modelle mit denselben Prompts durchjagen und die Ergebnisse hier teilen. Wer mitmachen will: Stellt Eure Testprompts gern in die Kommentare, dann nehm' ich sie mit rein. Was mich wirklich freut: Noch vor einem Jahr haben Bildmodelle an lesbarer Schrift gescheitert. Heute streiten zwei Tech-Giganten darum, wer Magazine layouten kann. Der Wettbewerb tut diesem Markt extrem gut. 🙌
Bild-KI: OpenAI greift Google an – und holt auf
Ich hab die Zeit angehalten – mit KI ⏸️
Klingt übertrieben? Schaut euch das Video an. Das ist kein After Effects. Das ist Seedance 2.0 – ein KI-Videomodell von ByteDance (ja, die TikTok-Leute). Und ehrlich gesagt hat mich das kurz sprachlos gemacht. Was Seedance 2.0 kann: Du gibst dem Modell Text, Bilder, Videos UND Audio – bis zu 12 Dateien gleichzeitig. Raus kommt ein fertiges Video mit synchronem Sound, Kamerabewegungen wie vom Regisseur und Figuren, die über mehrere Schnitte konsistent bleiben. Du kannst sogar ein Referenzvideo hochladen und sagen: "Mach genau diese Kamerabewegung, aber mit meinem Charakter." Das Modell versteht es einfach. Kein anderes Modell kann das aktuell so. Wo steht Seedance im Vergleich? - Sora 2 (OpenAI) → realistischste Physik - Veo 3.1 (Google) → poliertester Output, broadcast-tauglich - Kling 3.0 (Kuaishou, China) → günstig, schnell, native 4K - Seedance 2.0 → meiste kreative Kontrolle, Platz 1 in unabhängigen Benchmarks Was das gesellschaftlich bedeutet: Tage nach dem Launch gingen virale Clips um die Welt – Brad Pitt gegen Tom Cruise, Friends als Otter. Disney schickte eine Unterlassungserklärung. US-Senatoren forderten die Abschaltung. In China? Begeisterung. Zwei Welten, zwei Reaktionen. Und die unbequeme Frage: Wenn eine KI in Sekunden ein Video erzeugt, das aussieht wie Hollywood – was passiert mit Kameraleuten, VFX-Artists, Cuttern? Deadpool-Co-Autor Rhett Reese schrieb: Für uns ist es wahrscheinlich vorbei. Dazu kommt die Deepfake-Frage. Seedance beherrscht Lippensync in über 8 Sprachen auf Phonem-Ebene. Beeindruckend und gefährlich gleichzeitig. ByteDance hat Wasserzeichen und Sperren eingebaut – aber wer glaubt, dass das reicht, hat das Internet nicht verstanden. Meine Einschätzung: Die Frage ist nicht mehr, ob KI-Video den Mainstream erreicht. Die Frage ist, ob wir schnell genug Spielregeln dafür aufstellen. Was sagt ihr – mehr Faszination oder mehr Sorge? Schreibt's in die Kommentare 👇
Ich hab die Zeit angehalten – mit KI ⏸️
🔍 Deepfakes: Was du jetzt darüber wissen solltest
Deepfakes sind gerade überall in den Nachrichten – wegen des Falls Collien Fernandes, wegen Demos in Berlin und Hamburg, wegen eines Gesetzentwurfs der Bundesregierung. Aber mal ehrlich: Weißt du eigentlich, was genau hinter dem Begriff steckt, wie die Technik funktioniert und warum das Thema gerade jetzt so explodiert? Hier die wichtigsten Hintergründe – kompakt, verständlich und ohne Juristendeutsch. Woher kommt der Begriff? „Deepfake" ist ein Kofferwort aus Deep Learning (eine Methode der Künstlichen Intelligenz) und Fake (Fälschung). Geprägt hat den Begriff Ende 2017 ein anonymer Reddit-Nutzer mit dem Pseudonym „deepfakes". Der hatte mithilfe neuronaler Netze Gesichter von Schauspielerinnen in Pornovideos montiert – und seinen Code einfach öffentlich ins Netz gestellt. Innerhalb weniger Wochen hatte das zugehörige Forum über 90.000 Abonnenten. Reddit hat es dann gesperrt, aber der Geist war aus der Flasche. Der Begriff hat sich seitdem stark geweitet. 2017 meinte man damit nur ganz bestimmte KI-generierte Gesichtertausch-Videos. Heute steht „Deepfake" für praktisch jedes KI-erzeugte oder KI-manipulierte Medium – ob Bild, Video oder Audio. Wie funktionieren Deepfakes technisch? Die Grundlage legte 2014 der Informatiker Ian Goodfellow mit den sogenannten Generative Adversarial Networks (GANs). Das Prinzip ist genial einfach: Zwei neuronale Netze treten gegeneinander an. Das eine erzeugt eine Fälschung, das andere versucht sie zu entlarven. Durch dieses ständige Katz-und-Maus-Spiel werden die Ergebnisse immer besser – bis die Fälschung vom Original kaum noch zu unterscheiden ist. Beim klassischen Face Swap lernt ein sogenannter Autoencoder, wie ein bestimmtes Gesicht aussieht – aus verschiedenen Winkeln, bei verschiedener Beleuchtung, mit unterschiedlicher Mimik. Hat das Netz genug gelernt, kann es dieses Gesicht selbstständig erzeugen und in ein fremdes Video einsetzen. Der Mund bewegt sich synchron, die Mimik passt – täuschend echt. Für Audio-Deepfakes (Voice Cloning) wird die Stimme einer Person analysiert – Tonhöhe, Sprechrhythmus, Betonung – und dann synthetisch nachgebaut. Das Ergebnis: Ein KI-generierter Klon, der klingt wie das Original.
🔍 Deepfakes: Was du jetzt darüber wissen solltest
🎵 Google Gemini komponiert jetzt Musik mit Lyria 3!
Hey Leute, habt ihr schon mitbekommen? Google hat gerade eine ziemlich krasse neue Funktion für Gemini ausgerollt: Lyria 3 – ein KI-Modell, das Musik generiert. Und zwar richtig gute Musik, nicht nur irgendwelche Dudeltöne. Was ist das Besondere? Ihr könnt jetzt direkt in Gemini beschreiben, welche Musik ihr haben wollt, und bekommt innerhalb von Sekunden einen fertigen Track. Lofi-Beat fürs konzentrierte Arbeiten? Check. Energiegeladener Rock-Song? Kein Problem. Entspannter Jazz für den Podcast-Hintergrund? Kommt sofort. Das Coole: Die Qualität ist echt beachtlich. Die Songs klingen durchkomponiert, nicht wie zusammengestückelte Fragmente. Für uns besonders interessant: - Content Creation: Hintergrundmusik für Videos, Podcasts, Social Media - Präsentationen: Eigene Soundtracks ohne GEMA-Stress - Experimente: Schnell Ideen testen, verschiedene Stile ausprobieren - Kein Lizenz-Chaos: Die Musik ist KI-generiert und wasserfest gekennzeichnet So funktioniert's – Quick Guide: 1. Gemini öffnen Geht zu gemini.google.com (ihr braucht ein Google-Konto) 2. Musik-Prompt schreiben Beschreibt genau, was ihr wollt: - Genre (z.B. "Lofi Hip-Hop", "Acoustic Pop", "Electronic") - Stimmung (entspannt, energiegeladen, melancholisch...) - Instrumente (Klavier, Gitarre, Synthesizer...) - Länge und Tempo (optional) Beispiel-Prompts: "Erstelle einen entspannten Lofi-Beat mit Klaviermelodie und leichtem Vinyl-Crackling, perfekt zum konzentrierten Arbeiten, ca. 3 Minuten" "Komponiere einen energiegeladenen Indie-Rock-Song mit E-Gitarre und Schlagzeug, optimistisch und motivierend" "Generiere sanfte Ambient-Musik mit Synthesizer-Pads für Meditation, langsames Tempo, 5 Minuten" 3. Warten & Anhören Gemini verarbeitet eure Anfrage (dauert meist nur 10-30 Sekunden) und liefert den Song. 4. Anpassen Nicht zufrieden? Gebt Feedback: "Mach es schneller", "Mehr Bass", "Weniger dramatisch" – und Gemini generiert eine neue Version.
🎵 Google Gemini komponiert jetzt Musik mit Lyria 3!
1-23 of 23
Superkraft KI
skool.com/superkraft-ki
KI verstehen. KI nutzen. Superkräfte aktivieren.
Leaderboard (30-day)
Powered by