🔍 Deepfakes: Was du jetzt darĂŒber wissen solltest
Deepfakes sind gerade ĂŒberall in den Nachrichten – wegen des Falls Collien Fernandes, wegen Demos in Berlin und Hamburg, wegen eines Gesetzentwurfs der Bundesregierung. Aber mal ehrlich: Weißt du eigentlich, was genau hinter dem Begriff steckt, wie die Technik funktioniert und warum das Thema gerade jetzt so explodiert?
Hier die wichtigsten HintergrĂŒnde – kompakt, verstĂ€ndlich und ohne Juristendeutsch.
Woher kommt der Begriff?
„Deepfake" ist ein Kofferwort aus Deep Learning (eine Methode der KĂŒnstlichen Intelligenz) und Fake (FĂ€lschung). GeprĂ€gt hat den Begriff Ende 2017 ein anonymer Reddit-Nutzer mit dem Pseudonym „deepfakes". Der hatte mithilfe neuronaler Netze Gesichter von Schauspielerinnen in Pornovideos montiert – und seinen Code einfach öffentlich ins Netz gestellt. Innerhalb weniger Wochen hatte das zugehörige Forum ĂŒber 90.000 Abonnenten. Reddit hat es dann gesperrt, aber der Geist war aus der Flasche.
Der Begriff hat sich seitdem stark geweitet. 2017 meinte man damit nur ganz bestimmte KI-generierte Gesichtertausch-Videos. Heute steht „Deepfake" fĂŒr praktisch jedes KI-erzeugte oder KI-manipulierte Medium – ob Bild, Video oder Audio.
Wie funktionieren Deepfakes technisch?
Die Grundlage legte 2014 der Informatiker Ian Goodfellow mit den sogenannten Generative Adversarial Networks (GANs). Das Prinzip ist genial einfach: Zwei neuronale Netze treten gegeneinander an. Das eine erzeugt eine FĂ€lschung, das andere versucht sie zu entlarven. Durch dieses stĂ€ndige Katz-und-Maus-Spiel werden die Ergebnisse immer besser – bis die FĂ€lschung vom Original kaum noch zu unterscheiden ist.
Beim klassischen Face Swap lernt ein sogenannter Autoencoder, wie ein bestimmtes Gesicht aussieht
– aus verschiedenen Winkeln, bei verschiedener Beleuchtung, mit unterschiedlicher Mimik. Hat das Netz genug gelernt, kann es dieses Gesicht selbststĂ€ndig erzeugen und in ein fremdes Video einsetzen. Der Mund bewegt sich synchron, die Mimik passt – tĂ€uschend echt.
FĂŒr Audio-Deepfakes (Voice Cloning) wird die Stimme einer Person analysiert – Tonhöhe, Sprechrhythmus, Betonung – und dann synthetisch nachgebaut. Das Ergebnis: Ein KI-generierter Klon, der klingt wie das Original.
Was sich seit 2017 verÀndert hat: Die Demokratisierung der FÀlschung
Das ist der entscheidende Punkt, und er macht mir persönlich die meisten Sorgen:
2017: Man brauchte Hunderte Bilder als Trainingsmaterial, stundenlange Rechenzeit auf teurer Hardware und solides technisches Know-how.
2019: Samsung-Forscher zeigten eine KI, die mit einer Handvoll Fotos ĂŒberzeugende Ergebnisse lieferte. Im selben Jahr erschien DeepNude – eine App, die Personen auf Fotos per Klick „auszog".
2022: Stable Diffusion machte fotorealistische Bildgenerierung auf normaler Consumer-Hardware möglich. Deepfakes wurden vom Spezialprojekt zum Alltagswerkzeug.
2026: Heute reicht ein einziges Foto fĂŒr ein Deepfake-Bild. FĂŒr einen ĂŒberzeugenden Stimmklon genĂŒgen drei Sekunden Audio. Die Tools sind frei verfĂŒgbar, Open Source, oft kostenlos – und sie erfordern null technisches Vorwissen. Eine Smartphone-App reicht.
Die QualitĂ€t? Hat eine Schwelle ĂŒberschritten, an der weder das menschliche Auge noch einfache Erkennungssoftware zuverlĂ€ssig FĂ€lschung von RealitĂ€t unterscheiden kann.
Warum das nicht nur ein Promi-Problem ist
Es ist verlockend, Deepfakes als Problem von Prominenten abzutun. Falsch. Die Zahlen erzÀhlen eine andere Geschichte:
  • Über 90 Prozent aller Deepfakes sind pornografisch – in 9 von 10 FĂ€llen Frauen.
  • Anfang 2026 erzeugte Grok auf der Plattform X drei Millionen sexualisierte Bilder in neun Tagen – von Aktivistinnen, Politikerinnen, sogar Kindern. Zwei Worte als Prompt reichten.
  • Voice-Cloning-Betrug stieg 2025 um 680 Prozent. Kriminelle klonen Stimmen von Familienmitgliedern fĂŒr gefĂ€lschte Notrufe oder imitieren GeschĂ€ftsfĂŒhrer fĂŒr Millionen-Überweisungen.
  • Der britische Konzern Arup verlor 25,6 Millionen Dollar durch einen einzigen Deepfake-Videocall – der Finanzangestellte glaubte, seinen CFO und mehrere Kollegen vor sich zu sehen. Alle waren KI-generiert.
  • Im slowakischen Wahlkampf 2023 beeinflusste ein Audio-Deepfake möglicherweise den Ausgang der Wahl. In der TĂŒrkei trat ein Kandidat zurĂŒck, nachdem ein fabriziertes Porno-Video verbreitet wurde.
Das „Liar's Dividend" – das vielleicht grĂ¶ĂŸte Problem
Und dann gibt es da noch etwas, das oft ĂŒbersehen wird: Deepfakes mĂŒssen gar nicht funktionieren, um Schaden anzurichten. Allein die Tatsache, dass alles gefĂ€lscht sein könnte, vergiftet den Diskurs. Jedes echte Video kann als Fake abgetan werden. Jedes GestĂ€ndnis als KI-Manipulation.
Experten nennen das die „Dividende der LĂŒgner": Wer bei etwas Echtem ertappt wird, kann einfach behaupten, es sei ein Deepfake. Und wer soll das Gegenteil beweisen?
Was heißt das fĂŒr uns?
Deepfakes sind keine Zukunftsmusik und kein Nischenproblem. Sie betreffen uns alle – als potenzielle Opfer, als Medienkonsumenten und als BĂŒrger einer Demokratie, die auf ein Mindestmaß an gemeinsamer Wirklichkeit angewiesen ist.
Was wir tun können: Verstehen, wie die Technik funktioniert. Gesunde Skepsis entwickeln, ohne in Paranoia zu verfallen. Und die Debatte darĂŒber fĂŒhren, welche Regeln wir als Gesellschaft brauchen.
Was ist euer Eindruck – habt ihr im Alltag schon mal einen Deepfake gesehen (oder vielleicht einen gesehen, ohne es zu merken)? 👇
7
1 comment
Jörg Schieb
6
🔍 Deepfakes: Was du jetzt darĂŒber wissen solltest
Superkraft KI
skool.com/superkraft-ki
KI verstehen. KI nutzen. SuperkrÀfte aktivieren.
Leaderboard (30-day)
Powered by