Activity
Mon
Wed
Fri
Sun
Feb
Mar
Apr
May
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Jan
What is this?
Less
More

Memberships

Thomas Foster Musikproduktion

314 members • Free

KI-CHAMPIONS Community

8k members • Free

5 contributions to Thomas Foster Musikproduktion
Und plötzlich ist es doch neu: Wie man mit Code und Chaos eine Hiphop-Avantgarde erzwingt
KI-Musik hat ein Image-Problem: Sie gilt oft als generisch. Glattgebügelter Pop, austauschbarer Lofi-Jazz, seelenlose Radiomusik. Aber was passiert, wenn man der Maschine nicht das gibt, was sie erwartet? Was, wenn man ihr keine harmonischen Akkorde füttert, sondern mathematisches Chaos? Ich habe ein Experiment gewagt. Das Ziel: Einen Sound zu erschaffen, der so "kaputt" und irregulär ist, dass er die KI aus ihrer Komfortzone prügelt – und am Ende einen charttauglichen Frankfurt-Style Hiphop-Track daraus zu machen. Das Ergebnis ist keine Konserve. Es ist vielleicht Avantgarde. Und so habe ich es gemacht. Der Prozess: Vom Code zum Beat Statt der KI einfach nur einen Text-Prompt zu geben, habe ich einen dreistufigen Prozess entwickelt, der auf "Adversarial Audio" (feindlichem Audio) basiert. Ich wollte Reibung erzeugen. Schritt 1: Das Fundament aus reinem Chaos (Python) Alles begann nicht in einer DAW, sondern in einem Python-Skript. Ich wollte einen Rhythmus, den kein Mensch spielen würde. Ich programmierte einen "Euler-Pi-Collider". Das Konzept: - Der Beat (Kick): Folgt den Nachkommastellen von Pi. Irrational und ohne wiederkehrendes Muster. - Die Melodie: Folgt der Eulerschen Zahl und basiert auf der chaotischen Logistischen Gleichung. Das Ergebnis war eine WAV-Datei voller digitaler Zerstörung. Ein "Barcode" aus Lärm. Keine 4/4-Takte, kein Groove, nur mathematische Dissonanz. Für ein normales Ohr: unhörbar. Für die KI: eine Herausforderung. Schritt 2: Die Brücke (Suno Extend) Ich fütterte Suno.ai mit diesem digitalen Schrott. Aber anstatt es zu glätten, nutzte ich die Extend-Funktion. Ich ließ die KI versuchen, dieses Chaos fortzusetzen. Hier passierte das erste Spannende: Die KI versuchte krampfhaft, Muster im Rauschen zu finden. Sie halluzinierte Struktur, wo nur Mathematik war. Das Audio wurde "musikalisiert", behielt aber seine aggressive, fremdartige Textur. Schritt 3: Der Frankfurter Schliff (Cover Mode) Jetzt kam der finale Twist. Ich nahm das Ergebnis aus Schritt 2 und jagte es durch den Cover-Modus.
@Thomas Foster Habe das jetzt 4 mal durchgespielt. Ergebnisse schön aufbereitet hier: https://artifacts.becktory.de/ Konzeptionelle Dokumente sind auch direkt entstanden. Wenn die humanoiden Roboter (also die Unitrees, OptimusPrimes etc.) mal in Clubs gehen, werden sie sich sowas vom DJ wünschen. ;-)
Schockzinierend: Goldberg Variationen.
Als ich vor einigen Monaten gemerkt habe, wie gut auch schon Orchesterklänge mit Suno generiert werden, habe ich mich an ein Projekt gesetzt: Alle Goldberg Variationen (J.S. Bach) in KI-Orchestervariationen zu verwandeln: goldberg.varAItions. Die ersten sind fertig. https://www.accown.com/gbvaraitions/index.html Was sagt ihr? Alles KI: Musik, Website, Bilder, Texte.
Schockzinierend: Goldberg Variationen.
Ein Hauptrolle ist die des Kurators: auswählen und Schrott von Perlen trennen, die Intuition wirken lassen, Prompts begrifflich nachschärfen. Und die Idee natürlich. Aber ich bin bescheiden genug, das nicht als „meine“ Musik zu bezeichnen.
Suno/Logic Pro Synchronisieren
dann versuche ich hier mal das Schwarmwissen zu nutzen: Ich habe die Stems aus Suno in meine DAW (Logic Pro /ipad) geladen. Abgesehen davon das der Song nicht auf der eins beginnt (das bekomme ich gelöst) hab ich keinen Plan welche Bpm der Song hat und wie ich den Song dann so quantisiere das ich noch andere Instrumente oder Samples hinzufügen kann. Über Ideen und Workflows dazu freue ich mich sehr.
@Thomas Foster Das ist eigentlich ein deutlicher Hinweis auf Mikro-Timing in den Trainingsdaten, oder? Also „nicht stabil im Tempo“ könnte auch ein (unausgesprochenes) Feature sein…
@Thomas Foster Mikrotimings können natürlich akkumulieren bei Frame-to-Frame Generierung. Dann entsteht Drift. Ansonsten ist natürlich „welche akustische Struktur ist in diesem 20 ms-Fenster plausibel?“ gar keine streng Beat-synchrone Vorgehensweise. Das ist sogar ein Stück weit ‚menschlich‘: das Problem hat jeder, der versucht, ohne Metronom exakte BPM zu klatschen …
Wie nennt man das, was wir mit SUNO machen?
Man tippt ein paar Zeilen Text, dreht an Stimmung, Genre, Tempo, macht zehn Iterationen, verwirft neun, nimmt die eine, exportiert Stems, schraubt im DAW am Mix. Und dann will man es irgendwem erklären, ohne dass es klingt wie „Ich hab halt auf Generate gedrückt“. „Komponieren“ ist es nicht – jedenfalls nicht im klassischen Sinn (Noten, Harmonik, Formgestaltung als primäre Eigenleistung). „Producing“ ist es auch nicht zwingend – das ist eher die handwerklich-technische Hoheit über Aufnahme, Arrangement, Sounddesign, Mix/Master und Entscheidungsketten im Studio. Was bleibt? Sunoing?
Tools
Mich würde mal interessieren was Ihr als KI (Tools) nutzt und was dabei euer Favorit ist. Ich mache mal den Anfang: - SUNO (Nachbearbeitung ggf. mit LogicPro) - ChatGPT als auch Gemini (jeweils Pro Variante) - Adobe FireFly Aktuell überlege ich aber ggf. auf OpenArt zu wechseln, da ich dort nicht nur auf einen Anbieter fixiert bin obwohl Gemini aktuell echt wahnsinnig gute Ergebnisse erzielt.
Neben Suno arbeite ich zuweilen mit dem OpenVino Plugin für Audacity. Das läuft lokal (und free) und extrahiert Stems und Text von mp3s beliebiger Länge und Herkunft.
1-5 of 5
Marcus Sieverdingbeck
2
1point to level up
@marcus-sieverdingbeck-1549
Musik, KI-Songs, Technik, Lehrer.

Active 6h ago
Joined Jan 4, 2026
NRW
Powered by