Activity
Mon
Wed
Fri
Sun
May
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Jan
Feb
Mar
What is this?
Less
More

Owned by Michael

Mastering local AI

12 members • Free

Baue High-End Workflows mit n8n & lokalen LLMs auf eigener Hardware. Maximale KI-Power bei voller Datensouveränität. Join us!

Memberships

Skoolers

191.6k members • Free

VOICE KI AGENTUR HUB

222 members • Free

KI Business Community

279 members • Free

KI-CHAMPIONS Community

10.9k members • Free

KI-Automatisierung

446 members • $79/m

n8n KI Agenten

9.9k members • Free

KI Agenten Campus

2.5k members • Free

Full Stack AI </> 100% local

110 members • Free

BoCodemy

194 members • Free

7 contributions to Mastering local AI
🐟 MiroFish – KI simuliert die Zukunft. Lokal. Privat. Auf meinem Mac.
Letzte Woche bin ich über MiroFish gestolpert – ein Open-Source Projekt das gerade #1 auf GitHub Trending war. Innerhalb von 24 Stunden hat der Entwickler 4 Millionen Dollar Investment bekommen. Ich wollte wissen warum. Was MiroFish macht: Statt einer KI zu fragen "Was passiert wenn...?" – baut MiroFish eine digitale Gesellschaft und schaut es sich an. Du lädst ein Dokument hoch (Pressemitteilung, E-Mail, Report) und MiroFish generiert automatisch autonome KI-Agenten mit eigenen Persönlichkeiten, Erinnerungen und Meinungen. Die interagieren miteinander auf simulierten Social-Media-Plattformen – und aus dem emergenten Verhalten entsteht eine Vorhersage. Was ich gebaut habe: Eine vollständig lokale MiroFish-Infrastruktur auf meinem M2 Max (96GB): → 2× Qwen3-14B via vllm-mlx hinter nginx Load Balancer → Neo4j für den Knowledge Graph → Ollama für Embeddings → Kein einziges Byte verlässt den Mac → DSGVO-konform Der konkrete Test – A/B Vergleich für einen E-Commerce Händler: Szenario: Ein Haus/Garten Online-Shop (10 Mio. EUR Umsatz) hat Lieferverzögerungen in der Hauptsaison April. ▸ Variante A – Reaktiv: Kurzer Social-Media-Post nach ersten Kundenbeschwerden. Kein Angebot, kein konkretes Datum. ▸ Variante B – Proaktiv: Persönliche E-Mail vom Geschäftsführer mit konkretem Lieferdatum, 10€ Gutschein und täglichen Updates. Die simulierten Ergebnisse: Variante A: "I didn't know my order was delayed until a day after I expected it. That's not good enough" → Kunde wechselt zur Konkurrenz Variante B: "It was reassuring to get updates every 24 hours. I felt informed and not left in the dark" → Kunde bleibt Die ROI-Rechnung: → Gutschein-Investition: 1.700 € → Vermiedene Stornierungen: 8.075 € → Vermiedener Bewertungsschaden: 120.000 € → Gesamtvorteil proaktive Kommunikation: 128.075 € Eine persönliche E-Mail und ein 10€ Gutschein verhindern 128.000 EUR Schaden. Das ist kein Bauchgefühl – das ist eine Simulation mit echtem Agenten-Verhalten. Was mich beeindruckt hat:
0
0
DER THINKING-SCHOCK :)
🧪 Ich habe drei lokale LLMs in LM Studio auf meinem Apple M2 Max (96 GB) gegeneinander getestet. Das überraschendste Ergebnis war nicht die Antwortqualität – sondern die Zeit, die die Modelle zum Denken brauchen. ───────────────────────────── 🔬 DIE DREI MODELLE ───────────────────────────── ① Qwen3.5-27B · Claude 4.6 Opus Distilled (14 GB) ② Qwen3.5-35B-A3B · Claude 4.6 Opus Distilled, MoE (19,5 GB) ③ Qwen3.5-27B Original – kein Finetuning (14 GB) 6 Aufgaben: Python-Code, Debugging, API-Client-Architektur, deutsche Geschäftstexte, Rechtsfragen (revDSG). ───────────────────────────── ⏱ DER THINKING-SCHOCK ───────────────────────────── Diese Modelle denken laut – sie haben einen sichtbaren „Thinking"-Block bevor die Antwort erscheint. Und genau da lag der wahre Unterschied. Beispiel: Eine einfache Sortierfunktion in Python. 🟣 27B Distilled: 4 Sekunden 🟢 35B MoE: 4 Sekunden ⬜ 27B Original: 173 Sekunden Dasselbe Ergebnis. Dreimal. Der gleiche Prompt. Das Original grübelt fast 3 Minuten über eine Aufgabe, für die das Distilled-Modell 4 Sekunden braucht. Über alle 6 Aufgaben: 🟣 27B Distilled: 87 Sekunden gesamt 🟢 35B MoE: 55 Sekunden gesamt ⬜ 27B Original: ~775 Sekunden gesamt ───────────────────────────── 💡 WARUM IST DAS SO? ───────────────────────────── Beim Knowledge Distillation lernt das kleinere Modell nicht aus Rohdaten – es lernt aus den vollständigen Reasoning-Trajektorien eines Frontier-Modells (hier: Claude 4.6 Opus). Das bedeutet konkret: → Das Original-Modell exploriert beim Denken: es probiert Wege aus, verwirft sie, dreht im Kreis – sichtbar im Thinking-Block als endlose Bullet-Listen → Das Distilled-Modell hat Claudes Denkmuster internalisiert: strukturieren → Teilprobleme identifizieren → direkt lösen. Kein Herumirren. → Das Ergebnis: nicht nur bessere Antworten, sondern ein fundamental effizienterer Denkprozess Das ist der eigentliche Wert der Destillation. Nicht mehr Wissen – sondern besseres Denken. ─────────────────────────────
0
0
Fehler in LM Studio
Wer von Euch mit LM Studio arbeitet sollte mit dem aktuellen Update vorsichtig sein. Die Version 0.3.39 bringt bei mir einen Fehler bei der Nutzung mit n8n, so wie es aussieht ist da ein required Parameter hinzugekommen den die OpenAI Node von n8n noch nicht kennt. In den Release Nodes konnte ich aber nichts finden.
0
0
2 Fragen zu Buchhaltung Automatisieren
Ich habe mich heute einmal dem n8n Workflow Buchhaltung automatisieren gewidmet. Vielen Dank ersteinmal für die Bereitstellung des Workflows. Das hat schon sehr geholfen, das ganze selbst zu adaptieren. 2 Rückfragen habe ich: In der Node: "Erstelle Buchungsvorschlag" übergibst du am Ende das Markdown mit {{ $('OCR').item.json.pages[0].markdown }}. Damit werden bei mehrseitigen PDFs nur die erste Seite für die Erstellung des Buchungsvorschlags genutzt. Frage: Ist das Absicht? Warum nicht alle Seiten für die Vorschläge berücksichtigen? Nicht jede Rechnung hat alle relevanten Informationen auf einer Seite. ----- In der Node: "Ermittle Steuer ID" setzt du zwar eine Tax Rate für Deutschland i.H.v. 19% diese kommt bei mir aber nie zur Anwendung, weil diese überschrieben wird ab Zeile 44 mit // Steuersatz auslesen (SevDesk gibt "ZERO", "NINETEEN" zurück) if (finalRule.taxRates && finalRule.taxRates.length > 0) { if (finalRule.taxRates[0] === 'ZERO') taxRate = 0; else if (finalRule.taxRates.includes('NINETEEN')) taxRate = 19; else if (finalRule.taxRates.includes('SEVEN')) taxRate = 7; } die taxRate auf 0 setzt, wenn Sevdesk in der Guidance 0 zulässt. Frage: Macht es hier nicht mehr Sinn beim höchsten Steuersatz zu beginnen?
0 likes • Jan 7
Der Part ab Zeile 44 überschreibt nichts, sondern ersetzt die "Wort" Steuersätze mit den Zahlen.
Fehler in n8n ?
Wer aktuell von Version 2.0.x auf Version 2.1.x geht hat eventuell einen Fehler beim Build weil n8n die apk Pakete rausgenommen hat (weiss nicht wie das bei coolify ist). Wenn jemand den Fehler hat dann ist hie die Lösung beschrieben: https://github.com/n8n-io/n8n/issues/23246
0
0
1-7 of 7
Michael Gross
1
3points to level up
@michael-gross-1272
Ich automatisiere die Aufgaben, die dich & dein Team ausbremsen. 30 Jahre Erfahrung. Schick mir eine Nachricht & wir schauen wie ich Dir helfen kann !

Active 1h ago
Joined Dec 21, 2025
Kutenholz