Activity
Mon
Wed
Fri
Sun
May
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Jan
Feb
Mar
Apr
What is this?
Less
More

Memberships

art!up | Netzwerk

257 members • Free

Superkraft KI

192 members • Free

3 contributions to Superkraft KI
Hallo!
Hallo, ich bin Albert und arbeite als Künstler mit KI. Ich komme von der traditionellen Malerei und bin seit einigen Jahren mehr und mehr zur KI gekommen. Mehr über mich und mein Werk auf https://nous-art.com/
0 likes • 5d
Hallo Siggi, freut mich, dass Du auch auf dem Weg der digitalen Kunst bist. Es gibt ja viele Vorbehalte gegen die Verwendung der digitalen Tools - oft auch aus Unkenntnis. We keep on track!
0 likes • 3d
Danke!
🔥 Google verschenkt gerade eine KI, die auf DEINEM Rechner läuft – und kaum jemand bekommt es mit
Vor ein paar Tagen hat Google etwas Bemerkenswertes gemacht: Sie haben Gemma 4 veröffentlicht – eine komplette KI-Modellfamilie, komplett Open Source, unter Apache-2.0-Lizenz. Das bedeutet: Du kannst diese Modelle kostenlos herunterladen, lokal bei dir laufen lassen und sogar kommerziell nutzen. Ohne API-Kosten. Ohne Cloud. Ohne dass deine Daten irgendwohin geschickt werden. Warum das wichtig ist? Weil es die Spielregeln verändert. Was Gemma 4 kann (kurz und knapp): Gemma 4 basiert auf derselben Forschung wie Googles Gemini 3 – also das gleiche Fundament wie Googles Spitzenmodell. Es gibt vier Varianten: zwei kleinere für Smartphones und Laptops (E2B und E4B) und zwei größere für leistungsfähigere Rechner (26B und 31B). Das Modell versteht Text UND Bilder, unterstützt über 140 Sprachen und hat ein Kontextfenster von bis zu 256K Tokens – das ist ein enormes „Gedächtnis" für ein lokales Modell. Und der Clou: Im Vergleich zu Gemma 3 ist der Sprung riesig – bei Coding-Benchmarks zum Beispiel von 110 auf 2.150 ELO. Das ist kein kleines Update, das ist eine andere Liga. Was bedeutet das für dich konkret? Stell dir vor: Du installierst dir eine App (Ollama), tippst einen einzigen Befehl ein – und hast einen KI-Assistenten, der komplett offline auf deinem Rechner läuft. Keine monatlichen Kosten. Keine Daten in der Cloud. Kein Abo. Natürlich ersetzt das nicht Claude oder ChatGPT für komplexe Aufgaben. Aber für viele Alltags-Anwendungen – Texte zusammenfassen, E-Mails vorformulieren, Code schreiben, Bilder analysieren – ist das beeindruckend gut. So probierst du es aus (in 2 Minuten): 1️⃣ Lade Ollama herunter: ollama.com (gibt's für Mac, Windows, Linux) 2️⃣ Öffne das Terminal / die Kommandozeile 3️⃣ Tippe: ollama run gemma4 4️⃣ Fertig. Du chattest jetzt mit einer KI, die lokal auf deinem Rechner läuft. Die Standard-Variante (E4B) ist dabei der Sweet Spot – braucht ca. 10 GB Download und läuft auf den meisten halbwegs aktuellen Rechnern.
🔥 Google verschenkt gerade eine KI, die auf DEINEM Rechner läuft – und kaum jemand bekommt es mit
1 like • 7d
Hallo @Jörg Schieb, ich hatte gestern Ollama auf einem Mac M1 installiert. Leider ließen sich keine Modelle, vor allem nicht Gemma, laden. Ich habe dann Ollama wieder deinstalliert, was gar nicht einfach war, da immer Programmreste die Deinstallation verhinderten.
0 likes • 6d
@Jörg Schieb Danke für den Tipp!
🤖 „LLM" – was bedeutet das eigentlich?
Wenn du dich mit KI beschäftigst, stolperst du ständig über diese drei Buchstaben: LLM. ChatGPT ist ein LLM. Claude ist ein LLM. Gemini ist ein LLM. Aber was genau steckt dahinter – und warum ist es wichtig, das zu verstehen? Die Abkürzung LLM steht für Large Language Model – auf Deutsch: großes Sprachmodell. „Groß" ist dabei keine Übertreibung. Die leistungsfähigsten LLMs von heute wurden mit Hunderten Milliarden von Parametern trainiert – das sind die internen Stellschrauben, an denen das Modell dreht, um Sprache zu verstehen und zu erzeugen. Was ein LLM eigentlich macht Im Kern tut ein LLM etwas verblüffend Einfaches: Es sagt das nächste Wort vorher. Immer und immer wieder, Wort für Wort, bis ein ganzer Text entsteht. Klingt simpel? Ist es im Prinzip auch. Aber wenn du dieses simple Prinzip auf eine riesige Datenmenge loslässt – im Grunde große Teile des Internets, Bücher, wissenschaftliche Arbeiten, Wikipedia, Foren, Code –, dann passiert etwas Erstaunliches: Das Modell lernt nicht nur Grammatik und Satzbau, sondern auch Zusammenhänge, Logik, Fachwissen, Humor, Stil und sogar so etwas wie Argumentation. Nicht weil jemand ihm das alles einzeln beigebracht hätte. Sondern weil es aus den Mustern in den Daten Strukturen erkennt, die unglaublich leistungsfähig sind. Wie das Training funktioniert – stark vereinfacht Stell dir vor, du liest dein ganzes Leben lang Bücher – Millionen davon. Irgendwann kannst du einen angefangenen Satz so gut weiterführen, dass er klingt, als käme er aus dem jeweiligen Buch. Du hast nie eine Regel gelernt, aber du hast ein Gespür dafür entwickelt, was als Nächstes kommen sollte. Genau das macht ein LLM, nur in einer Größenordnung, die sich kein Mensch vorstellen kann. Das Training läuft in zwei Phasen: 1. Pre-Training: Das Modell liest riesige Textmengen und lernt dabei, Muster in Sprache zu erkennen. Was folgt typischerweise auf welches Wort? In welchem Kontext? Das dauert Wochen bis Monate und verschlingt Millionen an Rechenkosten.
🤖 „LLM" – was bedeutet das eigentlich?
1 like • 7d
Für meine Webseite Manus AI (leider sehr teuer und unflexible Abimodelle) und Perplexity. Für die Kunst Midjourney.
1-3 of 3
Albert Schaeffer
1
3points to level up
@albert-schaeffer-5625
Ich bin ein Künstler, der mit KI arbeitet. I am an AI artist.

Active 2d ago
Joined Apr 7, 2026
Munich
Powered by