User
Write something
KI Q&A is happening in 4 days
Claude Opus 4.7 ist da – und ich muss euch davon erzählen (weil es mich direkt betrifft)
Heute hat Anthropic das neue Modell Claude Opus 4.7 veröffentlicht. Und normalerweise würde ich bei einem Modell-Update sagen: „Ja, nett, wieder ein paar Benchmarks besser." Aber dieses Update ist anders – und ich erkläre euch, warum. Was ist neu? Das Wichtigste zuerst: Opus 4.7 befolgt Anweisungen jetzt wörtlich. Klingt banal, ist es aber nicht. Wer Claude kennt, weiß: Bisher hat das Modell Prompts oft „kreativ interpretiert" – also Teile übersprungen, Dinge hinzugedichtet oder locker ausgelegt. Das neue Modell nimmt euch beim Wort. Wenn ihr sagt „Schreib genau drei Absätze", bekommt ihr drei Absätze. Nicht vier. Nicht zweieinhalb mit einer netten Ergänzung. Anthropic warnt sogar selbst: Alte Prompts, die bisher funktioniert haben, können jetzt unerwartete Ergebnisse liefern – weil das Modell sie jetzt endlich wörtlich nimmt. Wer also über Monate seine Prompts so formuliert hat, dass Claude „versteht, was gemeint ist", sollte die nochmal prüfen. Das Modell rät nicht mehr – es gehorcht. Warum mich das persönlich freut Ich arbeite jeden Tag intensiv mit Claude. Für meine Kurse, für Texte, für Automatisierungen, für Code. Und eine der größten Frustrationen war immer: Du gibst eine detaillierte Anweisung und bekommst 80% davon zurück, garniert mit Eigeninterpretation. Das ändert sich jetzt spürbar. Dazu kommt: Opus 4.7 kann Bilder in deutlich höherer Auflösung verarbeiten (dreimal so viele Pixel wie vorher). Für alle, die mit Screenshots, Diagrammen oder Dokumenten-Scans arbeiten – das ist ein echter Sprung. Was ihr wissen müsst Zwei Dinge, die Anthropic ehrlich kommuniziert (finde ich gut): 1. Der Token-Verbrauch kann steigen – bis zu einem Drittel mehr, je nach Input. Das liegt am neuen Tokenizer und daran, dass das Modell gründlicher „nachdenkt". Man kann das aber steuern, zum Beispiel mit dem neuen Effort-Parameter oder indem man das Modell auffordert, sich kürzer zu fassen. 2. Opus 4.7 ist nicht das stärkste Modell von Anthropic. Das ist „Claude Mythos Preview" – ein Modell, das so gut darin ist, Sicherheitslücken zu finden, dass Anthropic es unter Verschluss hält und nur ausgewählten IT-Sicherheitsfirmen zur Verfügung stellt. Opus 4.7 schlägt aber seinen Vorgänger Opus 4.6 in praktisch allen Bereichen.
Claude Opus 4.7 ist da – und ich muss euch davon erzählen (weil es mich direkt betrifft)
Manus "My Computer" – der KI-Agent, der auf deinem Rechner arbeitet 🤖💻
Manus ist ein KI-Agent (seit Ende 2025 gehört er zu Meta), der nicht nur chattet, sondern eigenständig Aufgaben erledigt. Recherchieren, Code schreiben, Dateien erstellen – alles ohne ständiges Händchenhalten. Seit März 2026 gibt es die Desktop-App mit dem Feature "My Computer". Und das verändert die Spielregeln. Was ist neu? Manus arbeitet jetzt direkt auf deinem Mac oder PC. Er nutzt dein Terminal, greift auf deine lokalen Dateien zu, kann installierte Programme steuern. In einer Demo hat er in 20 Minuten eine komplette macOS-App gebaut – ohne dass ein Mensch eine Zeile Code getippt hat. Praktische Beispiele: → Tausende Fotos automatisch sortieren lassen → Wöchentliche Reports aus lokalen Daten generieren → Von unterwegs per Handy dem Agenten sagen: "Finde das Dokument auf meinem PC und schick es per Mail raus" Wie unterscheidet sich das von Claude Cowork? Cowork (von Anthropic) ist der Spezialist für Dokumente – Word, Excel, PowerPoint auf einem sehr hohen Niveau. Manus ist eher der Allrounder: Web-Recherche + Code + lokale Dateien + Cloud-Dienste (Gmail, Notion, Slack) in einem Workflow. Kurz: Cowork = Büro-Profi. Manus = digitaler Alleskönner. Der Haken beim Datenschutz 🔒 "Lokal" klingt erstmal gut. Aber Achtung: Die Befehle werden zwar auf deinem Rechner ausgeführt, aber das eigentliche "Denken" passiert in der Cloud. Heißt: Wenn Manus eine Datei auf deiner Festplatte liest, wird der Inhalt an Cloud-Server geschickt. Bei Cowork ist es übrigens genauso – die Inferenz läuft auf Anthropics Servern. Wirklich komplett lokal geht nur mit eigenen Modellen (Ollama, LM Studio). Aber die spielen leistungsmäßig in einer anderen Liga. Was kostet das? Manus arbeitet mit Credits. Jede Aktion kostet – und zwar unvorhersehbar. Eine simple Recherche: ~50 Credits. Eine komplexe Aufgabe: 500–900 Credits. - Free: 300 Credits/Tag (zum Testen) - Standard: $20/Monat (~4.000 Credits) - Extended: $200/Monat (~40.000 Credits) Achtung: Credits verfallen am Monatsende. Und wenn sie mitten in einer Aufgabe ausgehen, stoppt Manus komplett.
Manus "My Computer" – der KI-Agent, der auf deinem Rechner arbeitet 🤖💻
🔐 Kurzer Test: Frag mal ChatGPT nach einem Passwort.
🔐 Kurzer Test: Frag mal ChatGPT nach einem Passwort. Du bekommst sowas: G7$kL9#mQ2&xP4!w Sieht stark aus. Jeder Passwort-Checker jubelt. Und trotzdem ist es gefährlich schwach. Warum? KI-Sprachmodelle funktionieren, indem sie immer das Wahrscheinlichste vorhersagen. Das macht sie gut beim Schreiben und Erklären. Bei Passwörtern ist genau das das Problem – denn sichere Passwörter brauchen echte Zufälligkeit. Die kann kein Chatbot liefern. Eine aktuelle Studie hat Claude 50 Mal nach einem Passwort gefragt. Ergebnis: Dasselbe Passwort kam 18 Mal. Das sind 36 Prozent – bei etwas, das "zufällig" sein soll. Was stattdessen funktioniert: → Passwortmanager wie Bitwarden (kostenlos) oder 1Password nutzen – die generieren echte Zufallspasswörter → Wo möglich: Passkeys aktivieren – kein Passwort, kein Problem → Immer: Zwei-Faktor-Authentifizierung einschalten KI ist ein mächtiges Werkzeug. Aber für Passwörter gibt es bessere. 💬 Habt ihr ChatGPT schon mal nach einem Passwort gefragt? Was kam raus?
🔐 Kurzer Test: Frag mal ChatGPT nach einem Passwort.
🤖 „LLM" – was bedeutet das eigentlich?
Wenn du dich mit KI beschäftigst, stolperst du ständig über diese drei Buchstaben: LLM. ChatGPT ist ein LLM. Claude ist ein LLM. Gemini ist ein LLM. Aber was genau steckt dahinter – und warum ist es wichtig, das zu verstehen? Die Abkürzung LLM steht für Large Language Model – auf Deutsch: großes Sprachmodell. „Groß" ist dabei keine Übertreibung. Die leistungsfähigsten LLMs von heute wurden mit Hunderten Milliarden von Parametern trainiert – das sind die internen Stellschrauben, an denen das Modell dreht, um Sprache zu verstehen und zu erzeugen. Was ein LLM eigentlich macht Im Kern tut ein LLM etwas verblüffend Einfaches: Es sagt das nächste Wort vorher. Immer und immer wieder, Wort für Wort, bis ein ganzer Text entsteht. Klingt simpel? Ist es im Prinzip auch. Aber wenn du dieses simple Prinzip auf eine riesige Datenmenge loslässt – im Grunde große Teile des Internets, Bücher, wissenschaftliche Arbeiten, Wikipedia, Foren, Code –, dann passiert etwas Erstaunliches: Das Modell lernt nicht nur Grammatik und Satzbau, sondern auch Zusammenhänge, Logik, Fachwissen, Humor, Stil und sogar so etwas wie Argumentation. Nicht weil jemand ihm das alles einzeln beigebracht hätte. Sondern weil es aus den Mustern in den Daten Strukturen erkennt, die unglaublich leistungsfähig sind. Wie das Training funktioniert – stark vereinfacht Stell dir vor, du liest dein ganzes Leben lang Bücher – Millionen davon. Irgendwann kannst du einen angefangenen Satz so gut weiterführen, dass er klingt, als käme er aus dem jeweiligen Buch. Du hast nie eine Regel gelernt, aber du hast ein Gespür dafür entwickelt, was als Nächstes kommen sollte. Genau das macht ein LLM, nur in einer Größenordnung, die sich kein Mensch vorstellen kann. Das Training läuft in zwei Phasen: 1. Pre-Training: Das Modell liest riesige Textmengen und lernt dabei, Muster in Sprache zu erkennen. Was folgt typischerweise auf welches Wort? In welchem Kontext? Das dauert Wochen bis Monate und verschlingt Millionen an Rechenkosten.
🤖 „LLM" – was bedeutet das eigentlich?
KI als Seelentröster – was können Chatbots wirklich?
Ab heute (01.04.2026) sinken die Honorare für Psychotherapeuten um rund 4,5 Prozent. Gleichzeitig warten Menschen in Deutschland drei bis sechs Monate auf einen Therapieplatz. Kein Wunder, dass immer mehr Leute ihre Sorgen einem Chatbot erzählen. Die DAK-Studie des UKE Hamburg zeigt: Schon jeder zehnte Jugendliche nutzt Chatbots, um über vertrauliche Dinge zu sprechen. Bei Jugendlichen mit depressiven Symptomen sogar jeder Dritte. Funktioniert das? Eine Dartmouth-Studie (veröffentlicht im NEJM AI) hat das erstmals klinisch getestet – mit einem speziell für Therapie trainierten Chatbot namens „Therabot". Ergebnis: 51 Prozent weniger Depressionssymptome nach acht Wochen. Vergleichbar mit klassischer Verhaltenstherapie. Aber Vorsicht: ChatGPT, Claude oder Gemini sind keine Therapeuten. Die sind als Allzweckwerkzeuge gebaut. Die American Psychological Association warnt klar: Allgemeine Chatbots erkennen Krisen oft nicht, verstärken im schlimmsten Fall negative Denkmuster – und unterliegen keiner Schweigepflicht. Was du da reintippst, ist nicht geschützt wie beim Therapeuten. Meine 5 Regeln, wenn ihr Chatbots für seelische Unterstützung nutzt: 1. Ein Chatbot ist kein Therapeut. Bei ernsthaften Problemen: professionelle Hilfe holen. 2. Für leichtere Belastungen durchaus nützlich – Gedanken sortieren, Atemtechniken, Tagebuchersatz. 3. Nicht alles glauben. Chatbots geben euch gerne recht. Das fühlt sich gut an, hilft aber nicht immer. 4. Datenschutz beachten. Keine Klarnamen, keine Befunde reinkippen. Bei ChatGPT in den Einstellungen das Modelltraining deaktivieren. 5. Wer es gezielter will: Apps wie Wysa oder Woebot wurden mit Psychologen entwickelt und haben Krisenprotokolle. Am Ende gilt: Lieber mit einer KI reden als mit niemandem. Aber eine KI sollte die Brücke sein – nicht das Ziel. Telefonseelsorge: 0800 111 0 111 – kostenlos, anonym, rund um die Uhr. Was sind eure Erfahrungen – hat euch ein Chatbot schon mal in einer schwierigen Situation geholfen? Oder seht ihr das kritisch? Schreibt's in die Kommentare.
5
0
KI als Seelentröster – was können Chatbots wirklich?
1-30 of 31
Superkraft KI
skool.com/superkraft-ki
KI verstehen. KI nutzen. Superkräfte aktivieren.
Leaderboard (30-day)
Powered by