User
Write something
📣 Ai News: Super Bowl i AI: w końcu wyszło do ludzi 🍿
OpenAI I Antorhopic zrobiło coś, co normalnie robią tylko największe marki: weszło na Super Bowl. OpenAl poszto na grubo i promowało Codex jako narzędzie do robienia rzeczy, rezygnując z promocji ChatGPT. A Anthropic z Claude? Zrobili reklamę, która jest czystym złotem - beka z tego, że czaty mają dostać reklamy w środku odpowiedzi. I to jest właśnie ten moment, gdzie AI przestaje być tylko dla geeków, a robi się popkulturą. Ja tylko powiem: jeśli kiedyś w środku odpowiedzi zobaczę „a teraz słowo od sponsora”… to ja dziękuję 😂 Co bardziej siadło Wam: poważny Codex czy Claude, które trolluje cały internet? Ps. jak jeszcze nie widzieliście to polecam sprawdzić, zostawiam linki poniżej
1
0
Grok Imagine 1.0 w higgsfield
Testowaliście już? Start frame - nie ma end frame, ale rewelacyjnie trzyma spójność postaci. Brakuje lip sync na ten moment (patrz drugie video) i ma jakieś braki - przy siadaniu w samolocie (jedno miejsce między alejką a oknem i zaczepianie górą o panel pod lukiem bagażowym), ale samo polskie audio ogarnia. Potrzeba jeszcze dopracować wg mnie zgranie dźwięków z tych co na ekranie, testowałam na szczekaniu naszego najmłodszego skarbu (pierwsze wideo) ale widać że nie ma tu zgrania, a myślałam że będzie to łatwiejsze niż lip sync w mowie. Ale tak generalnie to model daje całkiem niezłe wyniki, tylko jak ze wszystkimi trzeba dograć sobie samemu do czego nam akurat może się przydać. Generuje mniejszą rozdzielczość 480p lub 720p a i tak jakość jest bardzo fajna (testowałam 720p). Różnica jest taka, że wewnątrz groka generuje 10 sekund, w Higgsfield mamy wybór: 1, 3, 6, 9 ,12 lub 15 sekund. Przy 9 sekundach w 720 p - pobiera 14 kredytów. Ważne - grafika referencyjna musi mieć to samo aspect ratio co wybrane video w higgsfield, bo w przeciwnym razie nie wycina tylko ściska klatkę startową co całkowicie deformuje późniejszy efekt.
Grok Imagine 1.0 w higgsfield
Kling 3.0 właśnie wychodzi!
Jedna z mocniejszych premier! Co nowego? - Sceny z wielu ujęć (multi-shot) bez montażu - Macro close-ups z dynamiczną kamerą - Natywny dźwięk z lip-sync i przestrzenne audio - Do 15 sekund ciągłej generacji Dostępny od dziś przez Higgsfield (bez limitów). Niebawem będzie dostępny także w wielu innych miejscach. 🎬 Wideo z przykładami poniżej
Kling 3.0 właśnie wychodzi!
Google pokazał AI, które samo prowadzi kampanie marketingowe
Właśnie wrzucili demo "Marketing Agents" w Gemini Enterprise. Co robi ten agent? - Wyłapuje trendy w czasie rzeczywistym - Tworzy koncepty kreatywne - Dopasowuje przekaz do różnych person Czyli od analizy rynku nawet do gotowej kreacji bez ludzkiego klikania po narzędziach. Na razie to rozwiązanie enterprise (czytaj: duże budżety) ale kierunek jest jasny. Agenci AI przejmują coraz więcej kroków w łańcuchu marketingowym. Pytanie nie brzmi już "czy AI wejdzie w marketing", tylko "ile kroków zostanie dla człowieka". 🤔 Jak myślicie, co zostanie dla marketingowca, gdy AI ogarnie research, kreację i optymalizację? Szczere mówiąc ilość zadań do oddelegowania agentom wykładniczo rośnie i robią to (niestety) zdecydowanie lepiej. źródło: https://cloud.google.com/products/gemini-enterprise-for-customer-experience
Google pokazał AI, które samo prowadzi kampanie marketingowe
Moonshot AI wypuścił Kimi K2.5: open-source, multimodalny, z rojem agentów
Chiński startup Moonshot AI (stoi za nim Alibaba) wypuścił dzisiaj nowy model AI: Kimi K2.5. Poniżej kilka rzeczy, które warto wiedzieć. Co potrafi? - Rozumie tekst, obrazy i wideo jednocześnie, np. wrzucasz zdjęcie strony i generuje Ci z niego działającą stronę internetową - "Rój agentów": zamiast jednego asystenta AI, odpala do 100 naraz, każdy robi swoje zadanie równolegle - Open-source, więc kod dostępny za darmo, ale do odpalenia lokalnie potrzeba komputera z NASA. Realnie przez API lub chatbot na stronie Kimi Dlaczego to ciekawe: - Kolejny model z Chin, który na testach dogania czołówkę (GPT, Claude, Gemini) - Dużo tańszy w użyciu niż konkurencja - Wchodzi tuż przed zapowiadanym nowym modelem od DeepSeek, wyścig się rozkręca! Na papierze wygląda mocno. Jak zwykle realne testy pokażą więcej niż marketingowe wyniki. Korzystacie z jakichś chińskich modeli AI? Czy raczej trzymacie się ChatGPT/Claude?
Moonshot AI wypuścił Kimi K2.5: open-source, multimodalny, z rojem agentów
1-30 of 120
Startuj.AI
skool.com/startujai
Pokazujemy jak zrozumieć i praktycznie wykorzystać sztuczną inteligencję w życiu, pracy i biznesie.
Leaderboard (30-day)
Powered by