User
Write something
El futuro no es IA o humano. Es ambos.
En California, en otros estados de EE. UU. y en muchos países, las leyes sobre IA ya están avanzando, pero es importante aclarar algo desde el principio: 👉 No existe todavía una ley general que obligue a etiquetar todos los avatares de IA en cualquier vídeo de redes sociales. A pesar de que muchas plataformas lo pueden exigir. Lo que sí existe —y esto es clave— son leyes de transparencia muy concretas, sobre todo en casos donde la IA puede inducir a error. Por ejemplo: - En California, los chatbots de IA están obligados a informar claramente de que son IA si pueden hacer creer al usuario que está hablando con una persona real. - En contenido político o deepfakes sensibles, es obligatorio indicar que se ha usado IA. - Y en muchos países (Europa incluida) se está endureciendo mucho el uso de imagen sin consentimiento y los deepfakes engañosos. - ¿Va a frenar esto a la IA?Para nada. La IA no va a parar.Lo que va a cambiar es cómo se usa y cómo se percibe. La gente se irá acostumbrando a seguir perfiles que saben que son IA.Habrá comunidades enteras alrededor de avatares, como ya empieza a verse con SORA y otros modelos.Nuevos formatos, nuevas narrativas, nuevas reglas no escritas. Pero aquí viene lo interesante: Existe un punto intermedio muy poderoso donde puedes aprovechar lo mejor de ambos mundos. Por ejemplo: - usar vídeos reales tuyos - y aplicar IA solo para mejorar: fondos, VFX, iluminación o efectos especiales Una versión “Hollywood” de ti mismo. También puedes grabar tus propios movimientos y luego sustituirte por un avatar, como ya comentamos en posts anteriores.La diferencia está en que el origen sigue siendo humano, y eso cada vez importa más. Ahora, algo muy práctico. Hace poco decidí cambiar de móvil. ¿Por qué?Porque cuando subes vídeos a redes sociales, la compresión destroza la calidad.Y si el vídeo ya parte de una calidad mediocre, el resultado final es horrible. Aquí hay una realidad incómoda:Apple tiene acuerdos especiales con las plataformas sociales.Por eso los vídeos grabados con iPhone se comprimen menos y mantienen mejor calidad.
SORA 2 vs el resto: una comprobación de realidad
Tengo que ser honesto: SORA 2 me está dejadando alucinado. Llevo usando VEO desde su primer lanzamiento, y durante mucho tiempo ha sido mi herramienta principal.Sobre todo por la consistencia de personajes. Probablemente influye que tengo acceso gratuito a la cuenta y un número determinado de créditos incluidos, lo cual ayuda bastante cuando estás probando mucho. Pero desde el lanzamiento de SORA, he empezado a cuestionarme algo: ¿Sigue teniendo sentido usar VEO como antes? Te explico por qué. VEO 3.1 recibió una actualización reciente y, en cuanto a consistencia de personajes, sigue pareciéndome mejor que muchos otros modelos.Aun así, con la última actualización de Kling 2.6 y otras herramientas del mercado, he estado comparándolo todo. Primero, una limitación importante: SORA no ofrece consistencia de personajes a través de la API.Es decir, si trabajas desde plataformas de terceros (no directamente desde OpenAI), esto es un gran inconveniente. Para mí, normalmente, eso es un punto negativo importante. Pero ahora mismo estoy trabajando en un proyecto nuevo que no necesita que todos los vídeos tengan una consistencia de personaje estricta. Y ahí es donde la cosa se pone interesante. En uno de los últimos casos, necesité 10 prompts y 10 generaciones en VEO 3.1…para acabar con un resultado malo. ¿El problema principal?La adherencia al prompt. Aunque reescribiera el prompt de muchas formas, el modelo seguía teniendo problemas para entender la física del mundo real y los movimientos lógicos. Misma idea.Misma escena.Sin necesidad de consistencia de personaje. Lo probé una sola vez en SORA (modo alta calidad). Y el resultado fue… impresionante. El realismo.La precisión.La forma en la que la historia se contaba visualmente. Sinceramente, parecía la noche y el día frente a otros modelos. Sí, el modo de alta calidad es caro.Incluso con el descuento que tengo ahora, no es barato. Pero cuando hablamos de storytelling, ahora mismo no hay comparación.
Control de Movimiento: Increíble, con límites...
Cada vez que aparece una nueva función de motion control, internet reacciona igual. Un clip perfecto.Una demo viral.Y de repente… esto lo cambia todo. Yo ya vi esta película antes. Cuando Runway lanzó motion control con Aleph, fui de los primeros en probarlo. Pagué. Testeé. Me emocioné. Y luego… decepción. Sin reembolso.Muchísimos clips rotos.Y una lección cara. Con el tiempo, Runway ha lanzado más actualizaciones y ha mejorado el sistema, pero en ese momento el golpe fue fuerte. Aun así, tenía que hacerlo — estaba construyendo mi canal sobre IA y no puedes hablar del camino si nunca lo has recorrido. Aquí viene lo que casi nadie dice: Las herramientas de motion control no crean movimiento.Lo copian. Les das un movimiento real — correr, colgarse de una barra, caminar, girar — y la IA intenta replicarlo en tu personaje o imagen. En teoría, es increíble.En la práctica… la física todavía confunde a la IA. Movimientos rápidos, acciones complejas, cambios de peso, gravedad… ahí es donde todo se rompe.Y el problema se vuelve más grande cuando hablamos de consistencia del personaje. Cuando el avatar se mueve demasiado rápido, la IA empieza a adivinar.Y cuando la IA adivina… las caras se deforman, los cuerpos se rompen, las proporciones se pierden. No es un bug. Es el límite actual de la tecnología. Ahora bien, el nuevo motion control de Kling… Siendo honesto, es lo mejor que hay ahora mismo en el mercado. Mis resultados han sido buenos. Mis avatares están funcionando bien. Likes, interacción, todo eso. Pero no estoy intentando movimientos físicos complejos. ¿Por qué? Porque el motion control es como poner un motor de Ferrari en un coche con ruedas de bicicleta. La potencia está ahí — la estabilidad todavía no. Y aquí es donde mucha gente se equivoca. La autenticidad es cada vez más valorada, tanto por los algoritmos como por las personas.Cuanto más real, humano y reconocible es el contenido, mejor funciona. Por eso no deberías depender de este tipo de herramientas.La IA no es tu identidad. Es solo un apoyo.
Dónde el esfuerzo con IA se convierte en desperdicio
Si has leído mis posts anteriores, probablemente ya notaste que estoy obsesionado con la consistencia de los personajes. No una obsesión sexy.La obsesión aburrida, dolorosa, de horas y dinero quemándose. El otro día algo me recordó a mis comienzos… y entendí por qué esto es tan importante, sobre todo si estás creando contenido con IA. Hay algo que casi nadie dice en voz alta: Crear contenido con IA tiene una curva de dificultad. El nivel más fácil es el contenido sin un avatar hablando.Generas clips, cortas lo que no sirve, añades una voz en off.Eso la IA lo maneja bastante bien. El siguiente nivel…es hacer que una IA hable como un humano real. Ahí es donde cambia el juego. YouTube te lo vende como si fuera un botón mágico.La realidad se siente más como intentar entrenar a un perro…con los ojos vendados…y pagando por cada error 💸 Yo esto lo aprendí gastando mucho dinero. Y aquí va la clave que casi todos los principiantes pasan por alto: La consistencia del personaje crea confianza. Nada puede competir con eso. Es el mayor logro que puedes desbloquear. Cuando la gente te reconoce al instante —tu cara, tus gestos, tu presencia —estás tocando la conexión más íntima posible con una audiencia. Eso es branding a nivel humano. Ahora… ¿por qué es tan difícil lograr esto con IA? Porque la IA no conoce tu cara.La predice. Si solo le das una o dos imágenes, es como pedirle a un artista que anime una película completa después de ver una sola foto tipo pasaporte. La IA no sabe: - cómo se mueve tu cara cuando hablas - cómo cambia tu mandíbula - cómo reaccionan tus ojos - ni que tienes un tatuaje detrás de la oreja si nunca lo vio Entonces, cuando el modelo intenta predecir el movimiento, rellena los huecos con suposiciones.Y ahí es donde se rompe la consistencia. Las fotos funcionan bien para una toma perfecta.Pero el video necesita miles de parámetros: ángulos, expresiones, micro-movimientos. Hasta que podamos entrenar modelos de video con alta precisión de forma sencilla, esta limitación es real.
4
0
🚀 He estado persiguiendo un fantasma… y por fin lo atrapé 👻✨
(Mi historia con la creación de contenido, la IA y cómo terminé siendo papá digital.) Durante años he sido como ese científico loco de las películas: mezclando pócimas, apretando botones y gritando “¡AHORA SÍ FUNCIONA!”…Solo para que mi “creación” saliera parecida a un personaje del PlayStation 2 después de una mala noche. Desde que aparecieron los primeros modelos de video e imagen en IA, tenía una misión clara:👉 Crear una persona digital que se sintiera verdaderamente humana. Suena fácil, ¿no?JA. Ojalá. Mis primeros intentos parecían haber escapado de un universo alterno donde las cejas desafían la física, los ojos miran al infinito por defecto y las voces suenan como si hubieran sido grabadas dentro de una tostadora. Y aquí entra mi Comité Oficial de Destrucción de Sueños (familia & amigos).Gente de confianza.Gente que no te miente.Gente que te dice la verdad aunque duela… con ganas. 😅 Ronda 1: “Bro… es MALÍSIMO.”Ronda 2: “Sigue sin parecer real.”Ronda 25: “El pelo es demasiado perfecto. Nadie respira así. Los ojos están… raros.” Pero algo fue cambiando…A medida que mejoraban las herramientas y yo perfeccionaba el proceso, tardaban más en encontrarle fallos.Tenían que mirar más de cerca.Pausar.Hacer zoom.Modo Sherlock Holmes activado. 🕵️‍♀️ Y entonces… ✨ Llegó el momento que llevaba años esperando. ✨ Abrí una nueva cuenta de Instagram con mi personaje IA: Evans (que, aviso legal, NO existe. Cero. Nada. Pura electricidad disfrazada de humano). Se lo enseño a mi círculo más cercano, esperando el clásico festival de críticas… Pero esta vez, mi equipo rompe–sueños se queda en silencio.No encuentran nada.Ni un comentario.Ni un “el ojo izquierdo parpadea raro”.Ni un “la piel parece de muñeco”. Solo dijeron:👉 “La verdad… parece real.” Me quedé sin palabras.Ellos sabían que era IA.Pero aun así… no pudieron distinguirlo. Y eso, para mí, fue histórico. ¿La IA sigue teniendo problemas? Por supuesto. No es humana.Necesita guía.Se comporta como un bebé digital que pregunta "¿y esto para qué sirve?" cada dos segundos.Pero cuando la tecnología avanza y tú avanzas con ella… pasan cosas mágicas.
5
0
1-10 of 10
powered by
ImpactoIA
skool.com/impactoia-9440
Crece con IA, consigue impactar con videos y con IA, busca, encuentra tu sueño o tu trabajo ideal con IA. Acompañanos en esta comunidad.
Build your own community
Bring people together around your passion and get paid.
Powered by