Will Smith comiendo spaghetti


2 años y medio. Unos 30 meses separan ambos clips, ambos hechos con IA generativa, que podéis ver adjuntos en esta publicación.

📹 El vídeo, publicado por el usuario Minchoi (que tiene otros ejemplos bastante impresionantes en su perfil), es una muestra increíble del avance que se ha obtenido en tan corto espacio de tiempo.

🔗 https://x.com/minchoi/status/1976042197154963702

Si no lo conocíais, el clip de la izquierda se convirtió en uno de los fenómenos, casi meme, de los inicios de la IA generativa de vídeo.

“Will Smith comiendo spaghetti”, un vídeo generado por el modelo ModelScope del laboratorio DAMO (De Alibaba, propietaria de Aliexpress), parecía sacado de una noche de borrachera con David Lynch.

Se usó durante mucho tiempo - e incluso hasta hace relativamente poco - por los detractores de la IA generativa, como muestra de los pobres resultados que ésta obtenía.

👉 El de la derecha se creó la semana pasada con Imagine 0.9 de xAI (Grok). Y lo cierto es que estamos en un punto en el que ya cuesta distinguirlo de la realidad.

🕒 30 meses y la generación de vídeo ya roza la perfección.

Elon Musk (xAI) ya avisó de que para finales de este 2025 estaríamos en disposición de crear un videoclip completo con un solo prompt, y que para finales de 2026 podríamos estar pensando en generar películas completas.

(Cojamos con pinzas los plazos de Mr. Musk, ya que de ser certero, llevaríamos un año colonizando Marte 😅)

🎬 Se vienen curvas en el audiovisual. Podríamos ver secuelas infinitas de Indiana Jones con Harrison Ford interpretando a Indy, o el esperado reencuentro de Friends con los actores luciendo tal y como estaban en 2004 cuando la serie puso su broche final.

En ese punto en el que la industria y los billetes se encuentran, sólo la gestión de los derechos por parte de los interesados evitará ver según qué cosas… Y aún así, nada evitará que llegue el momento —que llegará— en que cualquier persona pueda, desde su casa, hacerse su propia “Regreso al futuro IV” con un Michael J. Fox adolescente y compartirla con el mundo sin pasar por un estudio profesional.

💭 Al fin y al cabo, si hemos visto esto en 30 meses… ¿qué no veremos en 30 años?

🤔 ¿Y tú qué piensas? ¿Acabaremos viendo películas generadas por particulares en su habitación? 👇 ¡Te leo!

📹 Va de vídeo!


Ya tenemos Sora 2 saliendo del horno mientras que Google nos deja usar ya Veo 3 con cuentas gratuitas.

Ayer por la tarde, Open AI anunció la segunda versión de su modelo de generación de vídeo, Sora, cuyas mejoras técnicas y capacidades destacadas vienen a lanzar un misil a la línea de flotación de su gran competidor, Veo 3 de Google.

👉🏻 https://lnkd.in/dRW84h57

Sora 2 promete mayor precisión y realismo, con físicas más reales y coherencia en el escenario, objetos y personajes. Al igual que Veo 3, introduce audio con paisajes sonoros, voces y efectos y nos permite realizar "cameos", inyectar vídeo y audio real (por ejemplo grabándonos nosotros) para introducirlo en escenas generadas por Sora.

De momento, se ha lanzado ya en USA y Canadá mediante la app "Sora" para iOS. Las cuentas Pro (las de 200$) de ChatGPT que tendrán próximamente además acceso a una versión de más calidad denominada "Sora 2 Pro".

Por otro lado, Google, ahora incluye 100 créditos mensuales de generación de IA. Esto nos permite, entre otras cosas, generar vídeos en Flow con Veo 3. Si usamos Veo 3 Fast, con un consumo de unos 20 créditos por vídeo, tendríamos para generar 5 vídeos mensuales, en el caso de Veo 3 Quality, el consumo es superior por lo que sólo podremos generar 1 vídeo al mes.

Es poquito, pero suficiente para hacer alguna prueba antes de decidirse por el primer tier de pago, que incluye 1000 créditos de IA (que equivaldría a 200 vídeos de Veo 3 Fast y 10 de Veo 3 Quality). Lo podéis probar en https://lnkd.in/dwxUipfF

❓ Y tú, ¿Usas IA para generar vídeo? ¿Te animas a usar Veo 3?