Will Smith comiendo spaghetti


2 años y medio. Unos 30 meses separan ambos clips, ambos hechos con IA generativa, que podéis ver adjuntos en esta publicación.

📹 El vídeo, publicado por el usuario Minchoi (que tiene otros ejemplos bastante impresionantes en su perfil), es una muestra increíble del avance que se ha obtenido en tan corto espacio de tiempo.

🔗 https://x.com/minchoi/status/1976042197154963702

Si no lo conocíais, el clip de la izquierda se convirtió en uno de los fenómenos, casi meme, de los inicios de la IA generativa de vídeo.

“Will Smith comiendo spaghetti”, un vídeo generado por el modelo ModelScope del laboratorio DAMO (De Alibaba, propietaria de Aliexpress), parecía sacado de una noche de borrachera con David Lynch.

Se usó durante mucho tiempo - e incluso hasta hace relativamente poco - por los detractores de la IA generativa, como muestra de los pobres resultados que ésta obtenía.

👉 El de la derecha se creó la semana pasada con Imagine 0.9 de xAI (Grok). Y lo cierto es que estamos en un punto en el que ya cuesta distinguirlo de la realidad.

🕒 30 meses y la generación de vídeo ya roza la perfección.

Elon Musk (xAI) ya avisó de que para finales de este 2025 estaríamos en disposición de crear un videoclip completo con un solo prompt, y que para finales de 2026 podríamos estar pensando en generar películas completas.

(Cojamos con pinzas los plazos de Mr. Musk, ya que de ser certero, llevaríamos un año colonizando Marte 😅)

🎬 Se vienen curvas en el audiovisual. Podríamos ver secuelas infinitas de Indiana Jones con Harrison Ford interpretando a Indy, o el esperado reencuentro de Friends con los actores luciendo tal y como estaban en 2004 cuando la serie puso su broche final.

En ese punto en el que la industria y los billetes se encuentran, sólo la gestión de los derechos por parte de los interesados evitará ver según qué cosas… Y aún así, nada evitará que llegue el momento —que llegará— en que cualquier persona pueda, desde su casa, hacerse su propia “Regreso al futuro IV” con un Michael J. Fox adolescente y compartirla con el mundo sin pasar por un estudio profesional.

💭 Al fin y al cabo, si hemos visto esto en 30 meses… ¿qué no veremos en 30 años?

🤔 ¿Y tú qué piensas? ¿Acabaremos viendo películas generadas por particulares en su habitación? 👇 ¡Te leo!

📹 Va de vídeo!


Ya tenemos Sora 2 saliendo del horno mientras que Google nos deja usar ya Veo 3 con cuentas gratuitas.

Ayer por la tarde, Open AI anunció la segunda versión de su modelo de generación de vídeo, Sora, cuyas mejoras técnicas y capacidades destacadas vienen a lanzar un misil a la línea de flotación de su gran competidor, Veo 3 de Google.

👉🏻 https://lnkd.in/dRW84h57

Sora 2 promete mayor precisión y realismo, con físicas más reales y coherencia en el escenario, objetos y personajes. Al igual que Veo 3, introduce audio con paisajes sonoros, voces y efectos y nos permite realizar "cameos", inyectar vídeo y audio real (por ejemplo grabándonos nosotros) para introducirlo en escenas generadas por Sora.

De momento, se ha lanzado ya en USA y Canadá mediante la app "Sora" para iOS. Las cuentas Pro (las de 200$) de ChatGPT que tendrán próximamente además acceso a una versión de más calidad denominada "Sora 2 Pro".

Por otro lado, Google, ahora incluye 100 créditos mensuales de generación de IA. Esto nos permite, entre otras cosas, generar vídeos en Flow con Veo 3. Si usamos Veo 3 Fast, con un consumo de unos 20 créditos por vídeo, tendríamos para generar 5 vídeos mensuales, en el caso de Veo 3 Quality, el consumo es superior por lo que sólo podremos generar 1 vídeo al mes.

Es poquito, pero suficiente para hacer alguna prueba antes de decidirse por el primer tier de pago, que incluye 1000 créditos de IA (que equivaldría a 200 vídeos de Veo 3 Fast y 10 de Veo 3 Quality). Lo podéis probar en https://lnkd.in/dwxUipfF

❓ Y tú, ¿Usas IA para generar vídeo? ¿Te animas a usar Veo 3?

Claude Sonnet 4.5 ya está aquí!

enter image description here

Anthropic presentaba ayer tarde el que promete ser el mejor modelo de codificación hasta la fecha. Y aunque ya sabemos que los benchmarks los carga el diablo, han presentado cifras muy interesantes para respaldar su lanzamiento.

Y si bien era cierto que muchos de los que usábamos Sonnet 4 para programar por ser el rey indiscutible, con la llegada de GPT-5 habíamos ido poco a poco dejando de lado el modelo de Anthropic. Sonnet 4.5 está aquí para recuperar el trono.

Sobre las frías cifras, Sonnet 4.5 supera en -casi- todo a GPT-5, pero destaca en la mayor capacidad de propósito agéntico y de entorno de escritorio (completando tareas de usos reales como navegación o autocompletado).

Anthropic promete además una mayor alineación del modelo, manteniendo el foco hasta 30 horas en tareas complejas, reduciendo sesgos como la adulación o el engaño y mejorando la seguridad ante prompt injection.

Varias empresas como Github, Canva o Figma ya lo están usando reportando más productividad, menos errores y análisis más precisos en contextos complejos.

Ya está disponible para todos los usuarios (incluidos los free) en claude.ai y para los usuarios de API mantiene el precio de Sonnet 4 de 3$ por millón de tokens de entrada y 15$ por millón de salida.

Pero como todo, los benchmarks pueden decir lo que quieran, que quien encumbre o entierre al modelo, serán los usuarios con el paso de los días.

Y tú qué piensas ¿el rey ha vuelto? Te leo.