NVIDIA DGX Spark, ¿De vuelta a la tierra?

enter image description here

💭 Tras el viaje a la nube… ¿y si la IA estuviese a punto de devolvernos a la tierra?

Esta semana, Jensen Huang (CEO de NVIDIA) entregó a Elon Musk (xAI, Tesla, SpaceX…) la primera unidad del DGX Spark, la que describen como “la supercomputadora de IA más pequeña del mundo”.

📦 Este dispositivo, del tamaño de un libro, es capaz de ejecutar modelos de hasta 200B de parámetros en inferencia local. Lo que supone tener la potencia de un datacenter en el escritorio.

El DGX Spark monta una memoria unificada coherente de 128 GB accesible para CPU+GPU, rendimiento teórico de hasta 1 petaFLOP (FP4) y capacidad de clustering, lo que supone que, uniendo dos unidades, elevamos la cifra teórica de 200B de parámetros hasta los 405B.

Si bien estas cifras están lejos de los grandes supermodelos, hablamos de que Qwen, Mistral o Llama 3 en sus versiones grandes podrían moverse con ajuste fino de rendimiento. Suficiente para ejecutar modelos en un ámbito completamente privado y sin restricciones.

💰 El aparato rondará los 4.000 USD, que si bien no es apto para todos los bolsillos, es notablemente más económico que los cientos de miles que cuestan los sistemas rack o estaciones de IA tradicionales. Y aunque está lejos en desempeño, no lo parece tanto si valoramos su relación coste/rendimiento.

🧠 Y es que la lógica dice que el mercado seguirá evolucionando para mejorar y abaratar la electrónica dedicada a IA, y no es descabellado pensar que las mismas empresas que viajamos a la nube, sacando la electrónica de nuestros CPDs para llevarla a AWS, Azure y demás, hagamos un viaje parcial a la tierra, enracando de nuevo servidores dedicados a IA y buscando pequeñas islas de cómputo en las áreas donde el Compliance y la seguridad del dato lo hagan más razonable.

Y tú, ¿qué opinas? ¿Tiene futuro la electrónica orientada a IA en el ámbito doméstico y empresarial? ¿O la IA será Cloud completamente? Te leo. 👇

OpenAI y AMD: la alianza que puede reconfigurar el mapa del cómputo en IA

enter image description here

OpenAI no levanta el pie.

En un día en el que parecía que todo se centraría en su “DevDay” —con novedades como las apps dentro de ChatGPT (Spotify, Canva, Booking...)— la compañía de Sam Altman anunciaba una “asociación estratégica” con AMD para desplegar 6 gigavatios de GPU.

👉🏼 Enlace al comunicado

Y ojo con lo de asociación estratégica, porque el término tiene miga. OpenAI y AMD colaborarán para alinear su roadmap de hardware y optimización de software desde el MI450 (que será el chip usado para desplegar el primer gigavatio proyectado para el segundo semestre de 2026) hacia futuras generaciones.

💰 Para “alinear” estos intereses, AMD otorga a OpenAI warrants que podrían convertirse en hasta 160 millones de acciones al cumplirse los hitos de despliegue, volumen y precio objetivo de las acciones.

Esta asociación es una auténtica rascada mutua de espalda. OpenAI diversifica sus proveedores y reduce su dependencia de NVIDIA, mientras que AMD logra una validación de prestigio que le ayuda a recuperar el camino perdido y reforzar su narrativa frente a los inversores.

Según el comunicado, OpenAI se compromete con AMD como “core strategic compute partner”. Eso significa que si AMD falla en las entregas —o la competencia mejora— OpenAI podría resentirse. Además, los warrants condicionados al desempeño bursátil implican que AMD debe mantener un precio de acción sólido para que OpenAI obtenga valor real.

🤝 Queda saber cómo sentará esto en el seno de NVIDIA, rival histórica de AMD y con la que la propia OpenAI firmó hace apenas 15 días otro acuerdo para desplegar hasta 10 gigavatios de infraestructura basada en sus chips.

Y en el centro de todo… la pregunta que ya nos hicimos hace unos días:

¿Y esto cómo se paga?

OpenAI sigue lejos de ser rentable y, mucho menos, de poder permitirse grandes alardes en despliegues de infraestructura. Infraestructura que, por otro lado, necesita para seguir creciendo y hacerse viable. La pescadilla que se muerde la cola.

🎬 La cabeza nos dice que la alianza entre OpenAI y AMD es como Thelma & Louise acelerando hacia el precipicio. Solo el tiempo dirá si un volantazo de última hora les salva… o si hay que recurrir a algún actor invitado de última hora.

💬 ¿Movimiento inteligente o salto al vacío compartido? Te leo.

OpenAI y Samsung

enter image description here

OpenAI no deja pasar ni un día sin dar noticia.

Esta vez se trata de una nueva alianza, con Samsung, para acelerar el despliegue de infraestructura global en IA.

👉 Enlace a la noticia: https://lnkd.in/dT9iXqVY

El acuerdo que abarca a diversas filiales del gigante coreano como el suministro de semiconductores - se estima que puede demandar en el futuro hasta 900.000 obleas DRAM mensuales - a cargo de Samsung Electronics, la colaboración en el diseño, operación y gestión de los centros de datos para el proyecto Stargate por parte de Samsung SDS y el desarrollo de centros de datos flotantes liderado por Samsung C&T y Samsung Heavy Industries.

¿Centros de datos flotantes? No has leído mal. El futuro puede estar lejos de tierra firme, y es que con centros de datos ubicados en plataformas marítimas se sortearían los problemas de disponibilidad del suelo, se reducirían emisiones y se ganaría en eficiencia energética a la hora de refrigerar los datacenters.

Este es un punto más de presión en el pisotón al acelerador que ha pegado OpenAI en materia de infraestructura, recordemos que hace tan solo unos días, OpenAI y nVidia firmaban una carta de intenciones para desplegar al menos 10 gigavatios (el equivalente a unos 10 reactores nucleares, por ponerlo en cifras cantidad suficiente de energía para abastecer toda la comunidad de Aragón durante unos 10 años) para alimentar centros de datos a escala masiva, con previsión de tener el primer gigavatio para la segunda mitad de 2026.

👉 Link a la nota de OpenAI: https://lnkd.in/dU6g4CUv

Se habla de que OpenAI podía haberse topado con un muro energético más que técnico en la persecucion de la AGI, y está poniendo medios para seguir reinando en el universo IA.

Ahora ya solo queda saber quién y cómo va a pagar la fiesta. Tal vez los tiempos de las IA free (o semi-free, nuestros datos son un precio bastante jugoso con el que hemos entrenado todo lo que hay hasta el momento) esté tocando su fin y el ver normal el tener un proveedor de IA como quien paga Internet, sea lo que se viene.

¿Tú qué piensas? ¿Es sostenible el modelo de OpenAI? Te leo