OpenAI y AMD: la alianza que puede reconfigurar el mapa del cómputo en IA

enter image description here

OpenAI no levanta el pie.

En un día en el que parecía que todo se centraría en su “DevDay” —con novedades como las apps dentro de ChatGPT (Spotify, Canva, Booking...)— la compañía de Sam Altman anunciaba una “asociación estratégica” con AMD para desplegar 6 gigavatios de GPU.

👉🏼 Enlace al comunicado

Y ojo con lo de asociación estratégica, porque el término tiene miga. OpenAI y AMD colaborarán para alinear su roadmap de hardware y optimización de software desde el MI450 (que será el chip usado para desplegar el primer gigavatio proyectado para el segundo semestre de 2026) hacia futuras generaciones.

💰 Para “alinear” estos intereses, AMD otorga a OpenAI warrants que podrían convertirse en hasta 160 millones de acciones al cumplirse los hitos de despliegue, volumen y precio objetivo de las acciones.

Esta asociación es una auténtica rascada mutua de espalda. OpenAI diversifica sus proveedores y reduce su dependencia de NVIDIA, mientras que AMD logra una validación de prestigio que le ayuda a recuperar el camino perdido y reforzar su narrativa frente a los inversores.

Según el comunicado, OpenAI se compromete con AMD como “core strategic compute partner”. Eso significa que si AMD falla en las entregas —o la competencia mejora— OpenAI podría resentirse. Además, los warrants condicionados al desempeño bursátil implican que AMD debe mantener un precio de acción sólido para que OpenAI obtenga valor real.

🤝 Queda saber cómo sentará esto en el seno de NVIDIA, rival histórica de AMD y con la que la propia OpenAI firmó hace apenas 15 días otro acuerdo para desplegar hasta 10 gigavatios de infraestructura basada en sus chips.

Y en el centro de todo… la pregunta que ya nos hicimos hace unos días:

¿Y esto cómo se paga?

OpenAI sigue lejos de ser rentable y, mucho menos, de poder permitirse grandes alardes en despliegues de infraestructura. Infraestructura que, por otro lado, necesita para seguir creciendo y hacerse viable. La pescadilla que se muerde la cola.

🎬 La cabeza nos dice que la alianza entre OpenAI y AMD es como Thelma & Louise acelerando hacia el precipicio. Solo el tiempo dirá si un volantazo de última hora les salva… o si hay que recurrir a algún actor invitado de última hora.

💬 ¿Movimiento inteligente o salto al vacío compartido? Te leo.

John Searle y la Habitación China

enter image description here

📚 Este fin de semana leí la noticia de que el pasado día 17 falleció John Searle, filósofo estadounidense, conocido por su famoso experimento de la 'Habitación China'.

💡 Dicho experimento, publicado en 1980, nació como crítica al test de Turing y se convirtió en uno de los argumentos más fuertes contra la idea de que la Inteligencia Artificial pudiera pensar genuinamente, aún incluso si ésta llegaba a igualar o superar la inteligencia humana.

En su experimento, Searle describe a una persona encerrada en una habitación sin conocimiento previo de chino a la cual se le facilita un completo manual, en su idioma, con reglas precisas para manipular sinogramas chinos.

Desde fuera, un hablante nativo introduce preguntas en chino a través de una rendija. Dentro, la persona consulta el manual y devuelve las respuestas correctas siguiendo las reglas fijadas.

📥 Desde fuera parece que “la habitación” entiende chino. Pero en realidad, la persona dentro no comprende ni una palabra: solo manipula símbolos formales.

⚙️ El mensaje de Searle era claro: manipular sintaxis no equivale a comprender semántica. Y para él, esa semántica era indispensable en el pensamiento genuino.

🔀 Hoy, si miramos los modelos actuales de lenguaje (GPT, Claude, LLama...), la metáfora sigue viva: manipulan tokens estadísticamente sin noción de “significado”. Sólo predicen la siguiente palabra según patrones. Aquí Searle tendría munición: los LLM no entienden más de lo que la habitación entiende chino.

🔧 La diferencia: los modelos actuales no siguen reglas rígidas ni un “libro”. Los pesos de la red neuronal se ajustan durante el entrenamiento. No hay manual, sino un sistema que se reconfigura con la experiencia que le proporcionan los datasets, algo más parecido al aprendizaje humano que a aplicar instrucciones fijas.

🧠 Y quizá la clave esté en ver el sistema completo y no el token aislado. Igual que una neurona sola no piensa, pero el conjunto de neuronas genera mente, el sistema completo de IA produce respuestas coherentes, creativas y con contexto.

Los modelos actuales ya no solo interpretan texto: “ven”, “oyen” y “hablan” gracias a la multimodalidad. Se conectan al mundo, asocian símbolos con experiencias. En ese cruce entre percepción y lenguaje puede estar naciendo un tipo de 'comprensión funcional'. Si es simulación o conciencia es difícil de saber.

💬 Y tú, ¿qué opinas? ¿Entender es sólo producir respuestas coherentes o hay algo más detrás? ¿Crees que la IA moderna sigue dentro de la habitación o estamos abriendo la puerta? Te leo!

ChatGPT dentro de Minecraft?


Si como yo sois aficionados a Minecraft, estaréis al tanto de los cientos de proyecto absurdamente maravillosos que se han generado dentro de este juego de tipo sandbox con bloques.

Usando redstone - un conjunto de items y bloques que permiten simular electricidad y lógica - se han creado dentro del juego, calculadoras, Gameboys, máquinas de turing...hasta se creó Minecraft dentro de Minecraft!

Pero lo que vi ayer es absolutamente loco: ChatGPT dentro de Minecraft!

📼 Os recomiendo ver el vídeo, sólo para haceros una idea del monstruo y del trabajo que lleva hacer semejante obra de ingeniería dentro del juego.

Bueno, primero de todo vamos a ser precisos. Lo que se ha emulado no es ChatGPT, es un transformer en miniatura, un modelo de 5M de parámetros (GPT-3 por ejemplo ya tenía 175.000M), un embedding de 240, vocabulario de 1920 tokens, 6 capas y un contexto de 64 tokens. Unas cifras ridículas para cualquier LLM incluso de hace años. Los pesos se cuantizaron para ocupar menos (8 bits la mayoría, algunos a 18 o 24 bits) y se guardaron en cientos de ficheros que se tradujeron a bloques de Minecraft.

El monstruo que se construyó dentro del juego, tarda unas 2 horas en generar una respuesta usando aceleración MCHPRS generando respuestas muy simples con frases muy cortas en inglés. A velocidad normal es técnicamente imposible de usar.

Evidentemente la hazaña no está en la practicidad si no en haber demostrado que, aunque diminuto (microscópico comparado incluso con los LLM más antiguos) se puede hacer funcionar un LLM dentro de Minecraft.

Por esos locos que pierden horas de sueño con estas frikadas, sólo por que se puede hacer! 🥂

Muy buen fin de semana!!

El enlace original al canal del autor: https://www.youtube.com/watch?v=VaeI9YgE1o8

OpenAI y Samsung

enter image description here

OpenAI no deja pasar ni un día sin dar noticia.

Esta vez se trata de una nueva alianza, con Samsung, para acelerar el despliegue de infraestructura global en IA.

👉 Enlace a la noticia: https://lnkd.in/dT9iXqVY

El acuerdo que abarca a diversas filiales del gigante coreano como el suministro de semiconductores - se estima que puede demandar en el futuro hasta 900.000 obleas DRAM mensuales - a cargo de Samsung Electronics, la colaboración en el diseño, operación y gestión de los centros de datos para el proyecto Stargate por parte de Samsung SDS y el desarrollo de centros de datos flotantes liderado por Samsung C&T y Samsung Heavy Industries.

¿Centros de datos flotantes? No has leído mal. El futuro puede estar lejos de tierra firme, y es que con centros de datos ubicados en plataformas marítimas se sortearían los problemas de disponibilidad del suelo, se reducirían emisiones y se ganaría en eficiencia energética a la hora de refrigerar los datacenters.

Este es un punto más de presión en el pisotón al acelerador que ha pegado OpenAI en materia de infraestructura, recordemos que hace tan solo unos días, OpenAI y nVidia firmaban una carta de intenciones para desplegar al menos 10 gigavatios (el equivalente a unos 10 reactores nucleares, por ponerlo en cifras cantidad suficiente de energía para abastecer toda la comunidad de Aragón durante unos 10 años) para alimentar centros de datos a escala masiva, con previsión de tener el primer gigavatio para la segunda mitad de 2026.

👉 Link a la nota de OpenAI: https://lnkd.in/dU6g4CUv

Se habla de que OpenAI podía haberse topado con un muro energético más que técnico en la persecucion de la AGI, y está poniendo medios para seguir reinando en el universo IA.

Ahora ya solo queda saber quién y cómo va a pagar la fiesta. Tal vez los tiempos de las IA free (o semi-free, nuestros datos son un precio bastante jugoso con el que hemos entrenado todo lo que hay hasta el momento) esté tocando su fin y el ver normal el tener un proveedor de IA como quien paga Internet, sea lo que se viene.

¿Tú qué piensas? ¿Es sostenible el modelo de OpenAI? Te leo