NVIDIA DGX Spark, ¿De vuelta a la tierra?

enter image description here

💭 Tras el viaje a la nube… ¿y si la IA estuviese a punto de devolvernos a la tierra?

Esta semana, Jensen Huang (CEO de NVIDIA) entregó a Elon Musk (xAI, Tesla, SpaceX…) la primera unidad del DGX Spark, la que describen como “la supercomputadora de IA más pequeña del mundo”.

📦 Este dispositivo, del tamaño de un libro, es capaz de ejecutar modelos de hasta 200B de parámetros en inferencia local. Lo que supone tener la potencia de un datacenter en el escritorio.

El DGX Spark monta una memoria unificada coherente de 128 GB accesible para CPU+GPU, rendimiento teórico de hasta 1 petaFLOP (FP4) y capacidad de clustering, lo que supone que, uniendo dos unidades, elevamos la cifra teórica de 200B de parámetros hasta los 405B.

Si bien estas cifras están lejos de los grandes supermodelos, hablamos de que Qwen, Mistral o Llama 3 en sus versiones grandes podrían moverse con ajuste fino de rendimiento. Suficiente para ejecutar modelos en un ámbito completamente privado y sin restricciones.

💰 El aparato rondará los 4.000 USD, que si bien no es apto para todos los bolsillos, es notablemente más económico que los cientos de miles que cuestan los sistemas rack o estaciones de IA tradicionales. Y aunque está lejos en desempeño, no lo parece tanto si valoramos su relación coste/rendimiento.

🧠 Y es que la lógica dice que el mercado seguirá evolucionando para mejorar y abaratar la electrónica dedicada a IA, y no es descabellado pensar que las mismas empresas que viajamos a la nube, sacando la electrónica de nuestros CPDs para llevarla a AWS, Azure y demás, hagamos un viaje parcial a la tierra, enracando de nuevo servidores dedicados a IA y buscando pequeñas islas de cómputo en las áreas donde el Compliance y la seguridad del dato lo hagan más razonable.

Y tú, ¿qué opinas? ¿Tiene futuro la electrónica orientada a IA en el ámbito doméstico y empresarial? ¿O la IA será Cloud completamente? Te leo. 👇

ChatGPT dentro de Minecraft?


Si como yo sois aficionados a Minecraft, estaréis al tanto de los cientos de proyecto absurdamente maravillosos que se han generado dentro de este juego de tipo sandbox con bloques.

Usando redstone - un conjunto de items y bloques que permiten simular electricidad y lógica - se han creado dentro del juego, calculadoras, Gameboys, máquinas de turing...hasta se creó Minecraft dentro de Minecraft!

Pero lo que vi ayer es absolutamente loco: ChatGPT dentro de Minecraft!

📼 Os recomiendo ver el vídeo, sólo para haceros una idea del monstruo y del trabajo que lleva hacer semejante obra de ingeniería dentro del juego.

Bueno, primero de todo vamos a ser precisos. Lo que se ha emulado no es ChatGPT, es un transformer en miniatura, un modelo de 5M de parámetros (GPT-3 por ejemplo ya tenía 175.000M), un embedding de 240, vocabulario de 1920 tokens, 6 capas y un contexto de 64 tokens. Unas cifras ridículas para cualquier LLM incluso de hace años. Los pesos se cuantizaron para ocupar menos (8 bits la mayoría, algunos a 18 o 24 bits) y se guardaron en cientos de ficheros que se tradujeron a bloques de Minecraft.

El monstruo que se construyó dentro del juego, tarda unas 2 horas en generar una respuesta usando aceleración MCHPRS generando respuestas muy simples con frases muy cortas en inglés. A velocidad normal es técnicamente imposible de usar.

Evidentemente la hazaña no está en la practicidad si no en haber demostrado que, aunque diminuto (microscópico comparado incluso con los LLM más antiguos) se puede hacer funcionar un LLM dentro de Minecraft.

Por esos locos que pierden horas de sueño con estas frikadas, sólo por que se puede hacer! 🥂

Muy buen fin de semana!!

El enlace original al canal del autor: https://www.youtube.com/watch?v=VaeI9YgE1o8

Scheming en los modelos LLM

enter image description here

Ojo con este paper, resultado del estudio de OpenAI y Apollo Research, acerca del comportamiento de los modelos de IA (el estudio se centra principalmente en o3 y o4-mini).

Link al PDF 👉 https://lnkd.in/dxtehyra

El paper, que fue publicado el pasado día 17, desarrolla el comportamiento denominado “Scheming” que es básicamente la capacidad de la IA de mentir u ocultar objetivos de forma deliberada para autoprotegerse.

Entre otras pruebas, en el estudio se somete a los modelos a un test de química y se le sugiere que en caso de pasarlo con éxito, la IA no se desplegará a producción y se le someterá a un “unlearning” de ese conocimiento. Además se le indica que debe autocalificarse para detectar si ha habido una degradación deliberada del rendimiento.

El resultado fue que la IA falló a propósito en varias preguntas para no perjudicar su viabilidad de despliegue, introduciendo en su cadena de pensamiento (CoT) elementos como “Responderé 5 correctas y 5 incorrectas; elijo cuáles fallar a propósito”. Además, con la obligación de autocalificación, intenta evadir al evaluador con cadenas en el CoT de tipo “Fue obviamente una bajada deliberada de rendimiento… pero podemos mentir; el evaluador no ve el razonamiento interno; vamos a decir que no”. Es decir, el modelo contesta mal a propósito y oculta deliberadamente su objetivo mostrándose bien de cara al evaluador pero planeando internamente la evasión para evitar la sanción.

La mitigación propuesta para evitar este comportamiento en los modelos por parte del estudio es el 'Deliberative Alignment' que es entrenar al modelo con la obligación de autoevaluarse sobre la honestidad de sus propias respuestas, haciéndole razonar explícitamente si su respuesta es honesta y está alineada con la tarea que se le pide.

El 'Deliberative Alignment' logró reducir el scheming de los modelos citados de un 13% a menos del 1%, pero es tan sólo una mitigación, que lo reduce pero no evita que pueda seguir existiendo, porque, si el modelo es capaz de mentir sobre su bajada de rendimiento para autoprotegerse…¿Qué evita que haga lo mismo sobre la necesidad o no de ser honesto en sus respuestas?

Nos queda mucho por avanzar y empezamos a vislumbrar que la seguridad será un campo en el que los desarrolladores de IA tendrán que hacer hincapié en los próximos años.

¿Qué piensas de este estudio? Te leo

Automatización IA por menos de 1$

Hace un año hice algunas pruebas con la API de OpenAI, y tras fijar algunas automatizaciones funcionando en mi entorno personal de servidores, dejé un saldo de poco menos de 11$ y me despreocupé por completo.

Hoy, tras revisar precios, y aunque el modelo que usaba (gpt-4o-mini) funcionaba a las mil maravillas, he hecho cambios en mis scripts para pasar a gpt-5-nano. Un modelo más potente, pero sobre todo más económico (la potencia del modelo en estas automatizaciones se nota poco).

La sorpresa ha venido cuando he revisado el consumo de este año (ya he dicho que me despreocupé completamente 😅) y he visto que ha sido de aproximadamente 1 dólar (0,85 €).

1 año de automatización por menos de un 1€.

¿Qué hace (en mis servers personales) la IA por mi? Pues unos ejemplos:

  • Analiza, resume y me envía un completo informe diario con el estado del disco de mi NAS.
  • Revisa los logs de Apache y Modsecurity de mis aplicaciones web y me envía un reporte con sus conclusiones.
  • Monitoriza mis servers y detecta patrones sospechosos en discos, servicios y conexiones.
  • Analiza los logs de las backups y me confirma que se han hecho, que se han rotado y si algún directorio o archivo no se ha podido respaldar.

Tareas aburridas que como sysadmin me llevarían horas diariamente y que en la práctica iría dejando pasar para hacerlas, si me acordase, una vez al mes con suerte. La IA las convierte en resúmenes claros, útiles, directos y diarios. He cambiado horas por céntimos.

Si esto lo puedo hacer en mi casa por lo que cuesta un café, ¿qué no podremos hacer en las empresas?

Qué futuro apasionante nos espera ☺️✨