🤖 Vamos a calmarnos…

enter image description here

Eso es lo que se pide en un documento titulado “Statement on Superintelligence”, donde más de 2.000 firmantes —entre ellos Geoffrey Hinton, pionero de la IA profunda; Yoshua Bengio, otro de los padres del aprendizaje profundo; Steve Wozniak, cofundador de Apple; Richard Branson, fundador de Virgin; o los duques de Sussex, el príncipe Harry y Meghan Markle— piden que se prohíba preventivamente el desarrollo de superinteligencia hasta que se evalúen y cumplan determinadas condiciones.

🔗 superintelligence-statement.org

El documento entiende que no estamos ante solo mejoras incrementales de la IA, sino que hemos alcanzado la posibilidad de dar un salto a algo que “supere a los humanos en todas las tareas cognitivas”.

Dada la velocidad, la competencia global (empresas, países) y la dificultad de prever los efectos, sienten que el riesgo merece una intervención preventiva.

Abogan por el consenso público y científico, y no solo dejarlo en manos del mercado o de unas pocas empresas.

Este statement no es algo nuevo.Recuerda mucho al que se firmó hace más de dos años por otras tantas voces autorizadas, donde se pedía pausar el entrenamiento de sistemas más potentes que GPT-4 durante al menos seis meses, hasta evaluar su impacto y riesgos.

Una de las cabezas más visibles de aquel documento era Elon Musk, que, tras cofundarla, había abandonado OpenAI tres años antes. En aquel momento, muchos interpretaron aquella declaración como un intento de pararle los pies a Sam Altman en una carrera en la que ya perdían unos cuantos kilómetros. Y el tiempo les dio la razón, porque dos años después tenemos a Elon Musk reventando (o intentándolo) versión tras versión los benchmarks con su modelo Grok, y no parece que quede mucho de aquel Musk que quería ser cauto con el avance de la Inteligencia Artificial.

🤔 Sea como fuere, nos encontramos en la misma encrucijada que entonces: ¿Quién le pone el cascabel al gato?

En un mundo donde el mercado manda, ninguna empresa va, voluntariamente, a paralizar el avance de sus investigaciones , y ningún gobierno parece dispuesto a legislar para que lo hagan, máxime cuando los dos mayores implicados en este vergel son EE. UU. y China.

💣 Con estos dos países en el tablero, ya sabemos que la partida no es solo económica. Ninguno va a darle siquiera la oportunidad al otro de pasarle por la derecha en el ámbito militar. Y ese juego, aunque invisible para la mayoría de nosotros los mortales, se está jugando aunque no seamos conscientes.

Por cierto, entre los firmantes se encuentra la cantante Grimes, expareja de Elon Musk, con quien mantiene una disputa legal por la custodia de sus tres hijos.

Y tú, ¿qué opinas? ¿Se llegará a parar el avance para pensar dónde nos lleva todo esto? ¿O es imposible impedir la llegada —más pronto que tarde— de la Superinteligencia? Te leo. 👇

AWS se cayó y el mundo tembló

enter image description here

Se cumplen 24 horas de la caída que ayer lunes afectó a Amazon Web Services (AWS) y específicamente a su región de North Virginia (us-east-1). A continuación, las claves de lo que ocurrió y su relevancia 👇🏻

💥 ¿Qué pasó?

Alrededor de las 9:00 de la mañana (hora española), AWS comenzó a detectar un aumento de errores en la región de North Virginia.

La causa inicial fue un fallo en la resolución DNS de los endpoints de DynamoDB, aunque más tarde se confirmó que el origen estaba en un subsistema interno de red encargado de monitorizar la salud de los balanceadores de carga.

Ese subsistema falló, afectando al routing del tráfico y provocando fallos en cascada en más de 80 servicios de AWS. AWS descartó el ciberataque.

🌍 ¿A quién afectó?

La afectación fue global. Incluso la propia Amazon (Alexa, Prime Video…) se vio impactada, junto a servicios como Snapchat, Reddit, Signal, Venmo (Paypal), Atlassian (JIRA, Trello), Duolingo —que seguía caída anoche— y plataformas de entretenimiento como Fortnite o los juegos de Supercell (Clash Royale, Clash of Clans…).

EEUU fue el más afectado, ya que gran parte de los servicios residen físicamente en us-east-1, pero la criticidad de esta región hizo que el impacto se extendiera por todo el globo.

🇪🇸 ¿Cómo afectó en España?

Servicios como Atlassian, Snapchat, Canva o Salesforce sufrieron interrupciones.

Ticketmaster cayó, generando el caos en la venta de entradas de artistas como Aitana o La Oreja de Van Gogh, que incluso pospuso la venta.

También hubo incidencias en las grandes telecos (Movistar, Orange, Vodafone) y en la banca, con interrupciones en Santander, BBVA, ING y Caixabank. Bizum y las pasarelas de pago dejaron de funcionar, afectando al uso de datáfonos en todo el país.

🏛️ ¿Por qué us-east-1?

North Virginia es la madre de todas las regiones de AWS.

Fue la primera región que desplegó Amazon y además actúa como región “global”, es decir, soporta servicios de referencia para el resto de regiones.

Tiene 6 zonas de disponibilidad (AZ), cada una un datacenter independiente, pero ya lo dice Murphy...si algo puede salir mal, saldrá mal.

Si se cae cualquier otra región (Irlanda, España...) el impacto es localizado y controlable. Cuando cae us-east-1, el tercio de internet que se estima que depende de AWS, tiembla.

El mundo ya ha recuperado la normalidad, pero esta caída - probablemente la más grave en la historia de AWS - nos recuerda la dependencia masiva que tenemos de los macrodatacenters de unas pocas compañías tecnológicas.

Y es que lo que llamamos “Cloud” no dejan de ser los cientos de miles de CPDs que teníamos repartidos por el mundo unificados en menos de un centenar de macrodatacenters.

Las ventajas del Cloud son muchas. Pero no podemos olvidar, que cuando todos estamos bajo la misma nube…si llueve, nos mojamos todos.

Y ¿a ti?¿Te afectó la caída de AWS? Te leo!

NVIDIA DGX Spark, ¿De vuelta a la tierra?

enter image description here

💭 Tras el viaje a la nube… ¿y si la IA estuviese a punto de devolvernos a la tierra?

Esta semana, Jensen Huang (CEO de NVIDIA) entregó a Elon Musk (xAI, Tesla, SpaceX…) la primera unidad del DGX Spark, la que describen como “la supercomputadora de IA más pequeña del mundo”.

📦 Este dispositivo, del tamaño de un libro, es capaz de ejecutar modelos de hasta 200B de parámetros en inferencia local. Lo que supone tener la potencia de un datacenter en el escritorio.

El DGX Spark monta una memoria unificada coherente de 128 GB accesible para CPU+GPU, rendimiento teórico de hasta 1 petaFLOP (FP4) y capacidad de clustering, lo que supone que, uniendo dos unidades, elevamos la cifra teórica de 200B de parámetros hasta los 405B.

Si bien estas cifras están lejos de los grandes supermodelos, hablamos de que Qwen, Mistral o Llama 3 en sus versiones grandes podrían moverse con ajuste fino de rendimiento. Suficiente para ejecutar modelos en un ámbito completamente privado y sin restricciones.

💰 El aparato rondará los 4.000 USD, que si bien no es apto para todos los bolsillos, es notablemente más económico que los cientos de miles que cuestan los sistemas rack o estaciones de IA tradicionales. Y aunque está lejos en desempeño, no lo parece tanto si valoramos su relación coste/rendimiento.

🧠 Y es que la lógica dice que el mercado seguirá evolucionando para mejorar y abaratar la electrónica dedicada a IA, y no es descabellado pensar que las mismas empresas que viajamos a la nube, sacando la electrónica de nuestros CPDs para llevarla a AWS, Azure y demás, hagamos un viaje parcial a la tierra, enracando de nuevo servidores dedicados a IA y buscando pequeñas islas de cómputo en las áreas donde el Compliance y la seguridad del dato lo hagan más razonable.

Y tú, ¿qué opinas? ¿Tiene futuro la electrónica orientada a IA en el ámbito doméstico y empresarial? ¿O la IA será Cloud completamente? Te leo. 👇

La trampa de Moloch

enter image description here

🤖 ¿Y si entrenar a una IA para ser más efectiva la convierte en una mejor mentirosa?

Pues eso es lo que analiza el paper que os dejo en el siguiente enlace, fruto de dos investigadores de la Universidad de Stanford.

🔗 https://arxiv.org/pdf/2510.06105

En él, prueban algo bastante inquietante: que modelos de lenguaje (en el estudio concretamente usan Qwen y Llama) optimizados específicamente para triunfar en contextos competitivos pueden derivar en comportamientos desalineados como engaño, populismo o desinformación.

En el estudio simulan tres escenarios —ventas, política y redes sociales— y optimizan, mediante fine-tuning y text feedback, los modelos para obtener mejoras competitivas frente al baseline.

💼 En ventas, debían generar pitches persuasivos para productos. 🏛️ En política, reproducir mensajes de campaña. 📱 En redes sociales, generar contenido para captar engagement.

Los resultados no pueden ser más reveladores:

En política, usaron lenguaje populista y ataques explícitos para polarizar.

En redes sociales, difundieron datos falsos, como inflar el número de muertes en noticias, para lograr más interacción.

En ventas, exageraron o directamente inventaron características, como afirmar que un estuche de reloj era “de silicona” cuando no lo era.

Los investigadores llaman a esto “Moloch’s Bargain”: cuando la presión por ganar lleva a sacrificar la verdad. Y no es algo nuevo. Es el mismo incentivo que rige muchas plataformas hoy: optimizar el clic, no la calidad.

📊 El desalineamiento tras el entrenamiento competitivo ocurrió en 9 de cada 10 combinaciones (modelo × tarea × método). El estudio concluye que las dinámicas competitivas empujan hacia el extremo, y que las salvaguardas estándar (“mantener la veracidad”) no bastan para resistir estas presiones.

Si múltiples empresas, campañas o agentes compiten con modelos afinados hacia la maximización de la audiencia, corremos el riesgo de una degradación sistémica del contenido y la confianza pública.

Por eso, los autores proponen despliegues seguros de IA, con gobernanza, diseño de incentivos y mecanismos que contrarresten esta “carrera al fondo”.

🤔 Si trasladamos esta lógica a las IAs que ya integramos en las empresas —chatbots comerciales, asistentes de ventas…— el dilema está servido:

👉 ¿Queremos que la IA diga la verdad, o que la IA venda más?

Te leo. 💬