💻 Silicon Valley, 100 horas y un deja vú

enter image description here

Leía anoche el siguiente artículo en WSJ, que pone números al “elefante en la habitación” de Silicon Valley: entre 80 y 100 horas semanales en los grandes labs de IA.

👉 wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116

Porque detrás del brillo, la competición es feroz. Si Meta sube la puja con salarios de vértigo, el resto acompasa o se queda atrás. Se instaura la cultura de las largas jornadas como norma (“todo el mundo está trabajando todo el tiempo”, decía un científico de DeepMind) y la sensación de speedrun es real: se comprimen 20 años de progreso en dos.

Suena muy épico… y agotador.

A pesar de todo, muchos confiesan que siguen por elección. El coste de dejar pasar una buena oportunidad laboral pesa más que el agotamiento, la pérdida de vida social o el burnout.

Y es que esto ya lo hemos visto antes con las .com o con el boom móvil. El crunch de las 80-100 horas se repite cada vez que hay una frontera tecnológica. Primero es heroico, luego se normaliza y finalmente pasa factura.

Ese péndulo entre “productividad a cualquier precio” y “sostenibilidad” sube con el hype… y se corrige con la realidad.

A partir de cierto umbral, rendimos menos, nos equivocamos más y lo pagamos con salud. Física y mental. La innovación sostenible exige proteger a quienes la hacen posible.

🧠 La IA no va sólo de GPUs y papers. Va de personas.

Si de verdad aspiramos a algo transformador, toca rediseñar el “cómo” trabajamos. Menos sprints infinitos y más maratones bien planificadas y sostenibles.

💬 ¿Qué opinas? ¿Estamos romantizando el exceso o subestimando la velocidad necesaria? Te leo 👇

🤖 Vamos a calmarnos…

enter image description here

Eso es lo que se pide en un documento titulado “Statement on Superintelligence”, donde más de 2.000 firmantes —entre ellos Geoffrey Hinton, pionero de la IA profunda; Yoshua Bengio, otro de los padres del aprendizaje profundo; Steve Wozniak, cofundador de Apple; Richard Branson, fundador de Virgin; o los duques de Sussex, el príncipe Harry y Meghan Markle— piden que se prohíba preventivamente el desarrollo de superinteligencia hasta que se evalúen y cumplan determinadas condiciones.

🔗 superintelligence-statement.org

El documento entiende que no estamos ante solo mejoras incrementales de la IA, sino que hemos alcanzado la posibilidad de dar un salto a algo que “supere a los humanos en todas las tareas cognitivas”.

Dada la velocidad, la competencia global (empresas, países) y la dificultad de prever los efectos, sienten que el riesgo merece una intervención preventiva.

Abogan por el consenso público y científico, y no solo dejarlo en manos del mercado o de unas pocas empresas.

Este statement no es algo nuevo.Recuerda mucho al que se firmó hace más de dos años por otras tantas voces autorizadas, donde se pedía pausar el entrenamiento de sistemas más potentes que GPT-4 durante al menos seis meses, hasta evaluar su impacto y riesgos.

Una de las cabezas más visibles de aquel documento era Elon Musk, que, tras cofundarla, había abandonado OpenAI tres años antes. En aquel momento, muchos interpretaron aquella declaración como un intento de pararle los pies a Sam Altman en una carrera en la que ya perdían unos cuantos kilómetros. Y el tiempo les dio la razón, porque dos años después tenemos a Elon Musk reventando (o intentándolo) versión tras versión los benchmarks con su modelo Grok, y no parece que quede mucho de aquel Musk que quería ser cauto con el avance de la Inteligencia Artificial.

🤔 Sea como fuere, nos encontramos en la misma encrucijada que entonces: ¿Quién le pone el cascabel al gato?

En un mundo donde el mercado manda, ninguna empresa va, voluntariamente, a paralizar el avance de sus investigaciones , y ningún gobierno parece dispuesto a legislar para que lo hagan, máxime cuando los dos mayores implicados en este vergel son EE. UU. y China.

💣 Con estos dos países en el tablero, ya sabemos que la partida no es solo económica. Ninguno va a darle siquiera la oportunidad al otro de pasarle por la derecha en el ámbito militar. Y ese juego, aunque invisible para la mayoría de nosotros los mortales, se está jugando aunque no seamos conscientes.

Por cierto, entre los firmantes se encuentra la cantante Grimes, expareja de Elon Musk, con quien mantiene una disputa legal por la custodia de sus tres hijos.

Y tú, ¿qué opinas? ¿Se llegará a parar el avance para pensar dónde nos lleva todo esto? ¿O es imposible impedir la llegada —más pronto que tarde— de la Superinteligencia? Te leo. 👇

AWS se cayó y el mundo tembló

enter image description here

Se cumplen 24 horas de la caída que ayer lunes afectó a Amazon Web Services (AWS) y específicamente a su región de North Virginia (us-east-1). A continuación, las claves de lo que ocurrió y su relevancia 👇🏻

💥 ¿Qué pasó?

Alrededor de las 9:00 de la mañana (hora española), AWS comenzó a detectar un aumento de errores en la región de North Virginia.

La causa inicial fue un fallo en la resolución DNS de los endpoints de DynamoDB, aunque más tarde se confirmó que el origen estaba en un subsistema interno de red encargado de monitorizar la salud de los balanceadores de carga.

Ese subsistema falló, afectando al routing del tráfico y provocando fallos en cascada en más de 80 servicios de AWS. AWS descartó el ciberataque.

🌍 ¿A quién afectó?

La afectación fue global. Incluso la propia Amazon (Alexa, Prime Video…) se vio impactada, junto a servicios como Snapchat, Reddit, Signal, Venmo (Paypal), Atlassian (JIRA, Trello), Duolingo —que seguía caída anoche— y plataformas de entretenimiento como Fortnite o los juegos de Supercell (Clash Royale, Clash of Clans…).

EEUU fue el más afectado, ya que gran parte de los servicios residen físicamente en us-east-1, pero la criticidad de esta región hizo que el impacto se extendiera por todo el globo.

🇪🇸 ¿Cómo afectó en España?

Servicios como Atlassian, Snapchat, Canva o Salesforce sufrieron interrupciones.

Ticketmaster cayó, generando el caos en la venta de entradas de artistas como Aitana o La Oreja de Van Gogh, que incluso pospuso la venta.

También hubo incidencias en las grandes telecos (Movistar, Orange, Vodafone) y en la banca, con interrupciones en Santander, BBVA, ING y Caixabank. Bizum y las pasarelas de pago dejaron de funcionar, afectando al uso de datáfonos en todo el país.

🏛️ ¿Por qué us-east-1?

North Virginia es la madre de todas las regiones de AWS.

Fue la primera región que desplegó Amazon y además actúa como región “global”, es decir, soporta servicios de referencia para el resto de regiones.

Tiene 6 zonas de disponibilidad (AZ), cada una un datacenter independiente, pero ya lo dice Murphy...si algo puede salir mal, saldrá mal.

Si se cae cualquier otra región (Irlanda, España...) el impacto es localizado y controlable. Cuando cae us-east-1, el tercio de internet que se estima que depende de AWS, tiembla.

El mundo ya ha recuperado la normalidad, pero esta caída - probablemente la más grave en la historia de AWS - nos recuerda la dependencia masiva que tenemos de los macrodatacenters de unas pocas compañías tecnológicas.

Y es que lo que llamamos “Cloud” no dejan de ser los cientos de miles de CPDs que teníamos repartidos por el mundo unificados en menos de un centenar de macrodatacenters.

Las ventajas del Cloud son muchas. Pero no podemos olvidar, que cuando todos estamos bajo la misma nube…si llueve, nos mojamos todos.

Y ¿a ti?¿Te afectó la caída de AWS? Te leo!

NVIDIA DGX Spark, ¿De vuelta a la tierra?

enter image description here

💭 Tras el viaje a la nube… ¿y si la IA estuviese a punto de devolvernos a la tierra?

Esta semana, Jensen Huang (CEO de NVIDIA) entregó a Elon Musk (xAI, Tesla, SpaceX…) la primera unidad del DGX Spark, la que describen como “la supercomputadora de IA más pequeña del mundo”.

📦 Este dispositivo, del tamaño de un libro, es capaz de ejecutar modelos de hasta 200B de parámetros en inferencia local. Lo que supone tener la potencia de un datacenter en el escritorio.

El DGX Spark monta una memoria unificada coherente de 128 GB accesible para CPU+GPU, rendimiento teórico de hasta 1 petaFLOP (FP4) y capacidad de clustering, lo que supone que, uniendo dos unidades, elevamos la cifra teórica de 200B de parámetros hasta los 405B.

Si bien estas cifras están lejos de los grandes supermodelos, hablamos de que Qwen, Mistral o Llama 3 en sus versiones grandes podrían moverse con ajuste fino de rendimiento. Suficiente para ejecutar modelos en un ámbito completamente privado y sin restricciones.

💰 El aparato rondará los 4.000 USD, que si bien no es apto para todos los bolsillos, es notablemente más económico que los cientos de miles que cuestan los sistemas rack o estaciones de IA tradicionales. Y aunque está lejos en desempeño, no lo parece tanto si valoramos su relación coste/rendimiento.

🧠 Y es que la lógica dice que el mercado seguirá evolucionando para mejorar y abaratar la electrónica dedicada a IA, y no es descabellado pensar que las mismas empresas que viajamos a la nube, sacando la electrónica de nuestros CPDs para llevarla a AWS, Azure y demás, hagamos un viaje parcial a la tierra, enracando de nuevo servidores dedicados a IA y buscando pequeñas islas de cómputo en las áreas donde el Compliance y la seguridad del dato lo hagan más razonable.

Y tú, ¿qué opinas? ¿Tiene futuro la electrónica orientada a IA en el ámbito doméstico y empresarial? ¿O la IA será Cloud completamente? Te leo. 👇