💻 Silicon Valley, 100 horas y un deja vú

enter image description here

Leía anoche el siguiente artículo en WSJ, que pone números al “elefante en la habitación” de Silicon Valley: entre 80 y 100 horas semanales en los grandes labs de IA.

👉 wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116

Porque detrás del brillo, la competición es feroz. Si Meta sube la puja con salarios de vértigo, el resto acompasa o se queda atrás. Se instaura la cultura de las largas jornadas como norma (“todo el mundo está trabajando todo el tiempo”, decía un científico de DeepMind) y la sensación de speedrun es real: se comprimen 20 años de progreso en dos.

Suena muy épico… y agotador.

A pesar de todo, muchos confiesan que siguen por elección. El coste de dejar pasar una buena oportunidad laboral pesa más que el agotamiento, la pérdida de vida social o el burnout.

Y es que esto ya lo hemos visto antes con las .com o con el boom móvil. El crunch de las 80-100 horas se repite cada vez que hay una frontera tecnológica. Primero es heroico, luego se normaliza y finalmente pasa factura.

Ese péndulo entre “productividad a cualquier precio” y “sostenibilidad” sube con el hype… y se corrige con la realidad.

A partir de cierto umbral, rendimos menos, nos equivocamos más y lo pagamos con salud. Física y mental. La innovación sostenible exige proteger a quienes la hacen posible.

🧠 La IA no va sólo de GPUs y papers. Va de personas.

Si de verdad aspiramos a algo transformador, toca rediseñar el “cómo” trabajamos. Menos sprints infinitos y más maratones bien planificadas y sostenibles.

💬 ¿Qué opinas? ¿Estamos romantizando el exceso o subestimando la velocidad necesaria? Te leo 👇

🤖 Vamos a calmarnos…

enter image description here

Eso es lo que se pide en un documento titulado “Statement on Superintelligence”, donde más de 2.000 firmantes —entre ellos Geoffrey Hinton, pionero de la IA profunda; Yoshua Bengio, otro de los padres del aprendizaje profundo; Steve Wozniak, cofundador de Apple; Richard Branson, fundador de Virgin; o los duques de Sussex, el príncipe Harry y Meghan Markle— piden que se prohíba preventivamente el desarrollo de superinteligencia hasta que se evalúen y cumplan determinadas condiciones.

🔗 superintelligence-statement.org

El documento entiende que no estamos ante solo mejoras incrementales de la IA, sino que hemos alcanzado la posibilidad de dar un salto a algo que “supere a los humanos en todas las tareas cognitivas”.

Dada la velocidad, la competencia global (empresas, países) y la dificultad de prever los efectos, sienten que el riesgo merece una intervención preventiva.

Abogan por el consenso público y científico, y no solo dejarlo en manos del mercado o de unas pocas empresas.

Este statement no es algo nuevo.Recuerda mucho al que se firmó hace más de dos años por otras tantas voces autorizadas, donde se pedía pausar el entrenamiento de sistemas más potentes que GPT-4 durante al menos seis meses, hasta evaluar su impacto y riesgos.

Una de las cabezas más visibles de aquel documento era Elon Musk, que, tras cofundarla, había abandonado OpenAI tres años antes. En aquel momento, muchos interpretaron aquella declaración como un intento de pararle los pies a Sam Altman en una carrera en la que ya perdían unos cuantos kilómetros. Y el tiempo les dio la razón, porque dos años después tenemos a Elon Musk reventando (o intentándolo) versión tras versión los benchmarks con su modelo Grok, y no parece que quede mucho de aquel Musk que quería ser cauto con el avance de la Inteligencia Artificial.

🤔 Sea como fuere, nos encontramos en la misma encrucijada que entonces: ¿Quién le pone el cascabel al gato?

En un mundo donde el mercado manda, ninguna empresa va, voluntariamente, a paralizar el avance de sus investigaciones , y ningún gobierno parece dispuesto a legislar para que lo hagan, máxime cuando los dos mayores implicados en este vergel son EE. UU. y China.

💣 Con estos dos países en el tablero, ya sabemos que la partida no es solo económica. Ninguno va a darle siquiera la oportunidad al otro de pasarle por la derecha en el ámbito militar. Y ese juego, aunque invisible para la mayoría de nosotros los mortales, se está jugando aunque no seamos conscientes.

Por cierto, entre los firmantes se encuentra la cantante Grimes, expareja de Elon Musk, con quien mantiene una disputa legal por la custodia de sus tres hijos.

Y tú, ¿qué opinas? ¿Se llegará a parar el avance para pensar dónde nos lleva todo esto? ¿O es imposible impedir la llegada —más pronto que tarde— de la Superinteligencia? Te leo. 👇

FCKGW-RHQQ2-YXRKT-8TG6W-2B7Q8

enter image description here

Si peinas canas, estos 25 caracteres puede que te suenen.

Y aún si no, puede que los hayas usado sin ser ni siquiera consciente.

Era otra época. Éramos jóvenes (en mi caso no alcanzaba ni la mayoría de edad), pero llegué a aprenderme esta clave de 𝗪𝗶𝗻𝗱𝗼𝘄𝘀 𝗫𝗣 a puro de ser “el informático” de mi instituto.

Ese que iba por las casas de todo aquel al que el boca a boca le hacía llegar su nombre. Llegué a ir a casa de chavales que sólo conocía de vista en el recreo. En ocasiones sin más contraprestación que un bocata y una Coca-Cola. Algún padre agradecido por arreglarle el ordenador al chaval me soltaba un billete de mil (o de cinco cuando el euro entró en nuestras vidas).

Cada vez que reinstalaba Windows XP... 𝗙𝗖𝗞𝗚𝗪-𝗥𝗛𝗤𝗤𝟮-𝗬𝗫𝗥𝗞𝗧-𝟴𝗧𝗚𝟲𝗪-𝟮𝗕𝟳𝗤𝟴. Me la podría haber tatuado.

Hace unos días, 𝗗𝗮𝘃𝗲 𝗣𝗹𝘂𝗺𝗺𝗲𝗿, ingeniero de Microsoft, explicó en su perfil de X el inicio de esta “magic key”. Y el origen es una filtración, según sus propias palabras, una “desastrosa filtración”

🔗 David Plummer (x.com)

La clave en cuestión era una 𝗩𝗟𝗞 (Volume Licensing Key, o clave de licenciamiento en volumen para instalaciones corporativas).

Como tal, estaba blanqueada en la lógica de activación de Windows XP: el instalador la aceptaba como válida y omitía la activación.

Lo curioso es que la filtración se produjo 𝟯𝟱 𝗱í𝗮𝘀 𝗮𝗻𝘁𝗲𝘀 del lanzamiento oficial de Windows XP, lo que permitió que se difundieran copias pirata preactivadas antes incluso de llegar a los comercios.

Sobre quién filtró la clave hay varias teorías: muchas apuntan al grupo warez 𝗗𝗲𝘃𝗶𝗹’𝘀 𝗢𝘄𝗻 y a que algunos distribuidores corporativos filtraron también la ISO. Lo cierto es que la clave fue completamente funcional durante 𝗰𝗮𝘀𝗶 𝘁𝗿𝗲𝘀 𝗮ñ𝗼𝘀, hasta la llegada del 𝗦𝗲𝗿𝘃𝗶𝗰𝗲 𝗣𝗮𝗰𝗸 𝟮 en 2004.

Sin dudar de la ilegalidad del asunto, la realidad es que la difusión de la magic key tuvo probablemente un impacto positivo en la expansión de Windows XP, que se convirtió —con el permiso de Windows 7— en el sistema operativo más famoso de la casa de Redmond.

💾 Como dato extra: En el contenido de los equipos informáticos incautados en 𝗔𝗯𝗯𝗼𝘁𝘁𝗮𝗯𝗮𝗱, durante la operación que acabó con la captura de 𝗢𝘀𝗮𝗺𝗮 𝗕𝗶𝗻 𝗟𝗮𝗱𝗲𝗻, había un archivo de texto con esta misma clave.

Y de hecho, se puede acceder a él en la propia página de la CIA:

🔗 cia.gov

Y tú, ¿llegaste a usar la Magic Key?¿La conocías?💬 Te leo.

ChatGPT como abogado. ¿Locura o genialidad?

enter image description here

💬 ¿Confiarías tu éxito o fracaso en un juicio a ChatGPT?

Ayer noche leía un artículo, cuanto menos curioso, en el que se mencionaba que cada vez más personas en Estados Unidos están recurriendo a representarse a sí mismas en juicios usando IA generativa para preparar su defensa.

👉🏼 Enlace a la noticia

⚖️ Ante el alto coste de contratar un abogado, muchas personas están recurriendo a la IA para obtener asesoría legal básica, redactar escritos y buscar jurisprudencia.

📄 El artículo menciona algún caso de éxito, como el de una mujer en Long Beach (California) amenazada con un desahucio por impago de alquiler.

Con ayuda de Perplexity y ChatGPT, consiguió revocar el desahucio y evitar más de 70.000 $ entre deudas y sanciones.

❌ Pero también hay casos que no terminaron tan bien:

El fundador de Bang Energy presentó un escrito con 11 citas inventadas por la IA y fue sancionado con servicios comunitarios y la obligación de avisar si usaba IA en futuras vistas.

Otro litigante en Florida citó un caso inexistente (“Hernandez v. Gilbert, 1995”) y fue amonestado —aunque sin sanción— por el tribunal.

🤖 Esta noticia nos muestra una realidad que ya tenemos encima y que solo irá a más con el auge de la IA.

Parece lógico que nadie en su sano juicio (broma no intencionada 😅) dejaría en manos de un LLM algo que puede costarle acabar en la cárcel…

Pero también es comprensible que alguien sin recursos, a la desesperada, decida probar suerte.

🧠 Tal vez hoy nos parezca una locura…Pero dentro de unos años, ¿quién sabe si será lo habitual?

¿Y tú qué opinas?

¿Dejarías tu suerte en un juicio en manos de ChatGPT? Te leo.👇

5 chatbots poco conocidos a los que merece la pena echar un vistazo

enter image description here

💬 No todo es ChatGPT, Claude o Gemini (O DeepSeek y Qwen si nos vamos al lejano oriente 👀).

Hay un catálogo inmenso de chatbots que, sin ser los más potentes ni los más orientados a producción, merece la pena conocer y, por qué no, echar un rato en ellos.

A continuación, te dejo 5 chatbots menos conocidos que merece la pena probar 👇🏻

1️⃣ Pi AI (Inflection AI) - https://pi.ai/

🧠 Pensado como una “Inteligencia Personal”, más que como herramienta de productividad.

Un asistente conversacional empático (¡que además te habla!), ideal para charlas personales, brainstorming o simplemente conversar.

Tiene un diseño precioso y un tono muy humano, aunque no está orientado a tareas técnicas o de análisis.

2️⃣ LeChat Mistral - https://chat.mistral.ai/chat

🇪🇺 El chatbot del modelo francés Mistral, considerado el primer modelo europeo.

Aún está lejos de los grandes modelos norteamericanos o chinos, pero puede ser útil en aplicaciones mixtas: conversación y soporte técnico. Rápido, ligero y con un toque europeo en su enfoque de privacidad y estilo.

3️⃣ Kimi AI (Moonshot AI) - https://www.kimi.com/

🐉 Menos conocido que DeepSeek o Qwen, el modelo chino Kimi ha sido una de las sorpresas del año. Cuenta con una ventana de contexto de 128K y está preparado para manejar hasta 2 millones… de locos 🤯.

Además, integra “Kimi Slides” dentro del chat, para crear presentaciones Power Point de una manera alucinante.

4️⃣ Character AI - https://character.ai/

🎭 Diseñado para crear y usar personajes con personalidades únicas.

Enfocado al entretenimiento, rol narrativo e interacciones sociales, puedes simular conversaciones con personajes históricos o ficticios.

Funciona bajo un modelo freemium, pero la capa gratuita es más que suficiente para experimentar.

5️⃣ Replika - https://replika.com/

💞 Te permite crear un “compañero virtual” con quien compartir pensamientos, emociones o confidencias. Puedes elegir el tipo de relación (amigo, pareja, mentor...) y adaptar su estilo.

Casi rozando lo distópico 😅, ha estado en el punto de mira por temas de privacidad y dependencia emocional de algunos usuarios.

🤔 ¿Los conocías? 💬 ¿Has usado alguno? 📲 ¿Qué otros chats incluirías en este listado?

Te leo 👇🏻

John Searle y la Habitación China

enter image description here

📚 Este fin de semana leí la noticia de que el pasado día 17 falleció John Searle, filósofo estadounidense, conocido por su famoso experimento de la 'Habitación China'.

💡 Dicho experimento, publicado en 1980, nació como crítica al test de Turing y se convirtió en uno de los argumentos más fuertes contra la idea de que la Inteligencia Artificial pudiera pensar genuinamente, aún incluso si ésta llegaba a igualar o superar la inteligencia humana.

En su experimento, Searle describe a una persona encerrada en una habitación sin conocimiento previo de chino a la cual se le facilita un completo manual, en su idioma, con reglas precisas para manipular sinogramas chinos.

Desde fuera, un hablante nativo introduce preguntas en chino a través de una rendija. Dentro, la persona consulta el manual y devuelve las respuestas correctas siguiendo las reglas fijadas.

📥 Desde fuera parece que “la habitación” entiende chino. Pero en realidad, la persona dentro no comprende ni una palabra: solo manipula símbolos formales.

⚙️ El mensaje de Searle era claro: manipular sintaxis no equivale a comprender semántica. Y para él, esa semántica era indispensable en el pensamiento genuino.

🔀 Hoy, si miramos los modelos actuales de lenguaje (GPT, Claude, LLama...), la metáfora sigue viva: manipulan tokens estadísticamente sin noción de “significado”. Sólo predicen la siguiente palabra según patrones. Aquí Searle tendría munición: los LLM no entienden más de lo que la habitación entiende chino.

🔧 La diferencia: los modelos actuales no siguen reglas rígidas ni un “libro”. Los pesos de la red neuronal se ajustan durante el entrenamiento. No hay manual, sino un sistema que se reconfigura con la experiencia que le proporcionan los datasets, algo más parecido al aprendizaje humano que a aplicar instrucciones fijas.

🧠 Y quizá la clave esté en ver el sistema completo y no el token aislado. Igual que una neurona sola no piensa, pero el conjunto de neuronas genera mente, el sistema completo de IA produce respuestas coherentes, creativas y con contexto.

Los modelos actuales ya no solo interpretan texto: “ven”, “oyen” y “hablan” gracias a la multimodalidad. Se conectan al mundo, asocian símbolos con experiencias. En ese cruce entre percepción y lenguaje puede estar naciendo un tipo de 'comprensión funcional'. Si es simulación o conciencia es difícil de saber.

💬 Y tú, ¿qué opinas? ¿Entender es sólo producir respuestas coherentes o hay algo más detrás? ¿Crees que la IA moderna sigue dentro de la habitación o estamos abriendo la puerta? Te leo!