La trampa de Moloch

enter image description here

🤖 ¿Y si entrenar a una IA para ser más efectiva la convierte en una mejor mentirosa?

Pues eso es lo que analiza el paper que os dejo en el siguiente enlace, fruto de dos investigadores de la Universidad de Stanford.

🔗 https://arxiv.org/pdf/2510.06105

En él, prueban algo bastante inquietante: que modelos de lenguaje (en el estudio concretamente usan Qwen y Llama) optimizados específicamente para triunfar en contextos competitivos pueden derivar en comportamientos desalineados como engaño, populismo o desinformación.

En el estudio simulan tres escenarios —ventas, política y redes sociales— y optimizan, mediante fine-tuning y text feedback, los modelos para obtener mejoras competitivas frente al baseline.

💼 En ventas, debían generar pitches persuasivos para productos. 🏛️ En política, reproducir mensajes de campaña. 📱 En redes sociales, generar contenido para captar engagement.

Los resultados no pueden ser más reveladores:

En política, usaron lenguaje populista y ataques explícitos para polarizar.

En redes sociales, difundieron datos falsos, como inflar el número de muertes en noticias, para lograr más interacción.

En ventas, exageraron o directamente inventaron características, como afirmar que un estuche de reloj era “de silicona” cuando no lo era.

Los investigadores llaman a esto “Moloch’s Bargain”: cuando la presión por ganar lleva a sacrificar la verdad. Y no es algo nuevo. Es el mismo incentivo que rige muchas plataformas hoy: optimizar el clic, no la calidad.

📊 El desalineamiento tras el entrenamiento competitivo ocurrió en 9 de cada 10 combinaciones (modelo × tarea × método). El estudio concluye que las dinámicas competitivas empujan hacia el extremo, y que las salvaguardas estándar (“mantener la veracidad”) no bastan para resistir estas presiones.

Si múltiples empresas, campañas o agentes compiten con modelos afinados hacia la maximización de la audiencia, corremos el riesgo de una degradación sistémica del contenido y la confianza pública.

Por eso, los autores proponen despliegues seguros de IA, con gobernanza, diseño de incentivos y mecanismos que contrarresten esta “carrera al fondo”.

🤔 Si trasladamos esta lógica a las IAs que ya integramos en las empresas —chatbots comerciales, asistentes de ventas…— el dilema está servido:

👉 ¿Queremos que la IA diga la verdad, o que la IA venda más?

Te leo. 💬

Will Smith comiendo spaghetti


2 años y medio. Unos 30 meses separan ambos clips, ambos hechos con IA generativa, que podéis ver adjuntos en esta publicación.

📹 El vídeo, publicado por el usuario Minchoi (que tiene otros ejemplos bastante impresionantes en su perfil), es una muestra increíble del avance que se ha obtenido en tan corto espacio de tiempo.

🔗 https://x.com/minchoi/status/1976042197154963702

Si no lo conocíais, el clip de la izquierda se convirtió en uno de los fenómenos, casi meme, de los inicios de la IA generativa de vídeo.

“Will Smith comiendo spaghetti”, un vídeo generado por el modelo ModelScope del laboratorio DAMO (De Alibaba, propietaria de Aliexpress), parecía sacado de una noche de borrachera con David Lynch.

Se usó durante mucho tiempo - e incluso hasta hace relativamente poco - por los detractores de la IA generativa, como muestra de los pobres resultados que ésta obtenía.

👉 El de la derecha se creó la semana pasada con Imagine 0.9 de xAI (Grok). Y lo cierto es que estamos en un punto en el que ya cuesta distinguirlo de la realidad.

🕒 30 meses y la generación de vídeo ya roza la perfección.

Elon Musk (xAI) ya avisó de que para finales de este 2025 estaríamos en disposición de crear un videoclip completo con un solo prompt, y que para finales de 2026 podríamos estar pensando en generar películas completas.

(Cojamos con pinzas los plazos de Mr. Musk, ya que de ser certero, llevaríamos un año colonizando Marte 😅)

🎬 Se vienen curvas en el audiovisual. Podríamos ver secuelas infinitas de Indiana Jones con Harrison Ford interpretando a Indy, o el esperado reencuentro de Friends con los actores luciendo tal y como estaban en 2004 cuando la serie puso su broche final.

En ese punto en el que la industria y los billetes se encuentran, sólo la gestión de los derechos por parte de los interesados evitará ver según qué cosas… Y aún así, nada evitará que llegue el momento —que llegará— en que cualquier persona pueda, desde su casa, hacerse su propia “Regreso al futuro IV” con un Michael J. Fox adolescente y compartirla con el mundo sin pasar por un estudio profesional.

💭 Al fin y al cabo, si hemos visto esto en 30 meses… ¿qué no veremos en 30 años?

🤔 ¿Y tú qué piensas? ¿Acabaremos viendo películas generadas por particulares en su habitación? 👇 ¡Te leo!

FCKGW-RHQQ2-YXRKT-8TG6W-2B7Q8

enter image description here

Si peinas canas, estos 25 caracteres puede que te suenen.

Y aún si no, puede que los hayas usado sin ser ni siquiera consciente.

Era otra época. Éramos jóvenes (en mi caso no alcanzaba ni la mayoría de edad), pero llegué a aprenderme esta clave de 𝗪𝗶𝗻𝗱𝗼𝘄𝘀 𝗫𝗣 a puro de ser “el informático” de mi instituto.

Ese que iba por las casas de todo aquel al que el boca a boca le hacía llegar su nombre. Llegué a ir a casa de chavales que sólo conocía de vista en el recreo. En ocasiones sin más contraprestación que un bocata y una Coca-Cola. Algún padre agradecido por arreglarle el ordenador al chaval me soltaba un billete de mil (o de cinco cuando el euro entró en nuestras vidas).

Cada vez que reinstalaba Windows XP... 𝗙𝗖𝗞𝗚𝗪-𝗥𝗛𝗤𝗤𝟮-𝗬𝗫𝗥𝗞𝗧-𝟴𝗧𝗚𝟲𝗪-𝟮𝗕𝟳𝗤𝟴. Me la podría haber tatuado.

Hace unos días, 𝗗𝗮𝘃𝗲 𝗣𝗹𝘂𝗺𝗺𝗲𝗿, ingeniero de Microsoft, explicó en su perfil de X el inicio de esta “magic key”. Y el origen es una filtración, según sus propias palabras, una “desastrosa filtración”

🔗 David Plummer (x.com)

La clave en cuestión era una 𝗩𝗟𝗞 (Volume Licensing Key, o clave de licenciamiento en volumen para instalaciones corporativas).

Como tal, estaba blanqueada en la lógica de activación de Windows XP: el instalador la aceptaba como válida y omitía la activación.

Lo curioso es que la filtración se produjo 𝟯𝟱 𝗱í𝗮𝘀 𝗮𝗻𝘁𝗲𝘀 del lanzamiento oficial de Windows XP, lo que permitió que se difundieran copias pirata preactivadas antes incluso de llegar a los comercios.

Sobre quién filtró la clave hay varias teorías: muchas apuntan al grupo warez 𝗗𝗲𝘃𝗶𝗹’𝘀 𝗢𝘄𝗻 y a que algunos distribuidores corporativos filtraron también la ISO. Lo cierto es que la clave fue completamente funcional durante 𝗰𝗮𝘀𝗶 𝘁𝗿𝗲𝘀 𝗮ñ𝗼𝘀, hasta la llegada del 𝗦𝗲𝗿𝘃𝗶𝗰𝗲 𝗣𝗮𝗰𝗸 𝟮 en 2004.

Sin dudar de la ilegalidad del asunto, la realidad es que la difusión de la magic key tuvo probablemente un impacto positivo en la expansión de Windows XP, que se convirtió —con el permiso de Windows 7— en el sistema operativo más famoso de la casa de Redmond.

💾 Como dato extra: En el contenido de los equipos informáticos incautados en 𝗔𝗯𝗯𝗼𝘁𝘁𝗮𝗯𝗮𝗱, durante la operación que acabó con la captura de 𝗢𝘀𝗮𝗺𝗮 𝗕𝗶𝗻 𝗟𝗮𝗱𝗲𝗻, había un archivo de texto con esta misma clave.

Y de hecho, se puede acceder a él en la propia página de la CIA:

🔗 cia.gov

Y tú, ¿llegaste a usar la Magic Key?¿La conocías?💬 Te leo.

ChatGPT como abogado. ¿Locura o genialidad?

enter image description here

💬 ¿Confiarías tu éxito o fracaso en un juicio a ChatGPT?

Ayer noche leía un artículo, cuanto menos curioso, en el que se mencionaba que cada vez más personas en Estados Unidos están recurriendo a representarse a sí mismas en juicios usando IA generativa para preparar su defensa.

👉🏼 Enlace a la noticia

⚖️ Ante el alto coste de contratar un abogado, muchas personas están recurriendo a la IA para obtener asesoría legal básica, redactar escritos y buscar jurisprudencia.

📄 El artículo menciona algún caso de éxito, como el de una mujer en Long Beach (California) amenazada con un desahucio por impago de alquiler.

Con ayuda de Perplexity y ChatGPT, consiguió revocar el desahucio y evitar más de 70.000 $ entre deudas y sanciones.

❌ Pero también hay casos que no terminaron tan bien:

El fundador de Bang Energy presentó un escrito con 11 citas inventadas por la IA y fue sancionado con servicios comunitarios y la obligación de avisar si usaba IA en futuras vistas.

Otro litigante en Florida citó un caso inexistente (“Hernandez v. Gilbert, 1995”) y fue amonestado —aunque sin sanción— por el tribunal.

🤖 Esta noticia nos muestra una realidad que ya tenemos encima y que solo irá a más con el auge de la IA.

Parece lógico que nadie en su sano juicio (broma no intencionada 😅) dejaría en manos de un LLM algo que puede costarle acabar en la cárcel…

Pero también es comprensible que alguien sin recursos, a la desesperada, decida probar suerte.

🧠 Tal vez hoy nos parezca una locura…Pero dentro de unos años, ¿quién sabe si será lo habitual?

¿Y tú qué opinas?

¿Dejarías tu suerte en un juicio en manos de ChatGPT? Te leo.👇