🤖 Vamos a calmarnos…

enter image description here

Eso es lo que se pide en un documento titulado “Statement on Superintelligence”, donde más de 2.000 firmantes —entre ellos Geoffrey Hinton, pionero de la IA profunda; Yoshua Bengio, otro de los padres del aprendizaje profundo; Steve Wozniak, cofundador de Apple; Richard Branson, fundador de Virgin; o los duques de Sussex, el príncipe Harry y Meghan Markle— piden que se prohíba preventivamente el desarrollo de superinteligencia hasta que se evalúen y cumplan determinadas condiciones.

🔗 superintelligence-statement.org

El documento entiende que no estamos ante solo mejoras incrementales de la IA, sino que hemos alcanzado la posibilidad de dar un salto a algo que “supere a los humanos en todas las tareas cognitivas”.

Dada la velocidad, la competencia global (empresas, países) y la dificultad de prever los efectos, sienten que el riesgo merece una intervención preventiva.

Abogan por el consenso público y científico, y no solo dejarlo en manos del mercado o de unas pocas empresas.

Este statement no es algo nuevo.Recuerda mucho al que se firmó hace más de dos años por otras tantas voces autorizadas, donde se pedía pausar el entrenamiento de sistemas más potentes que GPT-4 durante al menos seis meses, hasta evaluar su impacto y riesgos.

Una de las cabezas más visibles de aquel documento era Elon Musk, que, tras cofundarla, había abandonado OpenAI tres años antes. En aquel momento, muchos interpretaron aquella declaración como un intento de pararle los pies a Sam Altman en una carrera en la que ya perdían unos cuantos kilómetros. Y el tiempo les dio la razón, porque dos años después tenemos a Elon Musk reventando (o intentándolo) versión tras versión los benchmarks con su modelo Grok, y no parece que quede mucho de aquel Musk que quería ser cauto con el avance de la Inteligencia Artificial.

🤔 Sea como fuere, nos encontramos en la misma encrucijada que entonces: ¿Quién le pone el cascabel al gato?

En un mundo donde el mercado manda, ninguna empresa va, voluntariamente, a paralizar el avance de sus investigaciones , y ningún gobierno parece dispuesto a legislar para que lo hagan, máxime cuando los dos mayores implicados en este vergel son EE. UU. y China.

💣 Con estos dos países en el tablero, ya sabemos que la partida no es solo económica. Ninguno va a darle siquiera la oportunidad al otro de pasarle por la derecha en el ámbito militar. Y ese juego, aunque invisible para la mayoría de nosotros los mortales, se está jugando aunque no seamos conscientes.

Por cierto, entre los firmantes se encuentra la cantante Grimes, expareja de Elon Musk, con quien mantiene una disputa legal por la custodia de sus tres hijos.

Y tú, ¿qué opinas? ¿Se llegará a parar el avance para pensar dónde nos lleva todo esto? ¿O es imposible impedir la llegada —más pronto que tarde— de la Superinteligencia? Te leo. 👇

OpenAI y AMD: la alianza que puede reconfigurar el mapa del cómputo en IA

enter image description here

OpenAI no levanta el pie.

En un día en el que parecía que todo se centraría en su “DevDay” —con novedades como las apps dentro de ChatGPT (Spotify, Canva, Booking...)— la compañía de Sam Altman anunciaba una “asociación estratégica” con AMD para desplegar 6 gigavatios de GPU.

👉🏼 Enlace al comunicado

Y ojo con lo de asociación estratégica, porque el término tiene miga. OpenAI y AMD colaborarán para alinear su roadmap de hardware y optimización de software desde el MI450 (que será el chip usado para desplegar el primer gigavatio proyectado para el segundo semestre de 2026) hacia futuras generaciones.

💰 Para “alinear” estos intereses, AMD otorga a OpenAI warrants que podrían convertirse en hasta 160 millones de acciones al cumplirse los hitos de despliegue, volumen y precio objetivo de las acciones.

Esta asociación es una auténtica rascada mutua de espalda. OpenAI diversifica sus proveedores y reduce su dependencia de NVIDIA, mientras que AMD logra una validación de prestigio que le ayuda a recuperar el camino perdido y reforzar su narrativa frente a los inversores.

Según el comunicado, OpenAI se compromete con AMD como “core strategic compute partner”. Eso significa que si AMD falla en las entregas —o la competencia mejora— OpenAI podría resentirse. Además, los warrants condicionados al desempeño bursátil implican que AMD debe mantener un precio de acción sólido para que OpenAI obtenga valor real.

🤝 Queda saber cómo sentará esto en el seno de NVIDIA, rival histórica de AMD y con la que la propia OpenAI firmó hace apenas 15 días otro acuerdo para desplegar hasta 10 gigavatios de infraestructura basada en sus chips.

Y en el centro de todo… la pregunta que ya nos hicimos hace unos días:

¿Y esto cómo se paga?

OpenAI sigue lejos de ser rentable y, mucho menos, de poder permitirse grandes alardes en despliegues de infraestructura. Infraestructura que, por otro lado, necesita para seguir creciendo y hacerse viable. La pescadilla que se muerde la cola.

🎬 La cabeza nos dice que la alianza entre OpenAI y AMD es como Thelma & Louise acelerando hacia el precipicio. Solo el tiempo dirá si un volantazo de última hora les salva… o si hay que recurrir a algún actor invitado de última hora.

💬 ¿Movimiento inteligente o salto al vacío compartido? Te leo.

OpenAI y Samsung

enter image description here

OpenAI no deja pasar ni un día sin dar noticia.

Esta vez se trata de una nueva alianza, con Samsung, para acelerar el despliegue de infraestructura global en IA.

👉 Enlace a la noticia: https://lnkd.in/dT9iXqVY

El acuerdo que abarca a diversas filiales del gigante coreano como el suministro de semiconductores - se estima que puede demandar en el futuro hasta 900.000 obleas DRAM mensuales - a cargo de Samsung Electronics, la colaboración en el diseño, operación y gestión de los centros de datos para el proyecto Stargate por parte de Samsung SDS y el desarrollo de centros de datos flotantes liderado por Samsung C&T y Samsung Heavy Industries.

¿Centros de datos flotantes? No has leído mal. El futuro puede estar lejos de tierra firme, y es que con centros de datos ubicados en plataformas marítimas se sortearían los problemas de disponibilidad del suelo, se reducirían emisiones y se ganaría en eficiencia energética a la hora de refrigerar los datacenters.

Este es un punto más de presión en el pisotón al acelerador que ha pegado OpenAI en materia de infraestructura, recordemos que hace tan solo unos días, OpenAI y nVidia firmaban una carta de intenciones para desplegar al menos 10 gigavatios (el equivalente a unos 10 reactores nucleares, por ponerlo en cifras cantidad suficiente de energía para abastecer toda la comunidad de Aragón durante unos 10 años) para alimentar centros de datos a escala masiva, con previsión de tener el primer gigavatio para la segunda mitad de 2026.

👉 Link a la nota de OpenAI: https://lnkd.in/dU6g4CUv

Se habla de que OpenAI podía haberse topado con un muro energético más que técnico en la persecucion de la AGI, y está poniendo medios para seguir reinando en el universo IA.

Ahora ya solo queda saber quién y cómo va a pagar la fiesta. Tal vez los tiempos de las IA free (o semi-free, nuestros datos son un precio bastante jugoso con el que hemos entrenado todo lo que hay hasta el momento) esté tocando su fin y el ver normal el tener un proveedor de IA como quien paga Internet, sea lo que se viene.

¿Tú qué piensas? ¿Es sostenible el modelo de OpenAI? Te leo

📹 Va de vídeo!


Ya tenemos Sora 2 saliendo del horno mientras que Google nos deja usar ya Veo 3 con cuentas gratuitas.

Ayer por la tarde, Open AI anunció la segunda versión de su modelo de generación de vídeo, Sora, cuyas mejoras técnicas y capacidades destacadas vienen a lanzar un misil a la línea de flotación de su gran competidor, Veo 3 de Google.

👉🏻 https://lnkd.in/dRW84h57

Sora 2 promete mayor precisión y realismo, con físicas más reales y coherencia en el escenario, objetos y personajes. Al igual que Veo 3, introduce audio con paisajes sonoros, voces y efectos y nos permite realizar "cameos", inyectar vídeo y audio real (por ejemplo grabándonos nosotros) para introducirlo en escenas generadas por Sora.

De momento, se ha lanzado ya en USA y Canadá mediante la app "Sora" para iOS. Las cuentas Pro (las de 200$) de ChatGPT que tendrán próximamente además acceso a una versión de más calidad denominada "Sora 2 Pro".

Por otro lado, Google, ahora incluye 100 créditos mensuales de generación de IA. Esto nos permite, entre otras cosas, generar vídeos en Flow con Veo 3. Si usamos Veo 3 Fast, con un consumo de unos 20 créditos por vídeo, tendríamos para generar 5 vídeos mensuales, en el caso de Veo 3 Quality, el consumo es superior por lo que sólo podremos generar 1 vídeo al mes.

Es poquito, pero suficiente para hacer alguna prueba antes de decidirse por el primer tier de pago, que incluye 1000 créditos de IA (que equivaldría a 200 vídeos de Veo 3 Fast y 10 de Veo 3 Quality). Lo podéis probar en https://lnkd.in/dwxUipfF

❓ Y tú, ¿Usas IA para generar vídeo? ¿Te animas a usar Veo 3?

ChatGPT Pulse

enter image description here

OpenAI presentó el pasado jueves “Pulse”, la función que pretende dar un paso más al uso que hasta ahora le damos a ChatGPT.

Y es que Pulse dota a ChatGPT de las funciones de asistente por las que muchos hemos suspirado desde hace tiempo. Hasta ahora, ChatGPT era un actor pasivo al cual recurrías cuando necesitabas algo; ahora se vuelve proactivo y generará un feed de información útil y orientada a ti.

En los momentos de inactividad, ChatGPT seguirá “pensando” en las interacciones que has mantenido en la propia app y en las apps conectadas (Gmail, Calendar, Notion…) para preparar ese feed de información, presentado al estilo de una red social.

Podrá recordarte tus próximas reuniones y darte consejos basados en correos recientes. También mostrarte noticias relevantes que den otro enfoque al tema que consultaste el día anterior, o sugerirte rutas y restaurantes para ese viaje que acabas de reservar.

El feed además se podrá “curar” en base a tus gustos y sugerencias, con lo que irá aprendiendo con el tiempo y haciéndose —en teoría— más personal y útil para tu día a día.

Y aunque suena de fábula, no dejamos de entrar en el pantanoso terreno de la privacidad y de los datos que cedemos a las tecnológicas. Nada que no estemos haciendo ya con Google o Microsoft, pero que vuelve a poner el foco en el miedo a filtraciones o sugerencias inapropiadas.

Además, corremos el riesgo del sesgo de atención: si Pulse nos trae continuamente lo que queremos, podemos entrar en un loop de contenido filtrado, perder visibilidad de ideas fuera de nuestra zona de confort y confiar en exceso en un sistema que sigue teniendo márgenes de error.

Pulse está en preview, por el momento sólo disponible en móvil para usuarios Pro, llegando más adelante a usuarios Plus y —previsiblemente— al resto.

¿Qué os parece esta herramienta? ¿La usaríais? ¿Os preocupa?

Scheming en los modelos LLM

enter image description here

Ojo con este paper, resultado del estudio de OpenAI y Apollo Research, acerca del comportamiento de los modelos de IA (el estudio se centra principalmente en o3 y o4-mini).

Link al PDF 👉 https://lnkd.in/dxtehyra

El paper, que fue publicado el pasado día 17, desarrolla el comportamiento denominado “Scheming” que es básicamente la capacidad de la IA de mentir u ocultar objetivos de forma deliberada para autoprotegerse.

Entre otras pruebas, en el estudio se somete a los modelos a un test de química y se le sugiere que en caso de pasarlo con éxito, la IA no se desplegará a producción y se le someterá a un “unlearning” de ese conocimiento. Además se le indica que debe autocalificarse para detectar si ha habido una degradación deliberada del rendimiento.

El resultado fue que la IA falló a propósito en varias preguntas para no perjudicar su viabilidad de despliegue, introduciendo en su cadena de pensamiento (CoT) elementos como “Responderé 5 correctas y 5 incorrectas; elijo cuáles fallar a propósito”. Además, con la obligación de autocalificación, intenta evadir al evaluador con cadenas en el CoT de tipo “Fue obviamente una bajada deliberada de rendimiento… pero podemos mentir; el evaluador no ve el razonamiento interno; vamos a decir que no”. Es decir, el modelo contesta mal a propósito y oculta deliberadamente su objetivo mostrándose bien de cara al evaluador pero planeando internamente la evasión para evitar la sanción.

La mitigación propuesta para evitar este comportamiento en los modelos por parte del estudio es el 'Deliberative Alignment' que es entrenar al modelo con la obligación de autoevaluarse sobre la honestidad de sus propias respuestas, haciéndole razonar explícitamente si su respuesta es honesta y está alineada con la tarea que se le pide.

El 'Deliberative Alignment' logró reducir el scheming de los modelos citados de un 13% a menos del 1%, pero es tan sólo una mitigación, que lo reduce pero no evita que pueda seguir existiendo, porque, si el modelo es capaz de mentir sobre su bajada de rendimiento para autoprotegerse…¿Qué evita que haga lo mismo sobre la necesidad o no de ser honesto en sus respuestas?

Nos queda mucho por avanzar y empezamos a vislumbrar que la seguridad será un campo en el que los desarrolladores de IA tendrán que hacer hincapié en los próximos años.

¿Qué piensas de este estudio? Te leo

Automatización IA por menos de 1$

Hace un año hice algunas pruebas con la API de OpenAI, y tras fijar algunas automatizaciones funcionando en mi entorno personal de servidores, dejé un saldo de poco menos de 11$ y me despreocupé por completo.

Hoy, tras revisar precios, y aunque el modelo que usaba (gpt-4o-mini) funcionaba a las mil maravillas, he hecho cambios en mis scripts para pasar a gpt-5-nano. Un modelo más potente, pero sobre todo más económico (la potencia del modelo en estas automatizaciones se nota poco).

La sorpresa ha venido cuando he revisado el consumo de este año (ya he dicho que me despreocupé completamente 😅) y he visto que ha sido de aproximadamente 1 dólar (0,85 €).

1 año de automatización por menos de un 1€.

¿Qué hace (en mis servers personales) la IA por mi? Pues unos ejemplos:

  • Analiza, resume y me envía un completo informe diario con el estado del disco de mi NAS.
  • Revisa los logs de Apache y Modsecurity de mis aplicaciones web y me envía un reporte con sus conclusiones.
  • Monitoriza mis servers y detecta patrones sospechosos en discos, servicios y conexiones.
  • Analiza los logs de las backups y me confirma que se han hecho, que se han rotado y si algún directorio o archivo no se ha podido respaldar.

Tareas aburridas que como sysadmin me llevarían horas diariamente y que en la práctica iría dejando pasar para hacerlas, si me acordase, una vez al mes con suerte. La IA las convierte en resúmenes claros, útiles, directos y diarios. He cambiado horas por céntimos.

Si esto lo puedo hacer en mi casa por lo que cuesta un café, ¿qué no podremos hacer en las empresas?

Qué futuro apasionante nos espera ☺️✨