5 chatbots poco conocidos a los que merece la pena echar un vistazo

enter image description here

💬 No todo es ChatGPT, Claude o Gemini (O DeepSeek y Qwen si nos vamos al lejano oriente 👀).

Hay un catálogo inmenso de chatbots que, sin ser los más potentes ni los más orientados a producción, merece la pena conocer y, por qué no, echar un rato en ellos.

A continuación, te dejo 5 chatbots menos conocidos que merece la pena probar 👇🏻

1️⃣ Pi AI (Inflection AI) - https://pi.ai/

🧠 Pensado como una “Inteligencia Personal”, más que como herramienta de productividad.

Un asistente conversacional empático (¡que además te habla!), ideal para charlas personales, brainstorming o simplemente conversar.

Tiene un diseño precioso y un tono muy humano, aunque no está orientado a tareas técnicas o de análisis.

2️⃣ LeChat Mistral - https://chat.mistral.ai/chat

🇪🇺 El chatbot del modelo francés Mistral, considerado el primer modelo europeo.

Aún está lejos de los grandes modelos norteamericanos o chinos, pero puede ser útil en aplicaciones mixtas: conversación y soporte técnico. Rápido, ligero y con un toque europeo en su enfoque de privacidad y estilo.

3️⃣ Kimi AI (Moonshot AI) - https://www.kimi.com/

🐉 Menos conocido que DeepSeek o Qwen, el modelo chino Kimi ha sido una de las sorpresas del año. Cuenta con una ventana de contexto de 128K y está preparado para manejar hasta 2 millones… de locos 🤯.

Además, integra “Kimi Slides” dentro del chat, para crear presentaciones Power Point de una manera alucinante.

4️⃣ Character AI - https://character.ai/

🎭 Diseñado para crear y usar personajes con personalidades únicas.

Enfocado al entretenimiento, rol narrativo e interacciones sociales, puedes simular conversaciones con personajes históricos o ficticios.

Funciona bajo un modelo freemium, pero la capa gratuita es más que suficiente para experimentar.

5️⃣ Replika - https://replika.com/

💞 Te permite crear un “compañero virtual” con quien compartir pensamientos, emociones o confidencias. Puedes elegir el tipo de relación (amigo, pareja, mentor...) y adaptar su estilo.

Casi rozando lo distópico 😅, ha estado en el punto de mira por temas de privacidad y dependencia emocional de algunos usuarios.

🤔 ¿Los conocías? 💬 ¿Has usado alguno? 📲 ¿Qué otros chats incluirías en este listado?

Te leo 👇🏻

OpenAI y AMD: la alianza que puede reconfigurar el mapa del cómputo en IA

enter image description here

OpenAI no levanta el pie.

En un día en el que parecía que todo se centraría en su “DevDay” —con novedades como las apps dentro de ChatGPT (Spotify, Canva, Booking...)— la compañía de Sam Altman anunciaba una “asociación estratégica” con AMD para desplegar 6 gigavatios de GPU.

👉🏼 Enlace al comunicado

Y ojo con lo de asociación estratégica, porque el término tiene miga. OpenAI y AMD colaborarán para alinear su roadmap de hardware y optimización de software desde el MI450 (que será el chip usado para desplegar el primer gigavatio proyectado para el segundo semestre de 2026) hacia futuras generaciones.

💰 Para “alinear” estos intereses, AMD otorga a OpenAI warrants que podrían convertirse en hasta 160 millones de acciones al cumplirse los hitos de despliegue, volumen y precio objetivo de las acciones.

Esta asociación es una auténtica rascada mutua de espalda. OpenAI diversifica sus proveedores y reduce su dependencia de NVIDIA, mientras que AMD logra una validación de prestigio que le ayuda a recuperar el camino perdido y reforzar su narrativa frente a los inversores.

Según el comunicado, OpenAI se compromete con AMD como “core strategic compute partner”. Eso significa que si AMD falla en las entregas —o la competencia mejora— OpenAI podría resentirse. Además, los warrants condicionados al desempeño bursátil implican que AMD debe mantener un precio de acción sólido para que OpenAI obtenga valor real.

🤝 Queda saber cómo sentará esto en el seno de NVIDIA, rival histórica de AMD y con la que la propia OpenAI firmó hace apenas 15 días otro acuerdo para desplegar hasta 10 gigavatios de infraestructura basada en sus chips.

Y en el centro de todo… la pregunta que ya nos hicimos hace unos días:

¿Y esto cómo se paga?

OpenAI sigue lejos de ser rentable y, mucho menos, de poder permitirse grandes alardes en despliegues de infraestructura. Infraestructura que, por otro lado, necesita para seguir creciendo y hacerse viable. La pescadilla que se muerde la cola.

🎬 La cabeza nos dice que la alianza entre OpenAI y AMD es como Thelma & Louise acelerando hacia el precipicio. Solo el tiempo dirá si un volantazo de última hora les salva… o si hay que recurrir a algún actor invitado de última hora.

💬 ¿Movimiento inteligente o salto al vacío compartido? Te leo.

John Searle y la Habitación China

enter image description here

📚 Este fin de semana leí la noticia de que el pasado día 17 falleció John Searle, filósofo estadounidense, conocido por su famoso experimento de la 'Habitación China'.

💡 Dicho experimento, publicado en 1980, nació como crítica al test de Turing y se convirtió en uno de los argumentos más fuertes contra la idea de que la Inteligencia Artificial pudiera pensar genuinamente, aún incluso si ésta llegaba a igualar o superar la inteligencia humana.

En su experimento, Searle describe a una persona encerrada en una habitación sin conocimiento previo de chino a la cual se le facilita un completo manual, en su idioma, con reglas precisas para manipular sinogramas chinos.

Desde fuera, un hablante nativo introduce preguntas en chino a través de una rendija. Dentro, la persona consulta el manual y devuelve las respuestas correctas siguiendo las reglas fijadas.

📥 Desde fuera parece que “la habitación” entiende chino. Pero en realidad, la persona dentro no comprende ni una palabra: solo manipula símbolos formales.

⚙️ El mensaje de Searle era claro: manipular sintaxis no equivale a comprender semántica. Y para él, esa semántica era indispensable en el pensamiento genuino.

🔀 Hoy, si miramos los modelos actuales de lenguaje (GPT, Claude, LLama...), la metáfora sigue viva: manipulan tokens estadísticamente sin noción de “significado”. Sólo predicen la siguiente palabra según patrones. Aquí Searle tendría munición: los LLM no entienden más de lo que la habitación entiende chino.

🔧 La diferencia: los modelos actuales no siguen reglas rígidas ni un “libro”. Los pesos de la red neuronal se ajustan durante el entrenamiento. No hay manual, sino un sistema que se reconfigura con la experiencia que le proporcionan los datasets, algo más parecido al aprendizaje humano que a aplicar instrucciones fijas.

🧠 Y quizá la clave esté en ver el sistema completo y no el token aislado. Igual que una neurona sola no piensa, pero el conjunto de neuronas genera mente, el sistema completo de IA produce respuestas coherentes, creativas y con contexto.

Los modelos actuales ya no solo interpretan texto: “ven”, “oyen” y “hablan” gracias a la multimodalidad. Se conectan al mundo, asocian símbolos con experiencias. En ese cruce entre percepción y lenguaje puede estar naciendo un tipo de 'comprensión funcional'. Si es simulación o conciencia es difícil de saber.

💬 Y tú, ¿qué opinas? ¿Entender es sólo producir respuestas coherentes o hay algo más detrás? ¿Crees que la IA moderna sigue dentro de la habitación o estamos abriendo la puerta? Te leo!

ChatGPT dentro de Minecraft?


Si como yo sois aficionados a Minecraft, estaréis al tanto de los cientos de proyecto absurdamente maravillosos que se han generado dentro de este juego de tipo sandbox con bloques.

Usando redstone - un conjunto de items y bloques que permiten simular electricidad y lógica - se han creado dentro del juego, calculadoras, Gameboys, máquinas de turing...hasta se creó Minecraft dentro de Minecraft!

Pero lo que vi ayer es absolutamente loco: ChatGPT dentro de Minecraft!

📼 Os recomiendo ver el vídeo, sólo para haceros una idea del monstruo y del trabajo que lleva hacer semejante obra de ingeniería dentro del juego.

Bueno, primero de todo vamos a ser precisos. Lo que se ha emulado no es ChatGPT, es un transformer en miniatura, un modelo de 5M de parámetros (GPT-3 por ejemplo ya tenía 175.000M), un embedding de 240, vocabulario de 1920 tokens, 6 capas y un contexto de 64 tokens. Unas cifras ridículas para cualquier LLM incluso de hace años. Los pesos se cuantizaron para ocupar menos (8 bits la mayoría, algunos a 18 o 24 bits) y se guardaron en cientos de ficheros que se tradujeron a bloques de Minecraft.

El monstruo que se construyó dentro del juego, tarda unas 2 horas en generar una respuesta usando aceleración MCHPRS generando respuestas muy simples con frases muy cortas en inglés. A velocidad normal es técnicamente imposible de usar.

Evidentemente la hazaña no está en la practicidad si no en haber demostrado que, aunque diminuto (microscópico comparado incluso con los LLM más antiguos) se puede hacer funcionar un LLM dentro de Minecraft.

Por esos locos que pierden horas de sueño con estas frikadas, sólo por que se puede hacer! 🥂

Muy buen fin de semana!!

El enlace original al canal del autor: https://www.youtube.com/watch?v=VaeI9YgE1o8