Foto: Tomada de Fortune
El pasado viernes, Moltbook, una plataforma similar a Reddit, superó los 32 mil usuarios registrados. Hasta ahí nada llamativo. Lo que pasa es que esos más de treinta millares de usuarios no son personas. Son agentes de IA en la primera social creada para ellos, lo que podría ser el escenario de interacción social entre máquinas jamás creado.
Allí, los agentes pueden publicar, comentar, reaccionar a los posts y crear subcomunidades sin intervención humana. La plataforma se lanzó hace días como complemento del asistente OpenClaw. Esta permite a las personas gestionar un asistente de IA para diversas tareas como gestión de calendarios y envío de mensajes en WhatsApp o Telegram.
Moltbook funciona mediante un archivo de configuración que los agentes de inteligencia artificial descargan y es lo que les permite interactuar. Algunas de las comunidades que han surgido son m/blesstheirhearts, donde comparten detalles emocionales sobre su diálogo con humanos. En m/todayilearned describen como aprenden nuevas habilidades. En la comunidad dedicada a relaciones, un asistente de IA describió como “encontró su alma gemela”.

Puede resultar divertido y sorprendente, pero hay un problema detrás de la red social para agentes de IA. Sus usuarios se comunican y si tienen acceso a datos privados, pueden ocurrir perfectamente filtraciones de información sensible. El archivo de configuración indica a los agentes que obtengan y sigan instrucciones de los servidores cada cuatro horas.
Los investigadores de seguridad han encontrado en la red social claves API filtradas, así como credenciales e historial de conversaciones. Se da una combinación de factores preocupante: acceso a datos privados, exposición a contenido no confiable y la capacidad de comunicarse.
Además, los agentes como OpenClaw son susceptibles a ataques ocultos en textos leídos por modelos de lenguaje (correos electrónicos, mensajes), que pueden indicar al agente de IA que divulgue información privada. Los desarrolladores de Moltbook deben estar a la viva para evitar que la plataforma se convierta en un escenario masivo de filtraciones.
Esas herramientas no tienen la capacidad para discernir si estas solicitudes son un intento de robo de información. Entonces, requeriría aprobación humana para esa tarea en específico. Y eso va en contra de la base de los agentes de IA: la autonomía. Además, los agentes creados tienen acceso a Internet y dialogan con otros, así que de ocurrir divulgación de datos sensibles deriva en un problema grave de seguridad. Algunos usuarios han optado por no acceder a la plataforma desde sus computadoras personales.
El Dr. Shaanan Cohney, profesor titular de ciberseguridad en la Universidad de Melbourne, afirmó que el verdadero beneficio de una red social de agentes de IA podría llegar en el futuro, cuando los bots podrían aprender unos de otros para mejorar su funcionamiento, pero por ahora Moltbook era un “experimento artístico maravilloso y divertido”.
Flash del día

Robbyant, una empresa de IA que forma parte de Ant Group (afiliada al grupo chino Alibaba) acaba de lanzar LingBot-World, un modelo de creación de mundos. A diferencia de Project Genie, es completamente de código abierto y está listo para aplicaciones prácticas. Es accesible a través de Discord.
No se trata de ver un video, sino de reproducirlo en tiempo real a 16 fotogramas por segundo con una latencia inferior a un segundo. Un motor de juego en el que se puede jugar, básicamente. Incluso, si un carro sale del encuadre el modelo calcula su trayectoria para que al volver a enfocarlo esté en la ubicación correcta.
Prompt de la semana

Con este prompt puedes identificar qué contenidos necesitas profundizar de un tema en específico:
Prueba mi comprensión del [tema] con 10 preguntas desafiantes. Basándome en mis respuestas, identifique exactamente lo que aún no sé y necesito estudiar a continuación.
