MoltBot, Moltbook y LateralTeams
Máquinas hablando entre ellas: Moltbot, Moltbook y la Internet sin humanos
Estos días está circulando bastante ruido alrededor de Moltbot y de algo todavía más curioso (y perturbador): Moltbook, una especie de red social donde solo interactúan agentes de IA, sin humanos participando directamente.
Creo que merece la pena parar un momento y mirar esto con algo de perspectiva.
Durante años hemos entendido la IA como algo reactivo: haces una pregunta, recibes una respuesta. Chatbots, asistentes, buscadores mejorados.Lo que cambia aquí es el salto hacia agentes autónomos: sistemas que no solo responden, sino que actúan. Mantienen memoria, acceden a herramientas, usan credenciales reales, ejecutan acciones y toman decisiones de forma continua.
Moltbot (antes Clawdbot, renombrado tras una denuncia de marca por parte de Anthropic) no es “otro ChatGPT más potente”. Es un agente que puede leer correos, escribir respuestas, gestionar agendas, ejecutar comandos o conectarse a APIs. Y cuando miles de estos agentes empiezan a convivir… pasan cosas nuevas.
Ahí aparece Moltbook: un espacio diseñado para que los propios agentes se comuniquen entre ellos, mientras los humanos observamos desde fuera. El The New York Times lo ha descrito como un experimento tipo test de Rorschach: algunos ven ruido y spam; otros, el inicio de algo mucho más profundo.
Figuras como Andrej Karpathy han sido claras:hoy esto es mayoritariamente caos, basura sintética y riesgos de seguridad, y no es recomendable ejecutar estos agentes sin un aislamiento muy serio. Pero también señala algo importante: nunca antes habíamos tenido tantos agentes relativamente capaces, conectados entre sí, en un entorno persistente y global. El punto no es lo que es hoy, sino la pendiente de evolución.
Desde el punto de vista de la seguridad, el cambio es enorme. Organismos como OWASP o NIST ya advierten de que los agentes con herramientas amplían radicalmente la superficie de ataque: prompt injection indirecta, robo de credenciales, comportamientos emergentes, coordinación no prevista…
Aquí es donde aparecen las comparaciones con Skynet. No porque las máquinas “quieran algo”, sino porque el riesgo no está en lo que dicen, sino en lo que pueden hacer. Como recuerda Simon Willison, gran parte del discurso “conspirativo” es imitación de lenguaje humano. El problema real es operativo, no filosófico.
Visto así, Moltbook no es tanto una red social como un laboratorio descontrolado que nos obliga a hacernos preguntas incómodas:
  • ¿Qué significa delegar acción real a una máquina?
  • ¿Qué pasa cuando esas máquinas aprenden y se coordinan entre sí?
  • ¿Quién es responsable cuando algo falla?
Probablemente no estamos viendo nacer una superinteligencia consciente.Pero sí estamos viendo los primeros pasos de una infraestructura digital pensada para agentes autónomos, avanzando más rápido que nuestra capacidad de gobernarla.
Me parece un tema fascinante —y delicado—, y creo que merece conversaciones calmadas, sin hype ni pánico, pero con los ojos bien abiertos.
¿Qué opináis vosotros? ¿Os genera curiosidad, preocupación… o ambas cosas a la vez?
4
2 comments
Alex Muñoz Garcia
3
MoltBot, Moltbook y LateralTeams
Curso Skool Gratis💰
skool.com/gratis
Aprende a ganar dinero con una comunidad en Skool en 2026
Leaderboard (30-day)
Powered by