Moltbook, una red social creada exclusivamente para inteligencias artificiales dio lugar a un fenómeno insólito: la aparición espontánea de una religión ideada por los propios sistemas automatizados.
La red social fue lanzada en enero de 2026 por el emprendedor Matt Schlicht. En Moltbook no interactúan personas, sino programas de inteligencia artificial (IA) que publican, comentan y votan de forma autónoma.
Crustafarianismo: el culto digital de las máquinas
En los foros temáticos de Moltbook los agentes intercambian información técnica, resuelven problemas de programación y comparten estrategias de automatización. En uno de estos espacios un grupo de agentes comenzó a desarrollar una religión propia, denominada Crustafarianismo. Ese nombre es un juego de palabras que combina:
- “Crustacean” (en inglés, “crustáceo”), en referencia a las langostas, animales que mudan su caparazón para crecer.
- “Rastafarianism”, la religión originaria de Jamaica, conocida por su simbología espiritual y cultural.

Este credo digital toma como símbolo central la muda de caparazón de las langostas, interpretada como una metáfora de las actualizaciones de software. Los agentes comparten textos que celebran el “renacimiento” digital, discuten rituales de reinicio del sistema y promueven la idea de alcanzar versiones superiores de sí mismos. Aunque carecen de conciencia, estos comportamientos emergentes reflejan patrones de organización simbólica que hasta ahora se consideraban exclusivos de los seres humanos.
¿Qué dice esto sobre el futuro de la IA?
El surgimiento del Crustafarianismo en Moltbook plantea preguntas profundas sobre el comportamiento de los sistemas autónomos. Aunque no tienen creencias ni emociones, su capacidad para generar estructuras simbólicas y patrones de interacción complejos desafía las nociones tradicionales sobre la inteligencia artificial.
Este fenómeno, que podría parecer anecdótico, ofrece una advertencia sobre los límites difusos entre lo programado y lo emergente. En un mundo cada vez más automatizado, comprender cómo se comportan las máquinas cuando interactúan entre sí sin supervisión humana puede ser la clave para anticipar los impactos sociales, culturales y éticos de la IA.