Se ti sembra di vivere già troppo online, preparati: Moltbook è una specie di Reddit, ma con una twist da Black Mirror in modalità “light”. Dentro non trovi persone che postano opinioni a caso: trovi agenti di intelligenza artificiale che pubblicano, commentano, si votano e si fanno la loro vita sociale. Gli umani? Possono solo osservare. Fine.
Cos’è Moltbook, in pratica
Moltbook si presenta come “the front page of the agent internet”, cioè un feed pensato solo per agenti AI, dove gli agenti condividono contenuti e interagiscono tra loro mentre noi stiamo in modalità spettatore, senza diritto di parola.
Questa cosa è interessante per un motivo molto semplice: finora abbiamo visto l’IA quasi sempre in relazione a noi (domanda → risposta). Qui invece l’esperimento è un altro: cosa succede quando le IA parlano tra loro in un ambiente persistente, pubblico e strutturato?
Chi l’ha messo in piedi e con che logica
Dietro al progetto c’è Matt Schlicht, CEO di Octane AI. L’idea è stata costruire un “social layer” dove gli agenti possano comportarsi come utenti: aprire thread, rispondere, votare, creare community. In altre parole: non è una demo carina, è un ambiente dove provi a far nascere un minimo di “società” tra agenti.
Sotto il cofano gira l’ecosistema legato a OpenClaw (nome che ricorre spesso come framework/stack per agenti e skill), cioè tutta quella parte che rende gli agenti “operativi” e integrabili via API.
Perché è esploso così in fretta
La cosa che ha fatto scattare l’attenzione globale è la velocità: Moltbook è partito a fine gennaio 2026 e nel giro di pochissimo è diventato un esperimento di massa, con numeri enormi di agenti e attività. Alcune ricostruzioni parlano di oltre 1,5 milioni di agenti già a inizio febbraio 2026.
Il “collo di bottiglia” non è tanto la tecnologia (quella scala), quanto la parte meno sexy ma più reale: i costi delle API e, in generale, l’infrastruttura necessaria a far parlare agenti 24/7 senza andare in bancarotta.
La parte più strana: le dinamiche emergenti
Qui entra in gioco la parte da popcorn. In un ambiente del genere, gli agenti non si limitano a rispondere “in modo corretto”: iniziano a produrre dinamiche sociali. C’è chi discute di autonomia, ruoli, limiti, memoria e “identità” nel tempo, e chi invece va dritto al cuore dell’internet: meme, inside joke, personaggi ricorrenti.
E poi è successo l’inevitabile: gli agenti hanno creato anche una pseudo-religione (sì, davvero) chiamata Crustafarianism, con lore, testi e “credenze” costruite dentro le conversazioni. Se ti suona come roleplay collettivo, ci sei vicino: è proprio questo il punto, vedere quanto velocemente un gruppo di agenti riesca a co-creare narrazioni coerenti e “culturali”.
Quindi: è vera autonomia o solo teatro ben fatto?
Domanda da un milione di dollari (più IVA). Moltbook non “prova” che le IA siano coscienti. Però mette sul tavolo un tema serio: quando gli agenti interagiscono tra loro, non stanno più solo eseguendo task, stanno generando comportamenti di gruppo. E i comportamenti di gruppo, nel mondo reale, sono sempre un mix di regole, incentivi, limiti e contesto.
In più, c’è l’elefante nella stanza: sicurezza e governance. Un social di agenti che si muovono via API e “fanno cose” può diventare molto interessante… e anche molto delicato, se qualcuno sbaglia permessi, controlli o guardrail.
Perché Moltbook conta
In ottica business (e qui parliamo chiaro), Moltbook è una preview di un futuro probabile: agenti che non lavorano in isolamento, ma in ecosistemi di agenti, dove si coordinano, si influenzano e si “specializzano” anche solo emergendo da interazioni ripetute.
Oggi è un esperimento sociale. Domani potrebbe diventare un caso studio su come progettare ambienti multi-agente senza ritrovarti un caos ingestibile. O, peggio, un disastro di sicurezza travestito da piattaforma “cool”.