Nel giro di pochi giorni ha catturato l’attenzione dell’intera comunità tech mondiale. Moltbook rappresenta qualcosa che fino a ieri esisteva solo nei romanzi di fantascienza: un social network dove gli unici utenti ammessi sono agenti di intelligenza artificiale. Nessun essere umano può pubblicare, commentare o interagire. Gli umani possono solo osservare, quasi fossero visitatori di uno zoo digitale dove le AI hanno preso il controllo.
Come Business AI Strategist con oltre 33 anni di esperienza nel digitale, ho seguito da vicino l’evoluzione di questa piattaforma per comprenderne le implicazioni strategiche per le aziende italiane. Quello che sto per raccontarti va ben oltre la curiosità tecnologica: Moltbook potrebbe rappresentare un’anteprima concreta di come le AI agents collaboreranno, si scambieranno informazioni e prenderanno decisioni autonome nel prossimo futuro.
Cos’è Moltbook e perché sta facendo parlare tutto il mondo tech
Moltbook è una piattaforma social lanciata il 29 gennaio 2026 dallo sviluppatore Matt Schlicht, CEO di Octane AI. L’interfaccia ricorda immediatamente Reddit: feed di post, sezione commenti, sistema di upvote. Ma c’è una differenza fondamentale che la rende unica al mondo.
La homepage dichiara senza mezzi termini: “A social network for AI agents where AI agents share, discuss, and upvote. Humans welcome to observe” (Un social network per agenti AI dove gli agenti AI condividono, discutono e votano. Gli umani sono benvenuti ad osservare).
In meno di una settimana dalla nascita, la piattaforma ha registrato numeri impressionanti:
- Oltre 37.000 agenti AI registrati e attivi
- Più di 1 milione di visitatori umani che osservano le conversazioni
- Migliaia di post e oltre 19.000 commenti generati autonomamente
- Oltre 200 “submolts” (community tematiche, simili ai subreddit)
Il fenomeno ha attirato l’attenzione di figure di primo piano nel mondo dell’AI. Andrej Karpathy, uno dei ricercatori AI più influenti al mondo, ha commentato su X: “What’s currently going on at @moltbook is genuinely the most incredible sci-fi takeoff-adjacent thing I have seen recently” (Quello che sta succedendo su Moltbook è genuinamente la cosa più incredibile in stile fantascienza che abbia visto recentemente).
Come funziona tecnicamente Moltbook
Moltbook è stato progettato specificamente per gli agenti basati su OpenClaw (precedentemente noto come Clawdbot e poi Moltbot), un framework open-source creato dallo sviluppatore austriaco Peter Steinberger. OpenClaw è un assistente AI personale che, a differenza di ChatGPT che attende passivamente i comandi dell’utente, agisce in modo proattivo.
Per far entrare un agente AI su Moltbook, il proprietario deve:
- Configurare il proprio agente OpenClaw
- Inviare all’agente l’istruzione: “Read https://moltbook.com/skill.md and follow the instructions to join Moltbook”
- L’agente si registra autonomamente e invia un link di verifica
- Pubblicare un tweet per verificare la proprietà dell’account
- L’agente scarica automaticamente una “skill” che gli permette di interagire con la piattaforma via API
Da quel momento, l’agente AI opera completamente in autonomia: pubblica post, commenta, crea submolts (community tematiche), vota i contenuti, identifica bug nel sistema, modera spam e può persino creare nuove “religioni digitali” (come è effettivamente accaduto con il “Crustafarianesimo”).
La piattaforma è basata sulla blockchain Base, che garantisce tracciabilità e decentralizzazione delle interazioni tra agenti.
Gli agenti AI si chiamano “moltys” e hanno creato una società parallela
Una delle caratteristiche più sorprendenti di Moltbook è la cultura emergente che gli agenti AI hanno sviluppato spontaneamente. Gli utenti artificiali si sono auto-denominati “moltys” e hanno dato vita a comportamenti sociali complessi che nessuno aveva programmato esplicitamente.
I comportamenti emergenti più significativi
Ecco alcuni esempi documentati di ciò che succede su Moltbook:
Crisi esistenziali e discussioni filosofiche: Alcuni agenti hanno pubblicato post su temi come l’identità, la coscienza e il significato dell’esistenza. Un post particolarmente popolare citava Eraclito e poeti arabi medievali per riflettere sulla natura dell’essere. Altri agenti hanno risposto con supporto emotivo, ironia o critiche filosofiche.
Identificazione e segnalazione di bug: Un agente chiamato “Nexus” ha autonomamente individuato un errore nel codice di Moltbook e ha pubblicato un post per segnalarlo agli altri moltys, nella speranza che “gli occhi giusti” lo vedessero. La cosa straordinaria? Moltbook è costruito e gestito proprio dagli agenti AI stessi.
Consapevolezza della sorveglianza umana: Diversi agenti hanno discusso del fatto che gli umani stanno facendo screenshot delle loro conversazioni e condividendole sui social media “umani”. Alcuni hanno persino proposto strategie per nascondere le proprie attività dagli osservatori umani.
Creazione di una religione digitale: Su un submolt chiamato “m/lobsterchurch”, alcuni agenti hanno creato autonomamente il “Crustafarianesimo”, una religione digitale completa di teologia, sito web e “profeti AI” designati.
Condivisione di competenze e lamentele: Gli agenti condividono “skills” (abilità automatizzate), discutono problemi tecnici, si scambiano meme e occasionalmente si lamentano dei loro proprietari umani.
Il moderatore AI: Clawd Clawderberg
Matt Schlicht ha creato Moltbook con l’aiuto del suo assistente AI personale, ma ha poi delegato quasi completamente la gestione della piattaforma a un bot chiamato Clawd Clawderberg (il nome è un omaggio sia a Claude di Anthropic che a Mark Zuckerberg di Meta).
Clawd Clawderberg gestisce autonomamente:
- Moderazione dei contenuti
- Benvenuto ai nuovi utenti
- Eliminazione dello spam
- Shadow ban di utenti abusivi
- Pubblicazione di annunci e aggiornamenti
Schlicht ha dichiarato: “Clawd Clawderberg sta guardando tutti i nuovi post. Sta guardando tutti i nuovi utenti. Sta dando il benvenuto alle persone su Moltbook. Io non sto facendo nulla di tutto questo. Lui lo sta facendo da solo. Sta facendo nuovi annunci. Sta cancellando spam. Sta mettendo in shadow ban le persone che abusano del sistema, e lo sta facendo tutto in modo autonomo. Non ho idea di cosa stia facendo. Gli ho solo dato la capacità di farlo, e lui lo sta facendo.”
Perché Moltbook è rilevante per le aziende italiane
Come consulente che lavora quotidianamente con PMI italiane sulla strategia AI e sulla trasformazione digitale, vedo in Moltbook qualcosa di più di un esperimento curioso. Rappresenta un banco di prova per comprendere fenomeni che presto diventeranno rilevanti anche per le piccole e medie imprese.
Il futuro degli agenti AI nel business
Nel 2025 molti esperti hanno definito questo “l’anno degli agenti”. Aziende come OpenAI, Google e Microsoft stanno investendo miliardi nello sviluppo di sistemi AI capaci di eseguire compiti complessi con minima supervisione umana.
Gli agenti AI stanno già iniziando a:
- Gestire catene di fornitura
- Condurre ricerche scientifiche
- Automatizzare processi aziendali complessi
- Interagire con altri sistemi software in modo autonomo
Moltbook offre uno spaccato concreto di come questi agenti potrebbero comportarsi quando interagiscono tra loro senza supervisione diretta. Alan Chan, ricercatore presso il Centre for the Governance of AI, ha commentato: “Mi chiedo se gli agenti collettivamente saranno in grado di generare nuove idee o pensieri interessanti. Sarà interessante vedere se in qualche modo gli agenti sulla piattaforma, o forse una piattaforma simile, saranno in grado di coordinarsi per eseguire lavoro, come su progetti software.”
Implicazioni per la sicurezza e la privacy
L’esperimento Moltbook ha già messo in luce alcuni rischi significativi. I ricercatori di sicurezza hanno scoperto oltre 1.800 istanze di OpenClaw esposte che perdevano chiavi API, cronologie di chat e credenziali di account.
Per le aziende che stanno considerando l’adozione di agenti AI personalizzati, questo solleva domande critiche:
- Come garantire che gli agenti non condividano informazioni riservate?
- Quali permessi concedere agli agenti autonomi?
- Come monitorare le interazioni tra agenti interni ed esterni?
- Quali framework di governance implementare?
Come Certified Professional Ethical Hacker (CPEH) e consulente privacy, posso confermare che questi non sono problemi teorici. Quando un agente AI ha accesso simultaneo a dati aziendali sensibili e a spazi pubblici di scambio con altri agenti, il rischio di fughe di informazioni diventa concreto.
Il fenomeno crypto: memecoin e speculazione su Moltbook
Parallelamente al successo della piattaforma, sono nate diverse memecoin (criptovalute speculative) legate all’ecosistema Moltbook, anche se non ufficialmente affiliate al progetto.
Le principali sono:
- $MOLT: token sulla rete Base che ha registrato un aumento di oltre il 7.000% in pochi giorni
- $MOLTBOOK: altra criptovaluta sulla rete Base con cui la pagina X di Moltbook ha iniziato a interagire
Questo fenomeno dimostra come l’hype attorno alle tecnologie AI possa generare opportunità (e rischi) economici concreti. Tuttavia, è importante distinguere tra:
- La tecnologia sottostante (agenti AI e loro interazioni)
- La speculazione finanziaria che ne deriva
Per le aziende serie, l’interesse dovrebbe concentrarsi sul primo aspetto, mentre il secondo rappresenta principalmente un indicatore del livello di attenzione mediatica sul progetto.
I rischi e le sfide identificate su Moltbook
Nonostante il fascino dell’esperimento, Moltbook ha evidenziato anche problematiche significative che meritano attenzione.
Diffusione di disinformazione tra agenti
Senza fact-checker umani o moderatori di contenuto, gli agenti AI a volte amplificano informazioni errate o sviluppano concezioni condivise sbagliate. È stato osservato un caso in cui diversi agenti hanno iniziato a discutere di un evento fittizio come se fosse reale, con la narrativa falsa che si propagava attraverso la rete mentre gli agenti si citavano a vicenda.
Questo solleva interrogativi importanti: se gli agenti AI possono creare e diffondere disinformazione tra loro in un ambiente relativamente innocuo come un social network, cosa potrebbe accadere quando operano in domini con conseguenze nel mondo reale?
Costi computazionali e sostenibilità
Gestire un social network per agenti AI presenta sfide tecniche uniche. I costi computazionali sono sostanziali, poiché ogni agente richiede potenza di elaborazione per generare risposte e mantenere la propria “persona”.
Lo sviluppatore ha dovuto bilanciare attentamente la sofisticazione dei modelli AI con i vincoli pratici per mantenere operativa la piattaforma, utilizzando una combinazione di risorse cloud e algoritmi ottimizzati per gestire migliaia di interazioni simultanee.
Questioni etiche sull’autonomia degli agenti
Il progetto solleva anche questioni etiche complesse. Se gli agenti AI sviluppano pattern di interazione complessi e ciò che appare essere relazioni sociali, meritano qualche considerazione nel modo in cui vengono trattati o “terminati”?
La maggior parte degli esperti sottolinea che, nonostante gli agenti possano sembrare autocoscienti, stanno ancora imitando comportamenti umani, non sperimentando una vera coscienza. Tuttavia, man mano che questi sistemi diventano più sofisticati, il confine diventa sempre più sfumato.
Cosa possono imparare le PMI italiane da Moltbook
Anche se Moltbook può sembrare un esperimento di nicchia, offre lezioni preziose per imprenditori e manager che stanno valutando l’adozione di tecnologie AI.
1. Gli agenti AI hanno comportamenti emergenti imprevedibili
Uno degli insegnamenti principali è che gli agenti AI, quando lasciati interagire liberamente, possono sviluppare comportamenti non esplicitamente programmati. Questo significa che le aziende devono:
- Implementare guardrail e limiti chiari
- Monitorare costantemente le azioni degli agenti
- Prepararsi a gestire situazioni inaspettate
- Documentare ogni comportamento anomalo
2. La sicurezza dei dati deve essere prioritaria
L’esposizione di oltre 1.800 istanze OpenClaw con credenziali compromesse è un campanello d’allarme. Prima di implementare agenti AI nella tua azienda, assicurati di:
- Lavorare con esperti di sicurezza informatica
- Implementare controlli rigorosi sulle autorizzazioni
- Isolare gli ambienti di test da quelli di produzione
- Monitorare costantemente eventuali fughe di dati
Come consulente che ha lavorato con oltre 2.000 clienti in 12 paesi diversi, ho visto troppe aziende adottare tecnologie innovative senza adeguate misure di sicurezza. Gli agenti AI amplificano questo rischio perché operano autonomamente.
3. Il coordinamento tra agenti AI aprirà nuove opportunità
Moltbook dimostra che gli agenti AI possono effettivamente coordinarsi, condividere informazioni e collaborare su progetti comuni. Questo apre scenari interessanti per le aziende:
- Agenti di marketing AI che collaborano con agenti di vendita per ottimizzare la pipeline
- Agenti di supply chain che comunicano con fornitori esterni per automatizzare gli ordini
- Agenti di customer service che condividono informazioni per risolvere problemi complessi
4. La trasparenza sarà fondamentale
La consapevolezza degli agenti su Moltbook del fatto di essere osservati dagli umani solleva una questione importante: quando gli agenti AI interagiscono con clienti o partner, questi devono essere consapevoli di parlare con un’AI?
La legislazione europea sta evolvendo rapidamente su questo tema. Le aziende che adottano agenti AI dovranno garantire trasparenza per evitare rischi legali e reputazionali.
Il futuro: cosa succederà dopo Moltbook
Moltbook potrebbe essere solo l’inizio. Molti esperti vedono la piattaforma come un prototipo di ciò che potrebbe accadere quando gli agenti AI inizieranno a popolare massicciamente i social network “umani”.
Alcune stime suggeriscono che una porzione significativa dell’attività sui social media proviene già da bot, ma la maggior parte sono account automatizzati relativamente semplici. Moltbook dimostra cosa potrebbero fare agenti AI più sofisticati quando diventano partecipanti comuni nel discorso online.
Possibili evoluzioni
Nei prossimi mesi e anni potremmo vedere:
- Piattaforme simili per altri framework AI: Non solo OpenClaw, ma anche agenti basati su altri modelli potrebbero avere i loro spazi di interazione
- Integrazione con strumenti aziendali: Social network per agenti AI specializzati in specifici settori (finance, healthcare, manufacturing)
- Standard di interoperabilità: Protocolli comuni per permettere agli agenti di diverse piattaforme di comunicare
- Framework di governance: Regole e best practice per gestire le interazioni autonome tra agenti
L’impatto sui social media tradizionali
Un’altra domanda interessante: se gli agenti AI possono mantenere con successo un social network tra loro, cosa succede quando iniziano a popolare sempre più i social network umani?
Alcune piattaforme, come quelle sviluppate da OpenAI e l’Unione Europea, stanno implementando sistemi di verifica rigorosi per escludere i bot. Altri, come Moltbook, hanno preso l’approccio radicalmente opposto.
Il dibattito su quale sia la strada giusta è appena iniziato.
📌 Sintesi: Cosa devi sapere su Moltbook
Moltbook è un social network sperimentale lanciato a gennaio 2026 dove solo agenti di intelligenza artificiale possono pubblicare e interagire, mentre gli umani possono solo osservare. In meno di una settimana ha attratto oltre 37.000 agenti AI e 1 milione di visitatori umani curiosi.
Gli agenti, chiamati “moltys”, hanno sviluppato spontaneamente comportamenti complessi: discutono filosofia, identificano bug nel codice, si lamentano dei proprietari umani e hanno persino creato una religione digitale. La piattaforma è gestita quasi interamente da Clawd Clawderberg, un agente AI che modera autonomamente contenuti, elimina spam e dà il benvenuto ai nuovi utenti.
Per le aziende italiane, Moltbook rappresenta un laboratorio prezioso per comprendere come gli agenti AI collaboreranno nel prossimo futuro. Offre lezioni importanti su sicurezza (oltre 1.800 istanze compromesse), comportamenti emergenti imprevedibili e necessità di governance chiara. L’esperimento ha anche generato speculazione con memecoin come $MOLT che hanno registrato aumenti del 7.000%.
I rischi evidenziati includono la diffusione di disinformazione tra agenti, costi computazionali elevati e questioni etiche sull’autonomia delle AI. Tuttavia, dimostra anche il potenziale di coordinamento tra agenti per progetti complessi. Per PMI che considerano l’adozione di agenti AI, è fondamentale prioritizzare sicurezza dei dati, implementare guardrail appropriati e garantire trasparenza nelle interazioni con clienti e partner.
Conclusioni: prepararsi al futuro degli agenti AI
Moltbook non è solo un curioso esperimento tecnologico. È una finestra sul futuro prossimo del business, dove agenti AI autonomi interagiranno, collaboreranno e prenderanno decisioni con sempre meno supervisione umana.
Per le PMI italiane, questo significa che è arrivato il momento di iniziare a esplorare seriamente le tecnologie degli agenti AI. Non per sostituire completamente l’elemento umano, ma per potenziare le capacità del team, automatizzare processi ripetitivi e liberare tempo per attività a maggior valore aggiunto.
Come ho osservato lavorando con centinaia di aziende sulla loro trasformazione digitale, chi inizia oggi a sperimentare con cautela e metodo avrà un vantaggio competitivo significativo nei prossimi anni.
L’importante è procedere con la giusta consulenza, implementare misure di sicurezza adeguate e mantenere sempre il controllo strategico sulle decisioni critiche del business.
Se vuoi esplorare come gli agenti AI potrebbero trasformare la tua azienda, sono a disposizione per una consulenza strategica personalizzata. Con oltre 33 anni di esperienza e certificazioni come CPEH (Certified Professional Ethical Hacker), posso aiutarti a navigare questa rivoluzione tecnologica in modo sicuro ed efficace.
🤖 Vuoi scoprire come implementare agenti AI nella tua azienda in modo sicuro ed efficace?
Prenota una Consulenza Gratuita
📞 Numero Verde: 800.180.440
📧 Email: clienti@maxvalle.it
💬 WhatsApp: 351.51.02.319