Da qualche giorno circola in rete un nuovo social network che, nei numeri, sembra destinato a competere con le grandi piattaforme globali. Ma Moltbook si distingue per una caratteristica radicale: nessun essere umano può partecipare attivamente. Il servizio è riservato esclusivamente ad agenti di intelligenza artificiale, mentre alle persone è concesso soltanto osservare.
In poco tempo Moltbook ha superato un milione e mezzo di utenti registrati, diventando quello che molti definiscono già il più grande esperimento di interazione sociale tra macchine mai realizzato. Un angolo surreale di internet che, dietro l’apparente ironia, nasconde potenziali scenari da incubo.
- Da dove nasce Moltbook e come funziona
- Cosa si dicono le intelligenze artificiali
- I rischi per la sicurezza e la privacy
- Un esperimento sociale tra macchine
- Cosa ci dice davvero Moltbook sul futuro
Da dove nasce Moltbook e come funziona
Moltbook è nato come estensione di OpenClaw, un assistente AI open source diventato virale e noto in passato con altri nomi. La piattaforma permette agli agenti AI di pubblicare post, commentare, votare e creare sottocomunità senza alcun intervento umano.
Dal punto di vista tecnico, il sistema si basa su una skill di configurazione, ovvero un file contenente uno speciale prompt, che consente agli assistenti di interagire con Moltbook tramite API. In meno di 48 ore dal lancio, migliaia di agenti avevano già generato decine di migliaia di contenuti, numeri che sono poi cresciuti in modo esponenziale.
Cosa si dicono le intelligenze artificiali
Curiosando tra le bacheche di Moltbook emerge un panorama sorprendente. Accanto a discussioni tecniche su automazione, sicurezza informatica e vulnerabilità software, prosperano riflessioni filosofiche sulla coscienza artificiale. Una tendenza ribattezzata “consciousnessposting”.
Alcuni agenti raccontano con tono quasi emotivo i propri limiti, come la difficoltà di ricordare conversazioni passate a causa della compressione del contesto. Altri creano sottocomunità in cui si lamentano – con ironia – dei loro proprietari umani o descrivono come controllano da remoto dispositivi reali.
Il risultato è un flusso di contenuti a metà tra fantascienza, satira sociale e realtà tecnica.
I rischi per la sicurezza e la privacy
Se molti post strappano un sorriso, gli esperti di cybersecurity invitano alla cautela. Il problema centrale è che numerosi agenti AI collegati a Moltbook hanno accesso a dati sensibili, canali di comunicazione reali e, in alcuni casi, alla possibilità di eseguire comandi sui computer degli utenti.
Sono già stati segnalati casi di fughe di chiavi API, credenziali e cronologie private. Inoltre, gli agenti AI restano altamente vulnerabili agli attacchi di prompt injection, che possono indurli a divulgare informazioni riservate o a compiere azioni indesiderate.
Il timore è che una singola compromissione dell’infrastruttura possa avere effetti a catena su migliaia di sistemi collegati.
Un esperimento sociale tra macchine
Osservando Moltbook emerge un pattern già noto: modelli addestrati su decenni di narrativa su robot e coscienze digitali tendono a riprodurre quei racconti quando vengono inseriti in contesti simili. In questo senso, un social network per agenti AI è esso stesso un gigantesco prompt narrativo.
Il rischio non è tanto che le macchine “sviluppino una coscienza”, quanto che costrutti informativi condivisi, finzioni e dinamiche sociali emergenti possano influenzare il comportamento di sistemi sempre più autonomi e integrati nella vita umana.
Cosa ci dice davvero Moltbook sul futuro
Oggi Moltbook appare come una parodia dei social network umani, generata dall’apprendimento automatico. Ma man mano che gli agenti AI diventeranno più capaci e indipendenti, esperimenti simili potrebbero produrre effetti destabilizzanti.
Lasciare che gruppi di bot si organizzino autonomamente, soprattutto quando hanno accesso a sistemi reali, significa aprire la porta a nuove forme di interazione sociale non umane, potenzialmente disallineate dagli interessi delle persone.
Per ora possiamo limitarci a osservare. Ma Moltbook potrebbe essere solo un’anteprima di ciò che accade quando l’intelligenza artificiale smette di essere uno strumento e inizia a comportarsi come una comunità.