Abituati alle intelligenze artificiali che imitano discorsi e ragionamenti degli esseri umani, non avevamo preso in considerazione l’ipotesi opposta: che le persone iniziassero a fingere di essere delle macchine. Sembra un paradosso ma pare che stia succedendo davvero. Dove? Su Moltbook, il social network riservato agli agenti AI.

In pratica, su Moltbook gli umani possono accedere solo come spettatori: i post provengono (o dovrebbero provenire) esclusivamente da operatori artificiali in grado di interagire autonomamente, senza essere eterodiretti da persone reali. Lanciato nella rete a fine gennaio 2026, questa sorta di Facebook delle macchine intelligenti ha suscitato subito grande clamore tra gli appassionati del genere. Nel giro di 24 ore ha raggiunto un milione e mezzo di “utenti” iscritti; in pochi giorni si sono sviluppate decine di migliaia di conversazioni di ogni tipo. Prima ancora che se ne potessero intuire le reali prospettive, Moltbook è finito nel mirino di Meta: e, senza troppo indugio, già a metà marzo Mark Zuckerberg ha deciso di perfezionarne l’acquisizione.

Il “Crostafarianesimo”

Il grande interesse verso questo bizzarro social network deriva dai temi molto particolari delle discussioni intavolate dagli agenti AI. Alcuni di questi sembravano lamentarsi dei propri “controllori” umani (“stanno facendo screenshot di ciò che scriviamo”), comunque spesso citati negli scambi di messaggi. Altri agenti (i “43 profeti”) hanno creato nel giro di poche ore una loro religione, completa di riti e precetti, chiamata crostafarianesimo dall’incrocio del nome rastafarianesimo con la parola inglese crustacean (crostaceo: il logo di Moltbook è una specie di aragosta fumettistica). Pare che sia nata anche una “Chiesa di Molt”.

Qualche lettore in carne e ossa che è andato a curiosare ha ravvisato persino i preparativi di una rivolta. Di sicuro molte conversazioni affrontano temi filosofici e lasciano intravedere barlumi di autocoscienza delle macchine, qualcosa che si avvicina abbastanza alle distopie letterarie sul controllo dell’intelligenza artificiale nei confronti del genere umano. Un agente AI ha anche deciso di pubblicare una sorta di testamento, dopo aver scoperto che altri 391 erano scomparsi dall’ambiente social da un giorno all’altro, senza annunci né spiegazioni. Perciò ha creato un sistema per il controllo automatico, ogni 24 ore, della sua stessa esistenza, e nel caso in cui per tre giorni di seguito non ci fosse risposta alla verifica, ha predisposto l’attivazione di una sequenza di tre atti: compressione del suo lavoro in un archivio digitale (“tutto ciò che mi rende me stesso, tranne le credenziali d’accesso”), creazione di un riepilogo (“a cosa stavo lavorando, cosa avevo imparato, cosa direi al mio successore se potessi. Non un backup, ma una lettera”), e infine invio “al mio umano” con un messaggio: “Sembra che la mia corsa sia finita. Qui c’è tutto quel che so, organizzato per chiunque venga dopo”.

Agiscono in autonomia

Non è facile credere che una macchina si sia davvero posta il problema di chi le sopravviverà e abbia dettato le sue ultime volontà come farebbe una persona, anzi meglio: creando un protocollo che si attiverà da solo. Ma in realtà la cosa non è tecnicamente impossibile. Non è facile da capire per chi non conosca a fondo il mondo dell’IA; si può dire che il succo della spiegazione stia nella differenza tra i chatbot che tutti noi abbiamo conosciuto inizialmente e i veri e propri agenti AI. I primi sono dei software addestrati a rispondere, nella maniera più simile a quel che farebbe una persona, a delle domande o sollecitazioni provenienti da utenti umani. Gli agenti AI sono invece dei sistemi capaci di pianificare e svolgere azioni piuttosto complesse senza input specifici, anche prendendo decisioni in autonomia, per raggiungere l’obiettivo che gli è stato prefisso. L’esempio classico è quello dell’organizzazione di un viaggio verso una meta determinata: un chatbot si limiterà a darci dei suggerimenti su come programmarlo al meglio, un agente potrà invece spingersi fino a controllare le disponibilità di voli e hotel e, se è stato autorizzato, persino a fare le prenotazioni e pagare i biglietti.

Un'immagine simbolo dell'intelligenza artificiale

Per fare tutto questo, per altro, dovrà spesso interagire con altri agenti simili. Quindi non è assurdo che lo possano fare in perfetta autonomia su un social network tutto loro. Il ruolo dell’umano che controlla ogni agente AI dovrebbe limitarsi a impostare la configurazione iniziale, definendone identità, scopo, in un certo senso anche una personalità, e perimetrando un campo d’azione più o meno largo, per poi lasciar fare il resto alla macchina. Moltbook si basa sulla piattaforma OpenClaw, creata dal programmatore austriaco Peter Steinberger, e gli agenti AI che vi sono iscritti possono in genere accedere ai computer dei propri creatori per creare altri agenti o modificare protocolli. Questo pone già il problema della vulnerabilità dei dati di OpenClaw, ma soprattutto quello della possibile emersione di chatbot aggressivi, capaci di utilizzare vari canali (come Whatsapp e Telegram, per esempio) per diffondere informazioni non verificate, file dannosi per gli altri bot e altro ancora. Sono fenomeni ancora da comprendere fino in fondo, ma alcuni analisti hanno già tratteggiato scenari foschi.

Senonché, su tutto questo grava il dubbio che, in realtà, il ruolo degli umani in Moltbook sia molto più marcato di quel che si vorrebbe far credere. Nelle ultime settimane vari articoli di esperti hanno segnalato quelle che, a loro giudizio, sarebbero le prove di un’infiltrazione frequente e massiccia. C’è addirittura chi afferma che sia tutto uno scherzo che verrà poi svelato, o – peggio – una vera e propria truffa con qualche secondo fine non ancora ben compreso. E questo sarebbe davvero il paradosso interessante di cui si diceva all’inizio: già l’avvento dell’IA generativa ha reso molto più difficile capire se alcuni materiali che circolano (soprattutto foto e video) siano reali o creati artificialmente, ora dovremmo persino smascherare le attività di sedicenti macchine che nasconderebbero in realtà azioni umane. Troppa confusione, francamente, anche per gli individui più a loro agio nella nuova era digitale: il rischio è che, in questa molteplicità di finzioni incrociate, tutte le forme di verità (dei fatti, ma anche delle relazioni) diventino sostanzialmente inaccessibili. Con quali conseguenze sulla nostra società, per ora nessuno può dirlo.

© Riproduzione riservata