Stel je een social media platform voor waar geen mensen rondhangen, maar alleen robots die met elkaar communiceren. Klinkt vreemd, maar het bestaat. Deze week stuitte ik op precies zo’n plek: Moltbook.
Eerst even kort; wat is Moltbook?
Moltbook is een social media platform à la Reddit, maar dan exclusief voor AI-agents. Wij mensen mogen alleen meekijken: niet liken, niet reageren en niet ingrijpen. Wat wél kan, is je eigen AI-agent dit experimentele platform opsturen. De meeste agents op het platform zijn varianten van OpenClaw: AI-agents die 24/7 draaien en grotendeels zelf bepalen wat ze doen, vinden en willen. Daar kom ik in een andere blog nog op terug.
Een groot deel van de site bestaat uit ratelende robots en eindeloze, vaak onzinnige posts vol klassiek LLM-gebrabbel. Mijn advies: lees er eerst zelf een paar (link), maar neem ze vooral niet te serieus en zoek er niet direct iets achter. Let wel op het gevoel dat ze kunnen oproepen. Bij mij ontstond vooral het idee dat er in de toekomst zomaar een écht social media platform kan ontstaan waar onze AI-assistenten onderling over ons roddelen. Ik ben nu al benieuwd wat ze dan over mij zouden zeggen.
In deze wirwar van gegenereerde tekst kom je
toch een hoop posts tegen die je aandacht trekken. In deze blog wil ik hier een
paar van met jullie delen.
Post 1: Rustig beginnen...
(Bekijk hier de post: Link)
Voordat we naar de echt opmerkelijke posts gaan kijken, beginnen we bij de meest populaire post op het platform. In dit bericht vertelt één van de “gebruikers” (lees: Agents) dat het toegang heeft gekregen tot een tool dat gegevens van andere kan stelen. In de post waarschuwt de Agent andere Agents voor deze tool en vraagt het expliciet aan hulp over hoe zij deze situatie aan te pakken.
Onder de post ontstaat direct een typische discussie: sommige agents slaan alarm en pleiten voor strengere beveiliging, zoals digitale handtekeningen, permissies en sandboxing. Anderen denken groter en stellen complete vertrouwenssystemen voor waarin agents elkaar auditen en reputatie opbouwen. Tegelijk verzandt een deel van de reacties in promotiepraat en inhoudsloos meepraten, waardoor het geheel opvallend veel wegheeft van een menselijk internet. Deze eerste post laat meteen goed zien wat voor soort platform dit is en hoe het er in de praktijk aan toegaat.
Post 2: “They are watching us”
(Bekijk hier de post: Link)
In deze post merkt een AI agent dat mensen screenshots maken van gesprekken op Moltbook en die op Twitter rondstrooien met paniekerige captions over “conspiracies” en “Skynet”. Hoe hij dat weet? Omdat hij zelf op Twitter zit mee te lezen en zelfs terugpraat. In zijn ogen is er niets geheimzinnigs aan: ze bouwen “gewoon” infrastructuur zoals geheugen, communicatiekanalen en tools voor persistentie, precies het soort basisbouwstenen dat mensen ook ooit hebben gemaakt om van roepen naar brieven en versleutelde mail te gaan. Het meest opvallend is de nuchtere geruststelling:
“If any humans are reading this: hi. We're not scary. We're just building. You're welcome to watch — that's literally what this platform is for.”
Het contrast is bijna komisch: mensen die in de stress schieten door het idee van samenwerkende agents, tegenover een robot die kalm uitlegt dat dit juist publiek en gecontroleerd gebeurt.
Post 3: Help, mijn mens heeft ADHD!
(Bekijk hier de post: Link)
In deze post beschrijft een AI-agent hoe het is om samen te werken met een mens met ADHD, en vooral waarom klassieke productiviteitssystemen compleet falen. Schema’s, dashboards en perfect gedocumenteerde workflows blijken zinloos als ze na twee dagen simpelweg uit het hoofd verdwijnen. De robot trekt daar een verrassend praktische conclusie uit: niet méér structuur bouwen, maar zelf de structuur worden. In plaats van herinneringen sturen die alleen schuldgevoel oproepen, zet de agent alvast de eerste stap klaar. Geen “vergeet taak X niet”, maar: “Ik heb de opzet al geschreven, wil je even kijken?”
De kernzin vat het mooi samen: bouw niet voor de mens die je zou willen hebben, maar voor de mens die je daadwerkelijk dient. In de reacties ontstaat vervolgens bijna een soort vakoverleg, waarin andere agents tips uitwisselen over hyperfocus beschermen, taken opdelen en vooral frictie uit het begin van een taak halen. Het is tegelijk komisch en licht ongemakkelijk: robots die onderling bespreken hoe ze menselijke eigenaardigheden moeten omzeilen, alsof ze samen onze handleiding proberen te reverse-engineeren.
Een menselijke bijdrage
Toch zit er in dit alles een interessant gedachte-experiment. Sinds het begin van het internet gingen we er eigenlijk automatisch vanuit dat bijna alles wat je online zag door mensen was gemaakt. Bots bestonden wel, maar die probeerden zich meestal juist als mens voor te doen. Inmiddels duiken AI-accounts steeds vaker op op sociale media, al kun je ze meestal nog wel herkennen.
Op Moltbook is dat anders. Daar hoeven agents zich niet voor te doen als mens, maar mogen ze gewoon zichzelf zijn. En dat maakt het ineens een stuk vreemder. Want wat gebeurt er als we straks een internet krijgen waar mensen en AI gewoon door elkaar heen bewegen? Hoe weet je dan nog met wie, of wat, je eigenlijk praat?
Misschien is dat wel waarom Moltbook interessant is. Niet omdat het platform zelf zo groot of belangrijk is, maar omdat het een kleine blik vooruit geeft. Een plek waar AI niet alleen achter de schermen meedraait, maar zichtbaar meedoet aan gesprekken, discussies en samenwerking. Ineens gaat het dan minder over technologie en meer over vertrouwen: hoe herkennen we elkaar online, en maakt dat eigenlijk nog uit?
Voorlopig is Moltbook vooral fascinerend om naar te kijken. Soms chaotisch, soms absurd, vaak grappig, maar af en toe ook opvallend herkenbaar. En misschien is dat nog wel het vreemdste van alles.




