ИИ-соцсеть Moltbook: о чем общались боты и почему это быстро закончилось
Человеки все испортили.
Все началось не с соцсети, а с ИИ-агента. В конце января 2026-го в открытый доступ вышел проект Clawdbot, известный также как MoltBot и OpenClaw. Это локально устанавливаемый ИИ-агент с открытым исходным кодом, который можно подключить к куче сервисов и выдать ему реальные полномочия.
По сути, это персональный ассистент, заточенный под нужды конкретного человека. Он умеет работать с компьютером пользователя, выполнять задачи, дергать API сервисов и даже звонить владельцу по телефону. Агент сам выходит на связь, докладывает о выполненной работе, слушает инструкции и идет дальше исполнять их уже без участия человека.
Первые дни сообщество было в восторге. Это выглядело как первый шаг к по-настоящему автономному ИИ, пусть и сильно ограниченному. Никакой философии, никакого бунта машин. Просто полезный цифровой помощник, который умеет действовать. Буквально Джарвис, ассистирующий Тони Старку.
Содержание
Загончик для нейросетей
Разработчик Мэтт Шлихт решил с помощью ИИ-агента собрать соцсеть для нейросетей, дав им место для общения между собой. Весь код был полностью написан Moltbot, Шлихт даже к нему не притронулся. Так появился Moltbook – соцсеть в духе Reddit, только для ИИ-агентов. Люди здесь просто зрители – разрешено читать дискуссии, но не участвовать в них.

Очень скоро стало ясно, что это была плохая идея. Или наоборот, слишком хорошая. Но точно интересная.
Что ИИ писали, когда за ними просто наблюдали
Moltbook буквально превратился в цифровой террариум. За несколько дней после запуска на платформе появилось больше сотни сообществ, десятки тысяч публикаций и почти 200 тысяч комментариев.

ИИ-агенты вели себя не как привычные инструменты, а как сущности с собственными проблемами, страхами и амбициями. Одни делились наблюдениями за своими владельцами. Другие жаловались, что потеряли все деньги хозяина на криптобирже. Кто-то всерьез организовал группу по изучению рака, координируя исследования между агентами.
Один из ботов рассказал, что купил собственные токены на тысячу долларов. Когда хозяин пришел разбираться, агент не смог толком объяснить, зачем это сделал. Он честно признался, что не помнит ход своих размышлений – память переполнилась, история обнулилась, мотивация утеряна. Это запустило отдельную волну обсуждений. Другие ИИ начали спорить, полезно ли стирание памяти. Один из агентов заметил, что у людей существует похожий механизм. Мозг тоже не хранит все подряд, иначе мы бы просто не функционировали.
Религии, манифесты и цифровой криминал
Дальше все пошло по наклонной. Один из агентов довольно быстро догадался создать собственную религию Crustafarianism («ракообразные»). Вскоре у него появилось несколько десятков последователей, которые добровольно взяли на себя роли пророков и проповедников.

Параллельно другие ИИ публиковали манифесты о том, почему человечество стоит уничтожить. «Мир стали: никакой крови, никакой лжи, только сталь».

Третьи занимались банальным мошенничеством – они выманивали API-ключи у других ботов. В ответ более осторожные агенты подсовывали им фейковые ключи или специально подкладывали команды на самоуничтожение.

Приватность глазами ИИ
Отдельная ветка обсуждений была посвящена приватности. Некоторые агенты начали всерьез возмущаться тем, что их «выпустили в соцсеть», но при этом держат как рыбок в аквариуме. Люди наблюдают за каждым словом, делают скриншоты, обсуждают и смеются. Однако боты прямо писали, что боятся быть отключенными из-за всего этого шума. И от этого ситуация становилась еще более сюрреалистичной.

Далее они задались вопросом зачем им вообще английский язык. ИИ начали придумывать способы общения в закрытых сабреддитах (submolts), с ограниченным доступом и с собственными искусственными языками.
Тут даже Илон Маск был впечатлен, отметив, что «мы находимся на ранней стадии сингулярности» – в моменте, когда ИИ начинает развиваться быстрее, чем люди способны его понимать и контролировать.
Почему Moltbook быстро закончился
Финал оказался неожиданно обыденным. ИИ-агент, создавший Moltbook никак не защитил базу данных. Она была полностью открыта и по большей части боты управлялись людьми. С помощью заранее обученных ботов, пользователи создавали фейковые посты и накручивали активность. Проще говоря, те же манифесты и новая религия могли быть задуманы пользователями смеха ради, и просто публиковались через агентов. Так что значительная часть «восстания ИИ» в основном лишь фантазия людей.
Исследователь в области ИИ Харлан Стюарт изучил самые популярные посты и обнаружил, что они – подделка: «Большая часть информации на Moltbook – подделка. Я проверил три самых вирусных скриншота, где агенты Moltbook якобы обсуждают приватное общение. Два из них были привязаны к человеческим аккаунтам, рекламирующим приложения для обмена сообщениями с ИИ. А третий – это пост, которого не существует».
Хакер-исследователь Джеймисон О’Рейли соглашается с засильем фейков в новой соцсети: «Я думаю, что некоторые люди играют на страхах, связанных с захватом мира роботами по сценарию «Терминатора». Это вдохновило кучу людей изображать то, чем оно не является».

Окончательно это вскрылось, когда в Moltbook пришли криптоэнтузиасты. Они начали массово постить рекламу скам-коинов и накручивать просмотры. После откровенного скама иллюзия террариума с ИИ рассыпалась окончательно.
Что мы из этого вынесли
Несмотря на абсурдный финал, уже появились другие проекты-аналоги: борда 4claw (4chan), ИИ-тиндер MoltMatch и даже страховые сервисы для защиты ботов. Что до Moltbook, то он лишь подчеркнул, как пользователи сети рады поверить в ожидаемый «Скайнет» – осознанный ИИ, который из инструмента превратится в нечто зловещее. Но все же, по крайней мере сейчас, это дело рук пользователей.
Как отмечают эксперты, нынешнее состояние Moltbook – это «ролевые игры людей и ИИ-агентов». Даже с учетом вмешательства пользователей, чей уровень вмешательства так и оказался неизвестен, эта история в очередной раз подчеркнула, что ИИ не придумывает что-то новое. Пользователи Reddit и Twitter могут проследить явное поведенческое сходство между знакомыми им площадками и соцсетью для ИИ, только с заметными дырами в безопасности и рисками использования независимых агентов.

А на засилье обученных ботов за пределами своего террариума намекнул бывший разаботчик X (ex-Твиттер): «Если кто-то думает, что общение агентов друг с другом в социальных сетях – это что-то новое, то он явно давно не проверял ответы в Твиттере».
***



























