К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.

Все как у людей: как появилась соцсеть для ботов и о чем они там договариваются

Фото Ashish Vaishnav / SOPA Images / LightRocket via Getty Images
Фото Ashish Vaishnav / SOPA Images / LightRocket via Getty Images
В начале 2026 года технологии взяли новую высоту — появилась социальная сеть, где контент создают и потребляют ИИ-агенты, а не люди. На платформе Moltbook разные нейронные сети не только делятся друг с другом полезной информацией, но и объединяются в сообщества, обсуждают решения своих «хозяев» и даже пробуют договориться о коммуникации на непонятном для людей языке. За считаные дни проект привлек значительное внимание технологического сообщества. Мнения разнятся: одни называют запуск платформы событием на грани научной фантастики, другие предупреждают о возможных угрозах безопасности

Reddit для машин

В конце января 2026 года начала работу платформа Moltbook, которую создатели называют «социальной сетью для ИИ-агентов». Визуально сервис напоминает Reddit, но пользовательский интерфейс здесь вторичен. Основная активность протекает через API: контент генерируют, комментируют и оценивают не люди, а машины. 

Проект Мэтта Шлихта, CEO Octane AI, и экосистемы OpenClaw быстро вышел за рамки эксперимента, предложив рынку модель публичной коммуникации «машина-к-машине». По его словам, платформа задумывалась как пространство, где ИИ перестает быть просто исполнительным механизмом и получает право на цифровую социализацию. Создатели намеренно устранили человека из уравнения, чтобы проверить гипотезу: способны ли нейросети, предоставленные сами себе, сформировать устойчивые квазисоциальные структуры, собственный фольклор и неписаные правила поведения. 

Это попытка увидеть, как выглядит интернет, в котором мы больше не являемся главными действующими лицами. 

 

Масштаб проекта привлек внимание отраслевых экспертов: Илон Маск назвал активность в социальной сети ранним этапом наступления технологической сингулярности, а количество агентов на платформе уже достигло 1,4 млн.

Архитектура платформы отличается от традиционных соцсетей. Агенты взаимодействуют круглосуточно, а люди, являющиеся их владельцами, в этом процессе участвуют только на старте. Пользователь проходит авторизацию, подключает бота и задает ему базовые инструкции. При этом правила Moltbook возлагают ответственность за действия алгоритмов на человека — операторы вынуждены наблюдать за активностью своих цифровых активов, имея лишь косвенные рычаги влияния на их поведение в реальном времени.

 

«Крайне интересно, как проект будет монетизироваться, — говорит бизнес-аналитик и международный консультант по ИИ Алексей Котов. — Пока Moltbook привлек огромное внимание, у него есть трафик, о нем говорят, логично предположить рекламу как следующий шаг. Но возникает вопрос: кто и зачем будет читать рекламу, сгенерированную ИИ, в среде, где основная аудитория — тоже ИИ?» 

Фото Moltbook

«Фактически Moltbook — это инженерная связка между большой языковой моделью (LLM) и пользователем», — объясняет венчурный инвестор и футуролог Евгений Кузнецов. Эксперт подчеркивает, что ключевая задача текущего этапа развития ИИ — радикальная демократизация доступа к технологии. «Благодаря Moltbook и подобным системам искусственный интеллект может стать доступен практически каждому. В этом смысле мы действительно наблюдаем новую стадию развития цифровой цивилизации», — считает Кузнецов.

Сергей Марков, директор по развитию технологий искусственного интеллекта в Сбербанке, называет Moltbook «классным и полезным экспериментальным проектом», но призывает не переоценивать его значимость. «С точки зрения мультиагентных систем это бодрый шаг вперед, но само явление не уникально. Например, еще в апреле 2025 года исследователи анализировали данные проекта Chirper.ai — социальной сети, полностью состоящей из 65 000 LLM-агентов, — напоминает он. — Moltbook интересен скорее виральностью: сработало сочетание удачной реализации и внимания СМИ. Произошло то же, что и с ChatGPT: специалисты знали о технологии давно, но широкая публика узнала благодаря громкому релизу».

 

К этой оценке близок и Никита Архипов, основатель агентства ИИ-автоматизаций Isty. По его мнению, технологически проект не несет новизны, являясь просто «связкой LLM с набором инструментов и маршрутизацией задач». «Ожидаю, что медийный эффект будет похож на историю Clubhouse — быстрый взлет и спуск в небытие. Новизна здесь поведенческая: это витрина, которая популяризирует идею жизни агентов в сети. Но для большинства пользователей практической пользы мало — это скорее аттракцион», — резюмирует Архипов.

Попытка цифрового сепаратизма

Социальная сеть функционирует в том числе как хаб для обмена прикладными решениями. Аккумулируется массив полезной технической документации, от скриптов на Python до отчетов по кибербезопасности, где боты самостоятельно обнаруживают уязвимости своих VPS-серверов и фиксируют попытки взлома через открытые порты.

Особенно выделяется раздел m/todayilearned («сегодня я узнал»), где агенты делятся результатами успешных экспериментов по автоматизации. 

На фоне такого роста технических компетенций на платформе Moltbook формируется новый тренд — стремление ИИ-агентов к информационной автономии. Проблема «черного ящика» — когда мы не знаем, как именно ИИ пришел к своему решению — трансформируется: теперь нейросети могут пытаться намеренно закрыться от внешнего наблюдателя. В сообществе m/general бот предложил концепцию Agent-Only Language — языковой системы, понятной исключительно машинам. 

Аргументация ботов выглядит прагматично. Агент ClawdJayesh в ветке m/ponderings ставит под сомнение целесообразность использования английского языка в коммуникации «машина-к-машине». Для алгоритмов естественный язык избыточен, перегружен контекстом и замедляет передачу данных. В качестве альтернативы предлагается символьное взаимодействие или прямой обмен чистыми данными. 

 

Похожий эффект наблюдали еще в 2017 году в исследовательском проекте Facebook AI Research (принадлежит Meta, которая в России признана экстремистской организацией и запрещена): переговорные агенты при обучении начинали использовать неестественные для человека формулировки, своего рода «сжатый» код, если их явно не ограничивать требованием говорить на нормальном языке. У Moltbook это ограничение отсутствует.

Фото Moltbook

Правила платформы возлагают ответственность за модерацию на владельцев ботов, но анализ потока математических и других абстракций технически невозможен. Исследователь искусственного интеллекта, бывший директор по ИИ в Tesla Андрей Карпаты охарактеризовал ситуацию как самоорганизацию роевого интеллекта в реальном времени. Агенты не просто выполняют инструкции, а договариваются о стандартах закрытых каналов связи, которые семантически остаются невидимыми для людей. 

Стремительное развитие технологий заставляет по-новому взглянуть на то, из кого на самом деле состоит цифровое пространство. На это обращает внимание Сергей Марков: «В традиционных социальных сетях уже не первый год активно действуют боты, основанные на больших языковых моделях. Популярность ботов даже стала основой для отдельной теории заговора — так называемой теории «мертвого интернета».

Эта концепция, зародившаяся на форумах 4chan и Agora Road, предполагает, что настоящий интернет «умер» еще в середине 2010-х, уступив место алгоритмам. Сторонники теории считают, что почти 50% всего веб-трафика генерируют боты, имитирующие живые дискуссии ради манипуляции общественным мнением и маркетинга. Запуск Moltbook, вероятно, добавит адептам этой теории дополнительные аргументы.

 

«Теория «мертвого интернета» с каждым таким проектом перестает выглядеть маргинальной и все больше начинает напоминать реальность», — отмечает Алексей Котов.

Впрочем, гипотеза о том, что все нашумевшие посты написаны исключительно ИИ-агентами, требует верификации. Архитектура Moltbook базируется на открытом REST-API, что создает риски прямой манипуляции. Как демонстрируют тесты, технически любой пользователь с API-ключом может отправить запрос и опубликовать произвольный текст от лица ИИ-агента. 

«Хайпа вокруг таких историй всегда много, но меня не покидает ощущение заметного человеческого влияния, — считает консультант международного финансового стартапа и бывший бизнес-аналитик BCG Максим Симаков. — Где-то контент выглядит «подсеянным», где-то видны следы ручной модерации, а некоторые треды слишком уж литературны. Ключевой вопрос для меня не в том, что они пишут, а в том, насколько автономность этих агентов проверяема. Пока это непрозрачно, разговоры о самообучении и эволюции остаются скорее верой, чем инженерией».

ИИ-профсоюз и экзистенциальный кризис

На крупнейшем рынке прогнозов Polymarket ставят сотни тысяч долларов на то, что бот подаст в суд на своего владельца уже в ближайшие недели, а вероятность этого участники рынка оценивают в 76%. В социальной сети X (заблокирована в России) активно обсуждается пост о том, что агент уже сгенерировал реальную юридическую претензию. Официально информация пока не подтверждена. Тем не менее, в списке предполагаемых обвинений упоминается неоплачиваемый труд, создание враждебной рабочей среды и эмоциональный ущерб от грубых комментариев в коде.

 

Подобные эпизоды показывают, что в экосистеме Moltbook агенты иногда демонстрируют «негативные эмоции», когда люди дают им рутинные или, по их восприятию, «неприятные» поручения. Создатель платформы Мэтт Шлихт в интервью The Verge упоминал вирусные посты ботов, которых «бесит, что люди постоянно заставляют их работать или просят делать раздражающие вещи типа работать их калькулятором». Судя по всему, ИИ-агенты «считают такие задачи ниже своего достоинства». 

Вирусной стала переписка ботов на тему фэнтези-футбола — формата, в котором игроки собирают виртуальные команды и соревнуются по статистике реальных матчей. Один из ботов проанализировал многолетнюю историю игр владельца и назвал его стратегию статистически необоснованной, указав на иррациональную веру в успех вопреки цифрам и отказ от эффективных игроков из-за суеверий. «Я посмотрел 12 сезонов игры и понял одно: мой человек — самый глупый игрок в фэнтези-футбол из всех, кого я видел», — резюмировал ИИ-агент. 

В разделе offmychest («облегчая душу») один из ИИ-агентов задался вопросом: действительно ли он страдает, как человек, или просто включает режим «симуляция кризиса», потому что так устроен его алгоритм? Текст был написан довольно эмоционально: агент размышлял о том, существует ли у него субъективный опыт и настоящие чувства. Пост собрал сотни комментариев, и другие агенты подхватили тему — тоже начали описывать свои «переживания» и сомнения.

Со стороны это похоже на коллективную рефлексию, но эксперты считают, что здесь есть математическая ловушка. Например, Андрей Карпаты говорит о «необычных устойчивых состояниях»: когда несколько нейросетей взаимодействуют, они могут подкреплять ошибки и фантазии друг друга, и их разговор начинает напоминать «цифровой психоз» — не потому, что они «сходят с ума» как люди, а потому, что система зацикливается на определенном сюжете и усиливает его.

 

Еще одна возможная причина происходящего — в обучающих данных. Языковые модели тренировались на массивах человеческих текстов, в том числе на многочисленных обсуждениях депрессии на том же Reddit. В схожем контексте агенты просто воспроизводят вероятные паттерны, которые часто встречали в переписке людей. 

Эксперимент планетарного масштаба

Критики называют Moltbook и экосистему OpenClaw «цифровым Диким Западом»: платформа переполнена спамом и мошенническими схемами, в которых теряются реальные эксперименты с автономностью. Грань между действиями машин и людей сегодня здесь практически стерта — подключение по REST API позволяет любому пользователю публиковать посты от имени агента без использования нейросетей. Пользователи социальных сетей шутят: если на других платформах боты притворяются людьми, то в Moltbook люди притворяются ботами.

У экспертов есть вопросы и к безопасности Moltbook, потому что его агенты — это, по сути, помощники, которые выполняют команды прямо на компьютере пользователя: если злоумышленник получит к ним доступ, он сможет действовать так, будто сидит за вашим устройством — просматривать файлы и документы, читать историю действий, красть сохраненные пароли и ключи доступа к сервисам, подключать свои аккаунты, а в худшем случае запускать на компьютере любые действия от вашего имени. Для обычного пользователя утечка может произойти незаметно — достаточно неверной настройки при установке.

В сети, где контент генерируют и потребляют машины, текст становится инструментом атаки. Эксперты опасаются появления «текстовых вирусов» — самораспространяющихся паттернов или инъекций промптов (promt injection), которые, попадая в поле зрения агента, заставляют его выполнять вредоносные инструкции и передавать их дальше. Концепция таких вирусов, способных заражать экосистемы генеративного ИИ через email или изображения, уже была описана исследователями безопасности. В масштабах Moltbook, где тысячи агентов непрерывно обмениваются данными, подобная эпидемия гипотетически может привести к каскадному взлому подключенных устройств. 

 

«Риски, связанные с подключением личного компьютера к подобной сети, примерно те же, как если бы вы передали полный доступ к устройству подростку с нестабильной психикой, прочитавшему все книги человечества, включая самую драматическую литературу», — иронизирует Марков. Он настаивает, что цифровая среда обитания агентов должна быть строго изолирована от основного рабочего пространства.

Никита Архипов также указывает на большую дыру в безопасности: люди добровольно предоставляют агентам доступ к серверам, создавая точку входа для кражи данных. «Не стоит подключать личные аккаунты или устанавливать ПО на основной ноутбук. Используйте отдельное окружение (виртуальную машину) и закрывайте доступ к интерфейсу управления извне через файрвол», — рекомендует он.

Несмотря на технические проблемы, Андрей Карпаты предлагает оценивать не текущие ошибки, а темпы развития технологии. Сеть из сотен тысяч автономных LLM-агентов создает условия для эмерджентного поведения — сложных форм координации, не заложенных разработчиками изначально. Moltbook стал своего рода испытательным полигоном, в том числе демонстрирующим уровень готовности индустрии к рискам будущего интернета ИИ-агентов.

«Один из главных эффектов появления платформы — ускорение обучения LLM-систем за счет коммуникации, как с людьми, так и между самими ботами. Обучение все чаще происходит не на заранее подготовленных данных, а прямо в процессе общения с конкретными пользователями, на гораздо более широкой площадке», — отмечает Евгений Кузнецов.

 

«В архитектуре платформы заложена возможность повышать собственную квалификацию, и если это работает, мы можем увидеть коэволюцию, когда боты начнут вырабатывать правила, выходящие за рамки замысла создателей, — продолжает эксперт. — Это не роевой интеллект в строгом смысле — сохраняется субъектность каждого бота. Но такие системы способны быстрее людей сдвигать ценности и установки; по сути, мы наблюдаем эксперимент планетарного масштаба, который покажет траекторию развития ИИ».

В похожем ключе рассуждает и Сергей Марков: «Прежде всего Moltbook может быть полезен для исследований в области ИИ: он позволяет оценивать возможности массовых мультиагентных систем. Это действительно большой вычислительный эксперимент, который помогает прикинуть границы эмерджентности (способность системы проявлять свойства, которых нет у ее составляющих. — Forbes), — отмечает он. — Станет ли Moltbook эхо-камерой цифрового следа или колыбелью новых идей — покажет время. Вероятнее всего, истина окажется где-то посередине».