К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.

Усыпанный угрозами путь: почему новая китайская ИИ-модель опасна для бизнеса

Фото DR
Фото DR
Новая языковая модель Kimi K2 Thinking от китайского стартапа Moonshot AI (в числе инвесторов Alibaba Group, Tencent и Microsoft) может быть использована злоумышленниками, позволяя им запускать атакующие инструменты локально, без внешнего API и ограничений со стороны поставщика. Такие выводы содержатся в исследовании разработчика ИБ-систем Servicepipe. По словам экспертов, атакующие уже активно используют ИИ для создания вредоносных программ, поиска уязвимостей и проведения всех этапов кибератак

Восточная угроза

Открытие китайской ИИ-модели Kimi K2 Thinking, которую разрабатывает пекинский стартап Moonshot AI, повышает риски для безопасности корпоративных веб-сервисов и API, рассказали Forbes в компании Servicepipe, предлагающей сервисы в сфере кибербезопасности и защиты трафика.

На минувшей неделе Moonshot AI, в число инвесторов которого входят Alibaba Group, Tencent и Microsoft (общая сумма привлеченных инвестиций — $3,3 млрд), открыл публичный доступ к своей новой языковой модели Kimi K2 Thinking. Объем модели оценивается примерно в 1 трлн параметров, при этом активируется около 32 млрд во время инференса — применения уже обученных алгоритмов для обработки новых данных и выдачи результатов. То есть при каждом обращении активируется только та часть модели, которая лучше всего подходит для конкретной задачи, что значительно повышает скорость работы и снижает требования к аппаратным ресурсам. Это реализовано за счет использования архитектуры Mixture of Experts. По данным тестов и независимых бенчмарков, модель может конкурировать с ведущими моделями других разработчиков — например, с Claude Sonnet 4 и GPT-4.1.

Модель поддерживает контекст до 256 000 токенов и демонстрирует высокие показатели в reasoning-тестах. В открытый доступ выложены не только код и архитектура, но и веса нейронной сети — то есть числовые параметры, на которых она обучена. Запустить ее все желающие могут локально, без подключения к облачным сервисам разработчика, указывают в Servicepipe.

 

Kimi K2 Thinking обладает функцией reasoning & tool-use: модель умеет самостоятельно планировать, обращаться к внешним инструментам, выполнять код и анализировать результаты. В сочетании с открытым доступом это существенно упрощает разработку атакующих агентов, предназначенных для автоматизации взлома веб-интерфейсов, API-взаимодействий и CI/CD-систем, обращают внимание авторы исследования. «В 2025 году сервис-провайдеры защиты от DDoS-атак уже сталкивались с атаками, где атакующий инструмент был создан с помощью ChatGPT и иных чат-ботов с генеративным ИИ, — указывает директор по продуктам Servicepipe Михаил Хлебунов. — Публичный доступ к языковой модели Kimi K2 Thinking расширяет возможности злоумышленников, позволяя запускать атакующие инструменты локально, без внешнего API и ограничений со стороны поставщика».

По мнению Хлебунова, эпоха атак «вручную» заканчивается, и бизнесу необходимо подготовиться к этой угрозе, обеспечив защиту веб-ресурсов и API с помощью решений, способных противостоять организованным с помощью ИИ атакам.

 

Forbes направил запрос в Moonshot AI.

Война «умов»

Атакующие уже сейчас активно используют ИИ для кибератак — от поиска цели и первичного проникновения в инфраструктуру до анализа ценных данных взломанной компании и их хищения или шифрования, поясняет гендиректор Security Vision Руслан Рахметов. Появление подобных продвинутых инструментов позволяет злоумышленникам масштабировать свои атаки без значительных трудозатрат, а также существенно снижает порог входа в киберпреступность — теперь для успешного фишинга и взлома сетей не обязательно знание ни иностранных языков, ни языков программирования.

Публикация ИИ-моделей без ограничений имеет положительные и отрицательные последствия, констатируют эксперты отрасли кибербезопасности. Так, ИИ может решать любые поставленные задачи, отвечать на вопросы, учитывая весь контекст дискуссии, а также интегрироваться в другие сервисы или решения для автоматизации процессов, говорит руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. В то же время, по ее словам, это важно и для киберпреступников разного масштаба: «ИИ-модели снижают порог вхождения в киберпреступность и оптимизируют затрачиваемые ресурсы для проведения атаки. Например, хакеры могут использовать модель при создании опасных сервисов благодаря ее открытым весам. Они маскируют вредоносный сервис под легитимный, таргетируют зараженные ресурсы и файлы, а также занимаются дезинформацией».

 

Не все ИБ-специалисты, впрочем, разделяют мнение о неминуемой опасности для бизнеса новой ИИ-модели. «Релиз Kimi K2 значительно не повысит рисков для бизнеса, так как модели, сопоставимые по качеству, уже существуют на платной основе как сервис, — полагает ML-директор Positive Technologies Андрей Кузнецов. — Для того чтобы запустить Kimi K2, необходимы очень дорогие серверы, которые не смогут себе позволить большинство злоумышленников».

Telegram-канал Forbes.Russia
Канал о бизнесе, финансах, экономике и стиле жизни
Подписаться

Даже при использовании такой продвинутой нейросети атаки сами по себе не станут автоматическими, Kimi K2 не предлагает злоумышленнику какую-то волшебную «кнопку уничтожения», рассуждает руководитель группы разработки защиты от DDoS на уровне веб-приложений в DDoS-Guard Казбек Мамакаев. «Но скорость их проведения увеличится, это факт», — признает он. Так, размер модели (247 ГБ даже в квантованной версии) и требование к GPU-кластерам означают, что запустить ее на ноутбуке в подвале не выйдет, продолжает Мамакаев. «Для этого нужна серьезная инфраструктура. Но теперь у злоумышленников будет доступ к API, который можно использовать в качестве помощника для быстрого проведения атак, — говорит он. — Тут стоит беспокоиться о скорости итерации, а не о том, что атак станет много. Раньше хакер тратил до трех дней на ручной анализ WAF (Web application firewall, инструменты для обнаружения и блокирования сетевых атак на веб-приложение) и подбор обходов. Теперь он может написать одну функцию-обертку для Sqlmap, Nmap и Burp (инструменты для тестирования безопасности), а K2 за ночь прогонит 1000 гипотез».

Интерес и справедливые опасения вызывает не сам факт того, что модель Kimi K2 Thinking и ее веса были выложены в открытый доступ (на платформе открытых ML-моделей Hugging Face таких проектов тысячи), а совершенство и функционал этой модели, уверен Руслан Рахметов. Бенчмарки показывают, что эта модель обладает скоростью и возможностями, даже превосходящими популярные проприетарные модели — такие как GPT-5, Claude Sonnet и Grok. По его мнению, особенность Kimi K2 Thinking в том, что она специализируется на рассуждениях (Reasoning), выстраивая длинную логическую цепочку для решения сложной задачи, а также обладает развитыми агентскими возможностями, то есть может самостоятельно использовать сотни внешних инструментов для достижения поставленной пользователем цели. «По заявлениям разработчиков, Kimi K2 Thinking особо преуспевает в написании кода, что, без сомнения, может (и, вероятно, будет) использоваться злоумышленниками», — убежден Рахметов.

Игра на понижение барьера

С тем, что дороговизна серверных мощностей будет серьезным барьером для реализации таких атак, Михаил Хлебунов не согласен. Он напоминает, что уже появляются сервисы, которые обещают распределенные GPU-вычисления — в том числе проекты в мессенджерах, что дополнительно снижает барьеры доступа к вычислительным ресурсам: «Это означает, что ограничение по «железу» перестает быть надежным щитом — при недостатке контроля злоумышленники смогут получить и свернуть вычислительные мощности для коллективных атак». Поэтому бизнесу важно не полагаться на дороговизну инфраструктуры как на меру безопасности, а фокусироваться на практических контрмерах: жесткой защите API, мониторинге аномалий и ограничении точек исполнения кода, рекомендует он.

К примеру, запуск децентрализованной сети для ИИ-вычислений анонсировал недавно на форуме Blockchain Life 2025 в Дубае основатель Telegram Павел Дуров. Проект получил название Cocoon — он объединит блокчейн TON и децентрализованные ИИ-технологии, вычислительные мощности будут предоставлять GPU-майнеры, участвующие в проекте. Они будут получать вознаграждение в TON, а Telegram обеспечит Cocoon «спрос и хайп», подчеркнул тогда Дуров.

 

Атакующим совершенно не обязательно разворачивать модель локально — они могут воспользоваться услугами одного из множества инференс-провайдеров (облачные сервисы для работы ML-моделей), подтверждает Руслан Рахметов: «Доступ к исходному коду и параметрам позволит злоумышленникам переобучить или донастроить модель под свои вредоносные цели, воспользовавшись различными методами (Full Fine-Tuning, PEFT, RAG и т.д.)».