Эксперты по кибербезопасности зафиксировали рост уязвимостей в AI-сервисах
В веб-приложениях, созданных на базе ИИ, отмечается резкий рост уязвимостей в третьем квартале 2025 года. Об этом пишут «Известия» со ссылкой на данные компаний по кибербезопасности. Уязвимости позволяют заражать AI-сервисы вредоносными вирусами и делают доступной переписку пользователей с нейросетями
В третьем квартале 2025 года наблюдался резкий прирост уязвимостей в AI-сервисах — приложениях, созданных на базе искусственного интеллекта (ИИ). Об этом «Известиям» сообщили в центре расследования киберугроз Solar 4RAYS (ГК «Солар»). В числе проблем, которые зафиксировали специалисты, — внедрение вредоносных вирусов в веб-страницы с получением доступа к внутренним объектам приложения и доступ к перепискам пользователей с нейросетями.
По данным центра, уязвимости были найдены в Aibox (платформа для работы с различными нейросетями); Liner (поисковая система на основе ИИ); Telegai (площадка для участия в ролевых играх с AI-персонажами); Deepy (ИИ-помощник с открытым исходным кодом), Chaindesk (сервис для создания чат-ботов ChatGPT AI для веб-сайтов); Ai2 Playground (онлайн-сервис для создания и редактирования изображений с помощью ИИ). По словам аналитика центра Сергея Беляева, такого рода уязвимости характерны для сгенерированного кода без последующей проверки и тестирования (вайб-кодинг) и могли быть перенесены в AI-сервисы именно оттуда.
Ведущий аналитик угроз компании WMX Павел Захаров подтвердил, что полученный по запросу к ИИ результат зачастую не проверяют и не тестируют на безопасность. Помимо классических веб-уязвимостей, по словам Захарова, в AI-сервисах появился и новый класс угроз — промпт-инъекции, рассчитанные на логику нейросетей. Основная проблема заключается в характере данных, к которым могут получить доступ злоумышленники, отметил собеседник издания.
Особые риски создают как раз вайб-кодеры, сказал ведущий специалист отдела по работе с уязвимостями ИС «Бастион» Сергей Зыбнев. По его словам, другой лазейкой для злоумышленников становится то, что компании не имеют процессов безопасной разработки и эксплуатации AI-систем. «Нет мониторинга аномального поведения моделей, контроля входных данных», — отметил Зыбнев.
Директор по цифровым проектам брендингового агентства BrandLab Юрий Зюзин добавил, что любая ошибка в настройке ИИ-моделей может привести к утечке конфиденциальной информации. По его словам, основные риски при работе с такими сервисами — это автоматическое выполнение вредоносных инструкций, зараженные файлы, подмена инструментов и утечка данных через текстовые команды. Регулярная очистка истории диалогов в AI-сервисах и использование разных аккаунтов для личных и рабочих задач позволят обезопасить работу с ИИ-помощниками, советует Сергей Зыбнев.
