К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.

И народное явление: что думает бизнес про законопроект о суверенном ИИ

 Фото Юлии Морозовой / ТАСС
Фото Юлии Морозовой / ТАСС
Законопроект о регулировании ИИ, вводящий понятия суверенной, национальной и доверенной моделей ИИ и предписывающий разрабатывать и обучать модели на территории России, по сути, закрепляет приоритет максимально отечественных решений, считают участники IT-отрасли. Это может обернуться потерей в эффективности, если российская разработка существенно уступает по качеству решениям, созданным на базе иностранных открытых технологий, предостерегают эксперты. Также бизнес недоумевает: несмотря на рамочный характер документа, нормы о маркировке, ответственности разработчиков или требования к данным для обучения моделей вызывают вопросы

Интеллект посконный и домотканый

Минцифры 18 марта выложило для общественного обсуждения проект закона «Об основах государственного регулирования сфер применения технологий ИИ в Российской Федерации». Документ содержит 21 статью, предполагает вступление в силу 1 сентября 2027 года, включает в себя глоссарий (вводит определения основных понятий, вроде «сервис ИИ», «разработчик модели ИИ», «система ИИ» и т.п.) и носит рамочный характер, закрепляя общие принципы регулирования. Детали будут прописаны в подзаконных актах.

Одним из важнейших принципов регулирования в сфере ИИ закрепляется уважение «традиционных российских духовно-нравственных ценностей». Также его основным положением можно считать разработку и обучение суверенных и национальных моделей ИИ на всех стадиях на территории России. Законопроект вводит понятия суверенной, национальной и доверенной моделей ИИ. Первые две предполагают также участие только граждан России и российских юрлиц во всех стадиях разработки, обучения и эксплуатации моделей ИИ. Суверенные и национальные модели будут обучать с использованием наборов данных, сформированных россиянами и российскими юрлицами на территории страны.

К доверенным моделям ИИ могут также относиться суверенные и национальные, у них должно быть подтверждение соответствия требованиям безопасности и требованиям качества, установленным Банком России, федеральными органами исполнительной власти и госкорпорациями. Также у доверенной модели ИИ обеспечение обработки данных должно быть только на территории России. Нейросети из реестра доверенных моделей можно будет использовать в государственных информационных системах и на объектах критической инфраструктуры.

 

Международное сотрудничество в этой сфере будет возможно путем совместных научных исследований и обмена данными с другими странами, указано в законопроекте. Граждан обязаны проинформировать о продаже товара или оказании услуги с применением ИИ, они могут отказаться от нее и имеют право на компенсацию вреда, причиненного неправомерным использованием ИИ-технологий.

Разработчики, операторы и владельцы нейросетей несут ответственность за результат работы ИИ, нарушающий закон, если они знали заранее о возможности такого результата, указано в законопроекте. Сбор данных для обучения моделей легализован: извлечение информации из защищенных объектов для создания датасетов не будет являться нарушением авторских прав.

 

Также правительство сможет выбирать центры обработки данных (ЦОД) и суперкомпьютеры, которым предоставят льготы: приоритетное подключение к электросетям, пониженные тарифы на электроэнергию, налоговые льготы и бюджетное финансирование.

«От болтов и гаек»

Государственная политика России в области ИИ в 2025-2026 годах проходит этап активного институционального строительства и формирования комплексной системы управления, указывают в Т1. Так, до 2030 года планируется выделить более 70 млрд рублей на развитие ИИ в России, заявил председатель правительства Михаил Мишустин на пленарной сессии на форуме «Цифровые решения» в ноябре 2025 года. На льготное кредитование строительства ЦОДов власти намерены направить 32,1 млрд рублей в 2025-2030 годах. Согласно планам правительства, к 2036 году в стране должно появиться восемь новых дата-центров.

Согласно совместному исследованию АБД, Б1 и TAdviser, по итогам 2025 года российский рынок Big Data и ИИ может составить 520 млрд рублей. В 2024 году объем рынка оценивался в 433 млрд рублей. Среднегодовой темп роста рынка больших данных в ближайшие пять лет может составить 20%.

 

Законопроект лоббировал «Сбер», сообщали Forbes ранее источники в нескольких компаниях интернет- и IT-индустрии. «Это секрет Полишинеля», — говорит собеседник в одной из них. «Законодательную инициативу, которая будет защищать интересы отечественных систем ИИ, поддерживал «Сбер», для чего его глава Герман Греф лично встречался с Владимиром Путиным», — говорит источник на IT-рынке. Процесс согласования этой инициативы с бизнесом можно было сравнить с тем, как загоняют иголки под ногти, отмечает он. Среди компаний, у которых были возражения, он назвал «Яндекс».

У «Сбера» своя большая языковая модель GigaChat с полным циклом разработки, своей архитектурой, работающее на его основе семейство моделей и ИИ-агентов. «Модель у «Сбера» полностью российская, буквально «от болтов и гаек», — рассказывал ранее в недавнем интервью Forbes первый зампред «Сбера» Александр Ведяхин.

О том, что Россия должна обеспечить технологический суверенитет в сфере ИИ, Владимир Путин заявлял еще в 2019 году. К примеру, 30 мая того года на совещании по стратегии развития технологий в области ИИ (ее разрабатывал Сбербанк при участии правительства) президент констатировал: «Если кто-то сможет обеспечить монополию в сфере ИИ, последствия нам всем понятны, — тот станет властелином мира».

Forbes опросил экспертов и участников рынка, что они думают о документе, над которым в течение месяцев работала отрасль, внося свои предложения, и регуляторы, проводившие его межведомственное согласование.

Еще не финал

Инициатива правительства направлена прежде всего на то, чтобы вопрос законодательного закрепления регулирования ИИ находился в зоне ответственности исполнительной власти, настаивает источник в одной из крупных IT-компаний, добавляя, что проект носит предварительный характер и требует дальнейшей доработки. «Публикация на этом этапе — часть процесса, который позволит собрать предложения от профессионального сообщества и доработать документ. Окончательная редакция будет заметно отличаться от текущей версии», — уверен он.

 

Текущая редакция законопроекта — «шаг назад в сравнении с ранее обсуждаемыми редакциями и противоречит самой цели регулирования: ускоренному развитию ИИ в стране», говорит источник в одной из российских интернет-компаний. По его мнению, проект в таком виде добавляет новые обязанности всей ИИ-отрасли: «Обновления и доработки существующих решений станут сложнее, что сделает их нецелесообразными. И это может усложнить процесс создания и развития ИИ-технологий в стране в целом».

Кроме того, дополнительная ответственность разработчиков, операторов ИИ и владельцев ИИ-сервисов будет означать только одно, продолжает этот собеседник Forbes: их можно будет привлечь к ответственности в любом случае, независимо от того, принимали они меры по защите от запрещенного контента или нет. Также законопроект вводит обязанность владельца ИИ-сервиса маркировать не только аудио- и визуальный информационный материал, но и любой другой, замечает источник в одной из крупнейших российских IT-компаний. «Значит, под маркировку попадет, например, текстовый контент: перевод текста, описание карточки товара или объявления. Такая маркировка избыточна, потому что такой контент не вводит пользователя в заблуждение, при этом излишняя маркировка формирует недоверие в отношении ИИ-контента в целом. Это, в свою очередь, может повлиять на скорость проникновения ИИ-технологий в отечественные сервисы», — заключает он.

По мнению руководителя правового отдела Just AI Кирилла Тимченко, перекос в сторону управляемости и технологического суверенитета заметен: это проявляется, в частности, в акценте на «суверенные» и «доверенные» модели, а также в широких полномочиях государства по определению требований к ним. «Такой подход понятен с точки зрения безопасности, но создает риск избыточной централизации рынка и сужения технологического разнообразия. В условиях, когда ключевые критерии допуска к рынку определяются государством, усиливается зависимость отрасли от ограниченного круга решений, — говорит он. — В документе недостаточно внимания уделено нейтральности регулирования, когда правила одинаково применимы к любым технологиям, вне зависимости от их происхождения». В результате есть риск, что вместо стимулирования конкуренции и инноваций рынок будет развиваться вокруг заранее определенного набора «разрешенных» решений, заключает Тимченко.

«Это может быть очень чувствительным»

Что касается дискуссии об иностранных и «русских народных» моделях ИИ, важно продолжать диалог со всеми заинтересованными сторонами, считает старший юрист MWS AI (входит в МТС Web Services) Кирилл Дьяков. В сфере ИИ не существует технологий, полностью свободных от open source решений в основе, говорит он. «Поэтому выбор в пользу максимально отечественного решения в традиционно развитых для России сферах, таких как промышленность, культура, образование или государственные сервисы, может обернуться потерей в эффективности, если российская разработка существенно уступает по качеству решениям, созданным на базе иностранных открытых технологий, — продолжает Дьяков. — Практика MWS AI показывает, что большинство крупнейших отечественных компаний — более 95% — изначально внедряют ИИ на собственной инфраструктуре в закрытом контуре, что гарантирует достаточный уровень безопасности его использования».

 

Кроме того, любое обязательное подтверждение соответствия моделей требованиям «русского народного» ИИ должно предусматривать четко установленные процедуры, критерии и сроки, а также вводиться поэтапно, указывает юрист. «В противном случае мы рискуем столкнуться с остановкой действующих сервисов, что может привести к значительному недополучению финансового эффекта в ключевых отраслях экономики, — делает вывод Дьяков. — Это может быть очень чувствительным на фоне нехватки человеческих и других ресурсов».

Ряд норм вводят чрезмерную административную нагрузку на разработчиков, что впоследствии может сказаться на развитии всей отрасли и отдельных сервисов и решений на основе ИИ, считают в Альянсе в сфере ИИ: «Например, нужно аккуратно подходить к вопросам маркировки и ответственности разработчиков ИИ и владельцев сервисов, ПО с ИИ». Некоторые положения в текущей редакции вызывают вопросы у участников рынка, в частности нормы об ответственности разработчиков или требования к данным для обучения моделей, констатирует также источник в IT-отрасли: «Последнее технически сложнореализуемо в том виде, в котором сформулировано сейчас».

Интересно прежде всего, как законопроект может повлиять на три сферы: стартапы и венчурная индустрия, средний и крупный бизнес, а также пользователи, считает советник практики защиты данных Denuo Илья Булгаков. К счастью для стартапов и крупного бизнеса, пока законопроект не предполагает внесение изменений в КоАП, вводящих оборотные штрафы за его нарушение (как это было предусмотрено в EU AI Act), указывает Булгаков, добавляя, что следует ожидать того, каким будет регулирование в дальнейших подзаконных актах: «Например, стартапам не грозят непомерные финансовые риски, связанные с развитием своего продукта, и это позитивный сигнал. Что касается крупного бизнеса, то, на первый взгляд, законопроект вводит умеренный уровень комплаенса, который не должен сильно тормозить развитие ИИ в России (по сравнению с рядом зарубежных стран, например). И, наконец, что касается пользователей, регулирование выглядит не слишком ограничивающим и в основном содержит декларативные нормы».

Идея сертификации ИИ-систем для КИИ понятна: промышленные объекты, энергетика, транспорт требуют повышенных мер безопасности, рассуждает генеральный директор ГК «Ультиматек» Павел Растопшин. «В документе эта идея закреплена: доверенные модели должны проходить подтверждение соответствия требованиям ФСБ и ФСТЭК и включаться в специальный реестр. Но в законопроекте не прописано, как именно сертифицировать нейросетевые модели, — указывает он. — Существуют так называемые строгие модели — они работают на математических уравнениях, их поведение предсказуемо, их можно проверить на все случаи жизни и выдать сертификат. Но современные нейросети, особенно те, что используются для прогнозирования состояния оборудования или оптимизации производственных процессов — это «черные ящики». Их решения необъяснимы, а ошибки непредсказуемы. Законопроект эту проблему обходит стороной. Он устанавливает требование сертификации, но не говорит, как ее проводить для разных типов моделей».

 

Кроме того, в законе необходимо четче прописать ответственность в цепочке «разработчик — интегратор — промышленное предприятие», полагает Растопшин: «Статья 11 вводит презумпцию виновности разработчика, но на практике в промышленности ИИ-решения редко работают «как коробка» — их дорабатывают интеграторы под конкретное производство, обучают на данных конкретного завода. Где заканчивается ответственность разработчика и начинается ответственность интегратора или самого предприятия-владельца? Это требует уточнения».

В «Сбере», «Яндексе», «Авито», Т-Банке отказались от комментариев.

При участии Владислава Нового