К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.

Группа разбора: ЦБ оценит ответственность участников рынка и разработчиков алгоритмов

Фото Александра Манзюка / ТАСС
Фото Александра Манзюка / ТАСС
Банк России решил привлечь экспертов к определению подходов к ответственности при использовании искусственного интеллекта на финансовом рынке. Для этой цели при ЦБ создана рабочая группа, узнал Forbes. Среди вопросов, которые начали рассматривать ее участники — достаточность существующих инструментов защиты потерпевшей стороны, которой причинен ущерб посредством использования ИИ, а также возможные препятствия для привлечения к ответственности за ущерб разработчиков модели ИИ. При этом если бизнес настаивает на необходимости саморегулирования, то юристы убеждены — нужна адаптация законодательства

Под вашу ответственность

Одиннадцатого ноября прошло заседание рабочей группы при Центробанке, на которой обсуждалась целесообразность регулирования ИИ на финансовом рынке. Об этом рассказал источник Forbes, знакомый с ситуацией. 

В повестку этого заседания было включено пять вопросов, следует из материала, с которым ознакомился Forbes: 

  • Необходимо ли в настоящее время регулирование использования ИИ на финансовом рынке? Если да, то какие изменения следует внести в первую очередь?
  • Являются ли действующие виды и механизм юридической ответственности достаточными инструментами защиты потерпевшей стороны (стороны, которой причинен ущерб посредством использования ИИ)?
  • Требуется ли введение новых составов правонарушений для привлечения к юридической ответственности за ущерб, причиненный с использованием ИИ? Если да, то каких?
  • Должна ли юридическая ответственность распределяться между компанией, использующей ИИ, разработчиком ИИ и иными лицами, участвующими в разработке ИИ?
  • Существуют ли препятствия для привлечения разработчиков ИИ и иных лиц, участвовавших в разработке модели ИИ, к ответственности за причиненный с использованием ИИ ущерб? Если да, то какие?

Начало обсуждения вопросов регулирования ИИ на финансовом рынке связано с тем, что у ЦБ есть ряд инициатив, касающихся ИИ, полагает собеседник Forbes.

 

В ЦБ подтвердили факт создания новой рабочей группы, которая займется вопросами ответственности при использовании ИИ. «Банк России последовательно изучает применение ИИ на финансовом рынке России, а также исследует международную практику и подходы. Вопросы ответственности применения ИИ изучаются наравне с другими, — сообщили в пресс-службе ЦБ. — Сейчас при экспертном совете Банка России по защите прав розничных инвесторов формируется рабочая группа по вопросам определения подходов к ответственности при использовании ИИ на финансовом рынке. В нее приглашены представители финансовых организаций, академических кругов и технологических компаний-разработчиков соответствующих решений. Установочное совещание прошло 11 ноября 2025 года».

В вопросах регулирования использования ИИ на финансовом рынке Банк России придерживается риск-ориентированного и технологически нейтрального подхода, отметили также там. 

 

«Мы считаем, что российское законодательство уже учитывает большинство рисков ИИ и предусматривает адекватные инструменты защиты потерпевших при причинении им вреда при использовании ИИ. К новому регулированию в сфере ИИ следует подходить осторожно, чтобы не затормозить развитие технологии. В этом наш подход совпадает с мировыми регуляторными трендами», — заявили Forbes в ЦБ, добавив, что Банк России «видит перспективы в мягком регулировании». 

«Летом этого года мы опубликовали Кодекс этики в сфере разработки и применения ИИ на финансовом рынке. В Кодексе мы указали, в частности, на важность уведомления клиентов о применении ИИ и наличия у них возможности запросить пересмотр решения, принятого с применением ИИ. Мы планируем и дальше развивать Кодекс, в том числе через формирование лучших практик», — сообщили в ЦБ, отметив, что подробная информация о планах по развитию Кодекса содержится в докладе для общественных консультаций (опубликован 20 ноября).

«Что касается ответственности, российское законодательство уже определяет ее параметры за причинение вреда, которые распространяются и на использование ИИ. Так, финансовая организация будет нести ответственность перед клиентом при нарушении договора или установленной законом обязанности независимо от того, применялся ИИ или нет, — пояснили Forbes в Центробанке. — Разработчики моделей ИИ тоже могут быть привлечены к ответственности за причинение вреда по действующему законодательству. Потерпевший может предъявить требования как финансовой организации — стороне договора, так и разработчику. Отсутствие договора между потерпевшим и разработчиком не исключает ответственности за нанесенный вред».

 

В июне стало известно, что Минцифры разработало поправки в УК, которые вводят уголовную ответственность за преступления, совершенные с использованием искусственного интеллекта. Представитель Минцифры не стал комментировать тему ответственности за использование ИИ на финансовом рынке, переадресовав вопросы Forbes в ЦБ и в Минфин. В Минфине и Минэкономики на запросы Forbes не ответили.

Сами с усами

Действующего регулирования в целом достаточно, считают участники рынка, призывая опираться на саморегулирование отрасли.

«Регулирование ИИ в финансовой сфере должно быть взвешенным. Жесткие требования сейчас могут замедлить развитие, поэтому важно опираться на оценку реальных рисков и не создавать лишних барьеров», — говорит представитель Альянса ИИ, объединяющего 17 компаний, включая «Яндекс», «Сбер», «Ростелеком», МТС, VK. По его словам, отрасль уже вырабатывает механизмы саморегулирования: «Внутри Альянса формируются стандарты, кодексы и практики, которые делают использование ИИ прозрачным и безопасным». Кроме того, отметил представитель организации, компании Альянса ИИ участвовали в создании Кодекса этики в сфере разработки и применения ИИ на финансовом рынке.

«Нет необходимости вводить новые составы правонарушений специально под ИИ. Ключевой вопрос — корректное применение существующих норм и качественная документация процессов, чтобы было понятно, где произошла ошибка. Ответственность должна распределяться между разработчиком, поставщиком и пользователем ИИ, исходя из их роли. Алгоритм здесь не субъект, а инструмент, и за последствия отвечают люди и организации, — уверен представитель Альянса ИИ. — Этику алгоритмами не регулируют. Здесь важна прозрачность, проверяемые процедуры и ответственность тех, кто принимает решения. Главная проблема в привлечении к ответственности — недостаток валидации и документирования моделей. Эту задачу как раз закрывают отраслевые стандарты и культура работы с ИИ, которые формируются внутри Альянса».

ИИ не является стороной гражданско-правовых отношений, обращает внимание источник в крупной IT-компании. «Если одна сторона причинила ущерб другой из-за неправильного использования ИИ, то первая несет гражданско-правовую ответственность независимо от того, использовала она ИИ или нет», — отметил собеседник Forbes. По его словам, текущих составов преступления в Уголовном кодексе также вполне достаточно. «Неважно, использовал мошенник ИИ или просто притворялся сотрудником ФСБ или ЦБ, — добавил он. — Вся юридическая составляющая ответственности лежит и должна лежать на пользователе, который использовал ИИ». Аналогичный ответ он дает и на вопрос о возможном привлечении к ответственности разработчика алгоритмов. «Все решения в конечном итоге принимают лица или организации, использующие ИИ, они и несут ответственность за последствия использования ИИ», — заключает собеседник Forbes.

 

По словам старшего управляющего директора Московской биржи по розничному бизнесу и маркетплейсу «Финуслуги» Игоря Алутина, в зоне ответственности Банка России лежит сертификация ИИ-систем и алгоритмов участников торговли. «Московская биржа, в свою очередь, обеспечивает прозрачность торгов и предотвращает манипулирование, следит за корректностью торговых практик и за эффектами применения ИИ на торгах. Для этого мы внедряем системы, которые выявляют аномалии и потенциальные риски, связанные с ИИ. Результаты мониторинга мы передаем ЦБ», — сообщил он Forbes. Мосбиржа, по его словам, также может определять стандарты, например, требования к логированию, отчетности и тестированию торговых стратегий. «При этом мы не вмешиваемся в архитектуру систем участников и не проверяем коды», — добавил он.

«Рынку нужны правила игры, но важно, чтобы они были гибкими и позволяли экспериментировать. Иначе нас ждет технологическое отставание, — рассуждает Алутин. — Оптимальная модель — комбинация: Банк России задает рамки и контролирует риски, а рынок определяет стандарты саморегулирования. Тогда не будет лишних барьеров для инноваций в области ИИ-агентов».

Представитель Wildberries от комментариев отказался. Представитель ассоциации «Финтех», объединяющей 44 компании финансового и IT-сектора, порекомендовал Forbes обратиться в ЦБ. Forbes также направил запросы в пресс-службы «Сбера», ВТБ, Т-Банка, Альфа-банка, «Яндекса», Ozon.

Нужна адаптация

Впрочем, по словам опрошенных Forbes консультантов и юристов, адаптация законодательства для защиты интересов участников финансового рынка при работе с ИИ все же необходима.

 

Использование ИИ на финансовом рынке достигло масштаба, при котором отсутствие специальных правил создает как правовые, так и репутационные риски, полагает партнер московского офиса консалтинговой группы White Square Иван Сезин. «Рынку необходима четкая регуляторная рамка, включающая распределение ответственности между оператором, разработчиком и поставщиками данных. При нынешнем уровне автономности моделей традиционных механизмов ответственности уже недостаточно: без специальных норм об «алгоритмическом вреде» и требований к высокорисковым системам эффективная защита клиентов будет затруднена», — полагает Сезин.

Законодательство нуждается в адаптации, считает партнер корпоративной практики Stonebridge Legal, кандидат юридических наук Роман Прудентов. «Первоочередная задача — установить четкие правила использования данных для обучения ИИ. Необходимо определить, как системы ИИ могут работать с информацией, которая может быть защищена авторским правом или являться коммерческой тайной, чтобы избежать правовых конфликтов», — полагает он. Разумным шагом кажется введение технического паспорта данных, используемых в обучении и применении банковских нейросетей, предлагает советник, руководитель IP/IT юридической компании LCH.LEGAL Кирилл Ляхманов. «Такой документ показывает, откуда взялись данные, что модель знает, чего не знает и для чего использует набор данных. Без этой информации невозможно понять, на каком уровне возникла ошибка», — поясняет он.

По словам управляющего партнера адвокатского бюро «А-ПРО» Олега Попова, регулирование необходимо, но оно должно быть осторожным и умным. В первую очередь необходимо определить, кто и за что отвечает, отмечает Попов: «Требуется на законодательном уровне прописать, как распределяется ответственность между самой финансовой организацией, которая использует алгоритм, и компанией-разработчиком, которая его создала, если алгоритм причинил кому-то ущерб». 

Новое регулирование, по мнению Ляхманова, должно быть точечным: ответственность за сокрытие ограничений модели, за недостоверное описание ее возможностей, за запуск без реальной валидации. «Логично распределять ответственность по контролю над слоями: банк отвечает за решение и процессы, разработчик — за архитектуру и реализацию модели, поставщик — за происхождение и качество данных. Это позволит выстроить причинно-следственную связь между негативным последствием и допущенной ошибкой и справедливо распределить риски между всеми участниками цепочки», — размышляет юрист.

 

Распределение ответственности между компанией, использующей ИИ, разработчиком ИИ и иными лицами, участвующими в создании моделей ИИ, также является необходимым и логичным, считает Попов. По его мнению, модель ответственности может выглядеть следующим образом: 

  • первичную ответственность перед клиентом несет финансовая организация, так как именно она оказывает услугу, получает вознаграждение и контролирует процесс ее оказания;
  • разработчик ИИ должен нести субсидиарную ответственность за ущерб, который возник вследствие фундаментальных недостатков алгоритма (дефекты архитектуры, ошибки в коде), некорректных обучающих данных, предоставленных разработчиком, или несоблюдения им заявленных характеристик системы.

Кроме того, необходимо законодательное закрепление этого распределения, а также механизмов регрессных требований финансовой организации к разработчику, полагает Олег Попов.

При этом есть значительные препятствия для привлечения разработчиков ИИ и иных лиц, участвующих в создании модели ИИ, к ответственности за причиненный ущерб, говорят юристы. Прежде всего тут сложно доказать причинно-следственную связь, сетует Попов. «Крайне трудно доказать, что ущерб был причинен именно из-за ошибки в алгоритме, а не из-за неправильных входных данных, сбоя в другой системе или непредвиденных рыночных условий», — замечает он. 

Также существует проблема «черного ящика», с которым часто сравнивают ИИ. «Если даже разработчик хочет объяснить причину сбоя, он не всегда может это сделать из-за сложной архитектуры нейросетей», — поясняет Попов. Наконец, отсутствуют четкие стандарты и требования. «Сейчас нет единых государственных стандартов, которым должна соответствовать безопасная или этичная модель ИИ. Нетрудно представить, как разработчик в суде будет доказывать: «Мы сделали все в соответствии с лучшими на тот момент практиками, и никто не требовал от нас иного», — заключает он.

 

Препятствие для привлечения разработчиков ИИ к ответственности содержится в условиях договоров с ними, отмечает партнер адвокатского бюро «Астериск» Федор Закабуня. Крупнейшие разработчики OpenAI, Google, Anthropic и другие в своих лицензионных соглашениях запрещают использование их моделей для принятия автоматизированных решений в сферах высокого риска, в том числе финансовые консультации в сфере кредитования и страхования без обязательной проверки человеком, поясняет он. 

«Если финансовая организация нарушит этот запрет и клиенту будет причинен вред, она не сможет предъявить регрессный иск разработчику, так как сама нарушила условия использования», — добавил Закабуня.

Другим препятствием является автономность самообучения ИИ, развитие по принципу того самого «черного ящика». По словам Закабуни, разработчик ПО не может нести ответственность за то, как модель ИИ эволюционировала и чему она научилась уже после ее передачи заказчику. «В России эти сложные вопросы ответственности пока решаются в ручном режиме в рамках экспериментальных правовых режимов, где, например, используется механизм обязательного страхования ответственности участников», — заключил он.

Руководитель лаборатории прикладного ИИ Санкт-Петербургского федерального исследовательского центра РАН кандидат технических наук Максим Абрамов полагает, что с технической точки зрения возможно появление оснований для ответственности и на стороне разработчиков больших языковых моделей, но только в тех случаях, когда речь идет о предотвращении заведомо злоумышленного использования. По его словам, крупные модели уже сегодня не позволяют генерировать инструкции по атакам или создавать вредоносный контент, и это отчасти вопрос архитектуры и настроек. «Поэтому речь не столько о прямой криминализации, сколько о необходимости внимательно посмотреть на области, где ИИ становится инструментом правонарушений. И если законодателю потребуется выделить такие случаи отдельно (например, учитывать использование ИИ как отягчающий фактор), это может быть разумным шагом», — полагает Абрамов.

 

Разработчики не закладывают никакого злонамеренного поведения в принцип принятия решения моделями, добавил Максим Абрамов. «Более того, сама математика, лежащая в основе современных нейросетей, не позволяет в полной мере контролировать конкретный выход модели в каждой отдельной ситуации. Если в таких условиях накладывать прямую юридическую ответственность на разработчиков, это приведет к обратному эффекту: многие просто перестанут выпускать модели в открытый доступ или будут чрезмерно ограничивать их функциональность», — полагает Абрамов.

Наименование издания: forbes.ru

Cетевое издание « forbes.ru » зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций, регистрационный номер и дата принятия решения о регистрации: серия Эл № ФС77-82431 от 23 декабря 2021 г.

Адрес редакции, издателя: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Адрес редакции: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Главный редактор: Мазурин Николай Дмитриевич

Адрес электронной почты редакции: press-release@forbes.ru

Номер телефона редакции: +7 (495) 565-32-06

На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети «Интернет», находящихся на территории Российской Федерации)

Перепечатка материалов и использование их в любой форме, в том числе и в электронных СМИ, возможны только с письменного разрешения редакции. Товарный знак Forbes является исключительной собственностью Forbes Media Asia Pte. Limited. Все права защищены.
AO «АС Рус Медиа» · 2025
16+