К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.

Технократия вместо ценностей: чем опасно внедрение ИИ в управление государством

Фото VCG / VCG via Getty Images
Фото VCG / VCG via Getty Images
Новый Департамент государственной эффективности США говорит о важности искусственного интеллекта (ИИ) в деле оптимизации госрасходов, OpenAI объявляет о выходе ChatGPT Gov, а правительство России заявляет о приоритетности внедрения ИИ в свою работу. Этот тренд, кажется, уже стал необратимым. Однако технологии не могут подменять само госуправление, так как в его основе лежат ценности и обстоятельства, неочевидные для «машины». Последствиями слепого доверия ИИ могут быть неверные решения и подрыв доверия к управлению, не учитывающему интересы граждан, считают автор Telegram-канала «ПолитИИзация» Антон Тамарович и политолог Алексей Алмаматов

Особенность политического управления — разрешение общественных конфликтов и противоречий на основе ценностей: справедливости, равенства, патриотизма, демократии. В условиях дефицита ресурсов управленец делает выбор, например, между прибылью и сохранением окружающей среды, между инвестированием и социальным обеспечением, между безопасностью и свободой. В исторических речах политиков, будь то лидеры России, Китая или США, мы также увидим обращение к важным объединяющим ценностям для конкретного народа. 

Выбор ценностей в каждом случае обусловливает разные решения. Например, для правоохранителей так называемые «трудные подростки» — это проблемные дети, которые могут стать преступниками, поэтому их нужно «мониторить», в то время как социальные службы настроены социализировать подростка с помощью наставничества, нового круга общения и досуга. 

Развитие территорий — еще один пример. Попавший под реновацию промышленный район города, находящийся близко к центру, может быть просто застроен новым жильем, а может стать рекреационной точкой на городской карте. В первом случае городской бюджет получит деньги, а во втором — вырастет комфорт жителей. 

 

Получается, что и избиратель — это не просто «параметр в модели», а полноценный участник политического процесса, у которого могут быть свои ценности и цели, отличные от тех, которыми руководствуются представители госаппарата.  

Как показывают данные ВЦИОМ, в России технологиям ИИ скорее доверяют 52% граждан, не доверяют — 38%. Но это «вообще», а если говорить конкретно о применении ИИ в госуправлении, то цифры меняются местами: 53% относятся к этому негативно, и только 37% — позитивно. Россияне среди прочих отмечали следующие потенциальные риски: принятие ошибочных решений (58%) и отсутствие ответственных за принимаемые решения (57%). В целом ИИ готовы видеть как «помощника», но не конечную инстанцию принятия решений. 

 
Telegram-канал Forbes.Russia
Канал о бизнесе, финансах, экономике и стиле жизни
Подписаться

Черный ящик

В дискуссиях выделяют четыре основных проблемы в работе ИИ-технологий. 

  1. Прозрачность использования. Сам по себе процесс принятия политических решений неочевиден для «простого избирателя» — как в силу сложности процесса, так и его закрытости. Что уж говорить о ситуации, когда решения принимает ИИ, мотивы которого почти невозможно объяснить. Даже разработчики нейросетей не всегда знают, почему и на основании каких параметров алгоритм сделал конкретный вывод. Именно поэтому ИИ часто называют «черным ящиком» — наблюдатель видит только начальный запрос и ответ на него.
  2. Усиление предвзятости. ИИ обучается на человеческом контенте и невольно «наследует» стереотипы, существующие в обществе. Это особенно хорошо видно при сравнении моделей, созданных в разных страновых и культурных контекстах. Предвзятости и умолчания, заложенные в каждой культуре, могут усилить существующий дисбаланс и дискриминацию через ИИ. Можно было бы говорить о «дообучении» алгоритмов. Но если политика ценностно обусловлена, то эта проблема может быть в принципе нерешаема в пространстве алгоритмов.
  3. Проблема подотчетности и ответственности. Факт применения ИИ может быть использован для переноса ответственности с лиц, принимающих решения на «машину». Положительные эффекты от использования ИИ попадут в отчеты об эффективной работе, а провалы и ошибки будут списываться на несовершенство ИИ-моделей.   
  4. Техническое несовершенство ИИ, например: 
  • наличие в работе нейросетей «галлюцинаций», то есть фактических ошибок;
  • проблема воспроизводимости исследования — можно получить два разных ответа на один вопрос, заданный в разное время одной модели;
  • ограниченный объем материала для обучения алгоритма, которое требует огромных баз данных. 

Таким образом, на текущем этапе развития ИИ нельзя быть уверенным в принятии прозрачных и беспристрастных решений, так как поведение алгоритма неочевидно. ИИ лишь в названии имеет упоминание интеллекта, при этом имеет совершенно иную от человеческого интеллекта природу, поэтому должен использоваться в понятных и выверенных «границах».

Пределы доверия

Принятие решений на основе технологий («гипертехнократия») уделяет мало внимания ценностям и убеждениям людей. Все формы человеческого опыта становятся просто «поведенческими данными», которые превращаются в продукт для анализа, прогнозирования и управления.

 

Выбор в пользу внедрения ИИ в госуправление является сам по себе политическим решением, хотя это может аргументироваться через призму технократической эффективности. Любая форма власти, в том числе и бюрократия, всегда политизирована, о чем еще более ста лет назад предупреждал классик социальных наук Макс Вебер.  

Тем не менее ИИ, скорее всего, будет внедряться в госуправление и без согласия избирателей. Сам по себе сложный характер технологии и небольшое количество участников процесса — государство и IT-гиганты, владеющие патентами и технологиями, — способствуют тому, что внедрение пойдет строго «сверху вниз», хотя и не без проблем.

В США использование правительством ИИ для выявления потенциальных угроз в социальных сетях уже подверглось критике. Эта кампания вызвала опасения по поводу неприкосновенности частной жизни, особенно среди иммигрантов. 

Еще в 2012 году в Польше был разработан и внедрен алгоритм профилирования безработных с учетом ряда характеристик. Отнесение к одной из трех категорий определяло, может ли человек получать господдержку и на какие типы программ может рассчитывать: трудоустройство, профессиональная подготовка или совсем ничего. Многие безработные жаловались в административные суды, утверждая, что категоризация несправедлива и непрозрачна. Итогом стало признание механизма неконституционным.

В США и Испании введена практика применения ИИ судами для принятия решений об условно-досрочном освобождении для оценки вероятности рецидива. Исследования показали, что использование ИИ лишь усиливало предвзятость и дискриминацию, которые уже присутствовали в этих решениях до использования технологий. 

 

Неразборчивое использование ИИ не только не повысило эффективность государства, но и снизило доверие общества к ИИ, а соответственно, и ко всем мерам государственной власти, направленных на внедрение ИИ.

Таким образом, наличие доверия — необходимое условие для внедрения ИИ в государство. В противном случае граждане могут ответить ростом не только пассивного сопротивления, но и активным протестом, ростом популярности политиков-популистов, которые помогут им «спастись» от ИИ.

Российский опыт

В России внедрение ИИ является частью программы цифровой трансформации, которая есть у каждого ведомства. Для поддержки госорганов правительство объявило о планах по созданию проектного офиса по внедрению ИИ, а для выработки законодательного подхода к развитию ИИ создаются специализированные рабочие группы. Подобную образовали в Совете Федерации в конце января 2025 года, а до этого был создан Консорциум исследований в области доверенного защищенного ИИ.

В России пока нет единого регулирования ИИ, есть законы и подзаконные акты, относящиеся к различным отраслям. Предполагается, что принятый в 2023 году «Закон о рекомендательных алгоритмах» является достаточной юридической рамкой для успешного внедрения ИИ. Но экспертное сообщество еще в процессе подготовки закона обращало внимание, что сценарии применения ИИ многообразны, а данный документ их не покрывает. В то же время госслужащие работают по четким регламентам и инструкциям, в которых нет места неопределенным сценариям. Поэтому пока массово внедряются наиболее простые решения, например чат-боты. Подобная неопределенность не дает государству использовать ИИ в полной мере — но в то же время пока и купирует риски.

 

Единый подход к применению ИИ мог бы быть сформулирован в виде полноценного Цифрового кодекса, о внедрении которого говорится уже несколько лет. Подобный документ мог бы раскрыть принципы использования ИИ в госсекторе и одновременно защитить цифровые права граждан от уже понятных рисков. Но, к сожалению, тема интересов общества при внедрении ИИ в госуправление находится на периферии экспертной дискуссии и лишь изредка обсуждается заинтересованными сторонами.

Мнение редакции может не совпадать с точкой зрения автора

Наименование издания: forbes.ru

Cетевое издание « forbes.ru » зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций, регистрационный номер и дата принятия решения о регистрации: серия Эл № ФС77-82431 от 23 декабря 2021 г.

Адрес редакции, издателя: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Адрес редакции: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Главный редактор: Мазурин Николай Дмитриевич

Адрес электронной почты редакции: press-release@forbes.ru

Номер телефона редакции: +7 (495) 565-32-06

На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети «Интернет», находящихся на территории Российской Федерации)

Перепечатка материалов и использование их в любой форме, в том числе и в электронных СМИ, возможны только с письменного разрешения редакции. Товарный знак Forbes является исключительной собственностью Forbes Media Asia Pte. Limited. Все права защищены.
AO «АС Рус Медиа» · 2025
16+