Технократия вместо ценностей: чем опасно внедрение ИИ в управление государством

Особенность политического управления — разрешение общественных конфликтов и противоречий на основе ценностей: справедливости, равенства, патриотизма, демократии. В условиях дефицита ресурсов управленец делает выбор, например, между прибылью и сохранением окружающей среды, между инвестированием и социальным обеспечением, между безопасностью и свободой. В исторических речах политиков, будь то лидеры России, Китая или США, мы также увидим обращение к важным объединяющим ценностям для конкретного народа.
Выбор ценностей в каждом случае обусловливает разные решения. Например, для правоохранителей так называемые «трудные подростки» — это проблемные дети, которые могут стать преступниками, поэтому их нужно «мониторить», в то время как социальные службы настроены социализировать подростка с помощью наставничества, нового круга общения и досуга.
Развитие территорий — еще один пример. Попавший под реновацию промышленный район города, находящийся близко к центру, может быть просто застроен новым жильем, а может стать рекреационной точкой на городской карте. В первом случае городской бюджет получит деньги, а во втором — вырастет комфорт жителей.
Получается, что и избиратель — это не просто «параметр в модели», а полноценный участник политического процесса, у которого могут быть свои ценности и цели, отличные от тех, которыми руководствуются представители госаппарата.
Как показывают данные ВЦИОМ, в России технологиям ИИ скорее доверяют 52% граждан, не доверяют — 38%. Но это «вообще», а если говорить конкретно о применении ИИ в госуправлении, то цифры меняются местами: 53% относятся к этому негативно, и только 37% — позитивно. Россияне среди прочих отмечали следующие потенциальные риски: принятие ошибочных решений (58%) и отсутствие ответственных за принимаемые решения (57%). В целом ИИ готовы видеть как «помощника», но не конечную инстанцию принятия решений.
Черный ящик
В дискуссиях выделяют четыре основных проблемы в работе ИИ-технологий.
- Прозрачность использования. Сам по себе процесс принятия политических решений неочевиден для «простого избирателя» — как в силу сложности процесса, так и его закрытости. Что уж говорить о ситуации, когда решения принимает ИИ, мотивы которого почти невозможно объяснить. Даже разработчики нейросетей не всегда знают, почему и на основании каких параметров алгоритм сделал конкретный вывод. Именно поэтому ИИ часто называют «черным ящиком» — наблюдатель видит только начальный запрос и ответ на него.
- Усиление предвзятости. ИИ обучается на человеческом контенте и невольно «наследует» стереотипы, существующие в обществе. Это особенно хорошо видно при сравнении моделей, созданных в разных страновых и культурных контекстах. Предвзятости и умолчания, заложенные в каждой культуре, могут усилить существующий дисбаланс и дискриминацию через ИИ. Можно было бы говорить о «дообучении» алгоритмов. Но если политика ценностно обусловлена, то эта проблема может быть в принципе нерешаема в пространстве алгоритмов.
- Проблема подотчетности и ответственности. Факт применения ИИ может быть использован для переноса ответственности с лиц, принимающих решения на «машину». Положительные эффекты от использования ИИ попадут в отчеты об эффективной работе, а провалы и ошибки будут списываться на несовершенство ИИ-моделей.
- Техническое несовершенство ИИ, например:
- наличие в работе нейросетей «галлюцинаций», то есть фактических ошибок;
- проблема воспроизводимости исследования — можно получить два разных ответа на один вопрос, заданный в разное время одной модели;
- ограниченный объем материала для обучения алгоритма, которое требует огромных баз данных.
Таким образом, на текущем этапе развития ИИ нельзя быть уверенным в принятии прозрачных и беспристрастных решений, так как поведение алгоритма неочевидно. ИИ лишь в названии имеет упоминание интеллекта, при этом имеет совершенно иную от человеческого интеллекта природу, поэтому должен использоваться в понятных и выверенных «границах».
Пределы доверия
Принятие решений на основе технологий («гипертехнократия») уделяет мало внимания ценностям и убеждениям людей. Все формы человеческого опыта становятся просто «поведенческими данными», которые превращаются в продукт для анализа, прогнозирования и управления.
Выбор в пользу внедрения ИИ в госуправление является сам по себе политическим решением, хотя это может аргументироваться через призму технократической эффективности. Любая форма власти, в том числе и бюрократия, всегда политизирована, о чем еще более ста лет назад предупреждал классик социальных наук Макс Вебер.
Тем не менее ИИ, скорее всего, будет внедряться в госуправление и без согласия избирателей. Сам по себе сложный характер технологии и небольшое количество участников процесса — государство и IT-гиганты, владеющие патентами и технологиями, — способствуют тому, что внедрение пойдет строго «сверху вниз», хотя и не без проблем.
В США использование правительством ИИ для выявления потенциальных угроз в социальных сетях уже подверглось критике. Эта кампания вызвала опасения по поводу неприкосновенности частной жизни, особенно среди иммигрантов.
Еще в 2012 году в Польше был разработан и внедрен алгоритм профилирования безработных с учетом ряда характеристик. Отнесение к одной из трех категорий определяло, может ли человек получать господдержку и на какие типы программ может рассчитывать: трудоустройство, профессиональная подготовка или совсем ничего. Многие безработные жаловались в административные суды, утверждая, что категоризация несправедлива и непрозрачна. Итогом стало признание механизма неконституционным.
В США и Испании введена практика применения ИИ судами для принятия решений об условно-досрочном освобождении для оценки вероятности рецидива. Исследования показали, что использование ИИ лишь усиливало предвзятость и дискриминацию, которые уже присутствовали в этих решениях до использования технологий.
Неразборчивое использование ИИ не только не повысило эффективность государства, но и снизило доверие общества к ИИ, а соответственно, и ко всем мерам государственной власти, направленных на внедрение ИИ.
Таким образом, наличие доверия — необходимое условие для внедрения ИИ в государство. В противном случае граждане могут ответить ростом не только пассивного сопротивления, но и активным протестом, ростом популярности политиков-популистов, которые помогут им «спастись» от ИИ.
Российский опыт
В России внедрение ИИ является частью программы цифровой трансформации, которая есть у каждого ведомства. Для поддержки госорганов правительство объявило о планах по созданию проектного офиса по внедрению ИИ, а для выработки законодательного подхода к развитию ИИ создаются специализированные рабочие группы. Подобную образовали в Совете Федерации в конце января 2025 года, а до этого был создан Консорциум исследований в области доверенного защищенного ИИ.
В России пока нет единого регулирования ИИ, есть законы и подзаконные акты, относящиеся к различным отраслям. Предполагается, что принятый в 2023 году «Закон о рекомендательных алгоритмах» является достаточной юридической рамкой для успешного внедрения ИИ. Но экспертное сообщество еще в процессе подготовки закона обращало внимание, что сценарии применения ИИ многообразны, а данный документ их не покрывает. В то же время госслужащие работают по четким регламентам и инструкциям, в которых нет места неопределенным сценариям. Поэтому пока массово внедряются наиболее простые решения, например чат-боты. Подобная неопределенность не дает государству использовать ИИ в полной мере — но в то же время пока и купирует риски.
Единый подход к применению ИИ мог бы быть сформулирован в виде полноценного Цифрового кодекса, о внедрении которого говорится уже несколько лет. Подобный документ мог бы раскрыть принципы использования ИИ в госсекторе и одновременно защитить цифровые права граждан от уже понятных рисков. Но, к сожалению, тема интересов общества при внедрении ИИ в госуправление находится на периферии экспертной дискуссии и лишь изредка обсуждается заинтересованными сторонами.
Мнение редакции может не совпадать с точкой зрения автора
