К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего броузера.

Взялись за ум: какие правила применения искусственного интеллекта вводит ЕС

Иллюстрация Getty Images
Иллюстрация Getty Images
Европарламент 11 мая совершил еще один важный шаг к принятию AI Act, регулирующего искусственный интеллект: два комитета — по гражданским свободам и внутреннему рынку — поддержали законопроект в представленной редакции. И хотя говорить о принятии первого в мире закона об ИИ еще рано, события 11 мая существенно приближают этот день. Преподаватель образовательной платформы Moscow Digital School и директор по правовым инициативам ФРИИ Александра Орехович объясняет, каких беспрецедентных мер по запрету ИИ следует ожидать и тяжело ли теперь придется ChatGPT, Midjourney и другим генеративным системам ИИ на европейском рынке

Определимся с термином

Что европейский законодатель понимает под искусственным интеллектом (ИИ)? До 11 мая проект AI Act содержал довольно четкое понятие систем искусственного интеллекта как ПО, развивающего на основе применения определенных технологий и подходов (это, например, machine learning, knowledge-based approach, статистический и иные подходы и методы) возможности генерировать контент, рекомендации, предиктивную аналитику или решения.

После 11 мая определение гармонизировано с определением Организации экономического сотрудничества и развития (ОЭСР), оно стало более общим: основанная на машинном обучении система, функционирующая на различных уровнях автономии, имеющая способность генерировать предиктивную аналитику, рекомендации, решения, которые могут оказывать физическое или виртуальное влияние.

Конкретных примеров систем ИИ в определении законодатель не дает, однако выделяется три их категории в зависимости от уровня риска, который несет за собой их использование: 1) неприемлемый риск (запрещенные системы); 2) высокий риск; 3) средний или минимальный риск. Основной акцент в документе сделан на первых двух категориях.

 

Рисковое дело

Европейский акт многие наблюдатели уже называют драконовским, предрекая тяжелые времена для развития ИИ в Европе. AI Act выстраивает систему использования ИИ, основанную на рискориентированном подходе: ужесточает требования к технологиям ИИ в зависимости от уровня потенциально создаваемой опасности и совсем запрещает применение систем, где риск для безопасности людей неприемлемо высок. Это на настоящем этапе беспрецедентная мера в регулировании. Запретить предлагается любые платформы и модели, так или иначе манипулирующие людьми через социальную инженерию. Скажем, под эмбарго попадает так называемое социальное рейтингование со стороны государства (классификации по социально-экономическому статусу, личностным характеристикам и пр.), а также системы, имеющие целью манипулировать поведением различных групп людей, например детьми.

Вопрос о применении систем дистанционной биометрической идентификации носит более комплексный характер. Такая идентификация разделяется на отложенную и идентификацию в режиме реального времени. Последнюю решено запретить.

 

Помимо нее, в список запрещенных практик попали:

• применение ИИ для разделения людей на категории по «чувствительным характеристикам»: пол, раса, гражданство, религия, политическая позиция;

• применение ИИ для распознавания эмоций в правоохранительных органах, пограничных службах, учебных заведениях, на рабочих местах;

 

• предиктивные системы, используемые правоохранительными органами (например, подсказывающие, имеет ли тот или иной человек намерение совершить преступление);

• неизбирательное извлечение биометрических данных из социальных сетей или с камер видеонаблюдения для создания базы данных.

Что касается систем дистанционной отложенной биометрической идентификации в публичных местах (то есть биометрические данные накапливались, но идентификация осуществляется не сейчас, а позже, когда возникнет такая необходимость — например, при расследовании события или преступления или при поиске пропавших), в последней майской редакции их тоже предлагается запретить, но с рядом оговорок: если имеется предварительное разрешение и это крайне необходимо для поиска причастных к совершению серьезного правонарушения. Хотя этот вопрос до конца не решен: есть информация, что против запрета выступают, в частности, правоохранительные органы.

Помимо неприемлемых рисков использования ИИ, AI Act выделяет высокие риски и порождающие их высокорисковые системы ИИ. К высокорисковым системам относятся:

• платформы, используемые в критической инфраструктуре;

 

 • системы биометрической идентификации (за исключением запрещенных);

 • системы, используемые в образовании (оценивающие учащихся или определяющие, кому предоставить доступ к обучению);

 • системы оценки работников: потенциальных (при найме на работу) или уже сотрудничающих с организацией;

 • системы оценки кредитоспособности;

 

 • «администрирование» правосудия (по сути, системы-«помощники» судьи в исследовании обстоятельств дела и их соответствия нормам закона).

В перечень высокорисковых также вошли и системы ИИ, которые используются для влияния на избирателей в политических кампаниях, и рекомендательные алгоритмы соцсетей.

Самая главная оговорка, достигнутая 11 мая: if they pose a significant risk of harm to the health, safety or fundamental rights of natural persons, то есть все высокорисковые системы признаются таковыми, если они представляют значительный риск причинения вреда здоровью, безопасности или основополагающим правам граждан.

Все высокорисковые системы должны будут соответствовать целому ряду требований: к технической документации, к риск-менеджменту, к процессам по сбору, анализу и качеству данных, на которых обучается и тестируется система, к обеспечению фиксации и записи всех событий функционирования систем. Очевидно, соблюдение всех этих требований и, что не менее важно, работа по администрированию и подтверждению соответствия перед лицом контролирующих организаций потребуют от владельцев систем ИИ значительных финансовых затрат. При этом до того, как высокорисковая система или продукт на ее основе будут допущены на рынок, такая система должна пройти процедуру регистрации. Более того, и так называемые деплойеры (те, кто устанавливает и эксплуатирует системы) должны регистрировать продукт перед выпуском его на рынок, в том числе если они являются публичными организациями.

 

ChatGPT еще поработает

Вопрос, который сразу стали задавать сторонники работы ChatGPT или Midjourney : придется ли таким системам регистрироваться или уходить? К радости их поклонников, риски использования генеративных моделей не отнесены европейским регулятором к недопустимым или высоким (это отдельно отмечается регулятором). Но это не означает, что требования к ним совсем не предъявляются. Установлено, что обязательства провайдеров таких систем (их называют в документе foundation models — «базовые модели») должны гарантировать высокий уровень безопасности соблюдения фундаментальных прав, здоровья, безопасности, окружающей среды, демократии и верховенства права.

И в этой связи установлен ряд требований, в том числе к самим базовым моделям, к тому, на каких данных они обучаются и развиваются (конечно, данные должны быть надежны и непредвзяты), к их возможностям оставаться предсказуемыми в своих выводах (интересно в свете заявления многих экспертов о том, что такую предсказуемость обеспечить невозможно).

В свою очередь, провайдеры должны обеспечить наличие всей необходимой технической документации и, как в случае с высокорисковыми системами, тоже зарегистрировать базовые модели. А если эти модели еще и генерируют контент, как в случае с Chat GPT или Midjourney, — провайдеры должны будут документировать и публиковать информацию о том, как соблюдаются авторские права при тренировке системы.

Разумеется, пользователи должны быть проинформированы о том, что они имеют дело с продуктом ИИ — сгенерированными им изображениями, видео, фото. По мнению регулятора, такое информирование позволит нивелировать или избежать риска манипулирования мнением, эмоциями или поведением пользователя.

 

«Это не ваша юрисдикция»

Но все это не касается тех, кто не работает в юрисдикции ЕС. В AI Act европейский законодатель использует уже апробированный в GDPR (ключевой закон ЕС о защите персональных данных — Общий регламент по защите данных, General Data Protection Regulation) принцип экстерриториальности и устанавливает, что определенные ИИ-системы подпадают под действие акта, даже если они и не используются на территории и не обращаются на рынке ЕС. Например, когда компания — резидент ЕС заключает контракт с компанией вне ЕС в отношении каких-то действий, которые будет совершать система ИИ при наличии двух условий: эта система могла бы быть отнесена к системам высокого риска или ее использование может влиять на жителей ЕС (если переводить дословно — любых людей, находящихся на территории ЕС).

В таком случае, чтобы избежать возможность обхода положений акта, они распространяются на провайдеров и операторов, которые действуют на территории другой страны, поскольку могут быть использованы на территории и в отношении жителей ЕС.

Иными словами, если российская компания — оператор системы ИИ заключает контракт на оказание услуг, выполнение работ, организацию исследований — чего бы то ни было, связанного с применением систем ИИ, компания должна оценить риски соответствия вышеуказанным критериям (высокорисковость и применение к жителям ЕС). При наличии этих условий поставляемая или используемая система ИИ должна соответствовать всем предусмотренным критериям.

Момент истины

В качестве ориентира по принятию «первого в мире закона о регулировании ИИ» выступает 14 июня. В этот день должно пройти обсуждение проекта на пленарном заседании Европарламента. После этого должен начаться процесс согласования позиций по проекту Еврокомиссии, Совета ЕС и Европарламента (ориентировочно июль 2023 года). Вполне возможно, что этот процесс затянется — у сторон имеются пока непреодолимые разногласия по поводу биометрической идентификации, а также на применение систем предиктивной аналитики. Но если сторонам удастся договориться, принятие акта в окончательной редакции можно ожидать уже в текущем году.

 

Мнение редакции может не совпадать с точкой зрения автора

Мы в соцсетях:

Мобильное приложение Forbes Russia на Android

На сайте работает синтез речи

иконка маруси

Рассылка:

Наименование издания: forbes.ru

Cетевое издание «forbes.ru» зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций, регистрационный номер и дата принятия решения о регистрации: серия Эл № ФС77-82431 от 23 декабря 2021 г.

Адрес редакции, издателя: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Адрес редакции: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Главный редактор: Мазурин Николай Дмитриевич

Адрес электронной почты редакции: press-release@forbes.ru

Номер телефона редакции: +7 (495) 565-32-06

На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети «Интернет», находящихся на территории Российской Федерации)

Перепечатка материалов и использование их в любой форме, в том числе и в электронных СМИ, возможны только с письменного разрешения редакции. Товарный знак Forbes является исключительной собственностью Forbes Media Asia Pte. Limited. Все права защищены.
AO «АС Рус Медиа» · 2024
16+