От Граймс до Лили Вачовски: самые влиятельные женщины в ИИ по версии Time

Граймс: создала цифровой музыкальный двойник
В 2018 году в песне We Appreciate Power канадская певица Граймс пела:
Людям нравится говорить, что мы сумасшедшие,
Но ИИ вознаградит нас, когда воцарится.
Присягните на верность самому мощному компьютеру в мире.
В 2023-м она совместно с компанией CreateSafe выпустила Elf.Tech — программу на основе искусственного интеллекта, которая имитирует ее голос, чтобы любые музыканты могли его использовать. В случае если получившийся трек будет одобрен Граймс и выпущен, гонорар предполагается разделить 50 на 50. Для распространения треков Elf.Tech заключила партнерское соглашение с платформой дистрибуции музыки TuneCore.
Кроме того, Граймс работает над созданием игрушки-компаньона, которая благодаря ИИ сможет отвечать на многочисленные детские «почему»: «Если сделать жизнь мам немного проще, возможно, это поможет [решить демографический кризис]. Люди очень боятся покупать для детей компаньонов с искусственным интеллектом, но моим было бы здорово целый день разговаривать с кем-то, а не смотреть в экран».
Лили Вачовски: выступает против безответственного использования ИИ в кино
В 1999 году режиссер Лили Вачовски вместе со своей сестрой Ланой сняла фильм «Матрица», во многом предвосхитивший развитие цифровых технологий. А теперь выступает против использования искусственного интеллекта с целью заменить исполнителей на цифровые двойники — это одно из требований, озвученных в ходе забастовки голливудской Гильдии актеров, которая идет с 14 июля.
Помимо актеров бастуют сценаристы, и еще недавно вместе с ними бастовали режиссеры, но Альянсу кинопродюсеров и телепродюсеров (ведет переговоры от имени студий) удалось заключить с последними соглашение. Однако Вачовски подписывать его отказалась.
«Я не бумер-луддит-ретроград, выступающий против идеи искусственного интеллекта как такового, — написала она. — Но против чего я категорически возражаю, так это против использования искусственного интеллекта как инструмента для создания богатства. Вот что здесь поставлено на карту. Сокращение рабочих мест ради корпоративной прибыли».
Кейт Каллот: развивает агротех в Африке
В Африке находятся 65% невозделываемых пахотных земель в мире и при этом царят голод и бедность. Для развития сельского хозяйства, особенно в условиях меняющегося климата, не хватает данных о почвах и экосистемах. Восполнить этот пробел намерен стартап Amini Кейт Каллот из Кении, который с помощью искусственного интеллекта анализирует спутниковые снимки. Информация, которую получает Amini, полезна и для фермеров, и для тех, кто в них инвестирует. Сама Каллот привлекла $2 млн на ранней стадии финансирования.
Келли Маккернан: судится за авторские права с Midjourney и Stable Diffusion
У художницы Келли Маккернан узнаваемый стиль, но это оказалось не только преимуществом, но и источником проблем. Разработчики использовали работы Маккернан для обучения нейросетей, не получив на это разрешения автора. А затем нейросети начали выдавать изображения, поразительно похожие на те, что создает Маккернан.
В январе 2023 года Маккернан и еще две художницы, Карла Ортис и Сара Андерсен, подали иск против Stability AI, компании — разработчика программы — генератора изображений Stable Diffusion. В иске также упоминается другой популярный генератор, Midjourney, и онлайн-галерея DeviantArt. В иске утверждается, что генераторы изображений нарушают права миллионов авторов, поглощая огромные массивы цифровых изображений, а затем создавая производные работы, конкурирующие с оригиналами. Требование истцов — обязать разработчиков получать у художников согласие на использование их произведений при обучении нейросетей.
Художницы подчеркивают, что не имеют ничего против искусственного интеллекта как такового, но не хотят, чтобы он их эксплуатировал.
Тушита Гупта: учит ИИ распознавать ткани для переработки текстиля
Только в США с 2000 по 2018 год количество выбрасываемого текстиля выросло с 9500 т до 17 000 т. Более 85% вещей отправляются на свалку. Их можно было бы переработать, но для этого нужна информация о составе ткани. Однако не на всех вещах сохраняются бирки, и даже если они есть, сортировка отнимает слишком много времени. Стартап Refiberd, который запустили Тушита Гупта и Сарика Баджадж, решает эту проблему: искусственный интеллект распознает состав ткани, и сортировка происходит автоматически в условиях конвейера. Гупта — автор технологии на основе компьютерного зрения. В январе компания Refiberd привлекла более $3,4 млн стартового финансирования и сейчас реализует серию пилотных проектов в США и Европе.
Компания интересна еще и тем, что из четырех штатных сотрудников трое — женщины. «Для нас очень здорово быть компанией, возглавляемой женщинами, — говорит Гупта. — Это действительно здорово, что мы можем построить […] ту культуру, которая нам подходит, и разрушить существующие сегодня системы».
Мередит Уиттакер: борется за сохранение конфиденциальности
Мередит Уиттакер занялась темой искусственного интеллекта в 2013 году, когда работала в Google. Она быстро поняла, что лидерами отрасли становятся техногиганты, обладающие большими вычислительными мощностями и доступом к массивам данных. В 2019 году она уволилась — по ее словам, ее «ушли» за протесты против сексистской корпоративной культуры и сотрудничества с военными в сфере ИИ (Google это отрицает). В 2022-м Уиттакер стала президентом Signal Foundation, компании — разработчика приложения для зашифрованных личных сообщений Signal. В некотором смысле сейчас ее работа связана с противостоянием неэтичному использованию искусственного интеллекта — например, Signal предотвращает перехват текстов и данных сторонними пользователями или программами, что противоположно деятельности по извлечению из интернета огромных массивов информации, часто без разрешения правообладателей, для обучения нейросетей.
Ракель Уртасун: обучает беспилотные грузовики ездить в любых условиях
Ракель Уртасун возглавляла группу инженеров, работавших над программой Uber по созданию беспилотных автомобилей. А затем запустила стартап Waabi по созданию беспилотных автомобилей с новым подходом к использованию искусственного интеллекта. Он обучает автопилоты грузовиков не на реальных дорогах, а на убедительных симуляциях. Благодаря этом фуры «учатся» ездить в самых сложных погодных условиях и минимизировать ущерб в аварийных ситуациях, которые в реальности могли бы привести к серьезным жертвам.
В 2021 году компания привлекла около $83 млн венчурного капитала и планирует лицензировать свою технологию компаниям, использующим дальнемагистральные грузоперевозки. Испытывать первые беспилотные грузовики будет сама Уртасун.
Эмили М. Бендер: знает, когда искусственный интеллект лжет
Эмили М. Бендер — директор Лаборатории компьютерной лингвистики Вашингтонского университета. В 2021 году в соавторстве с компьютерной специалисткой из Google Тимнит Гебру и еще несколькими соавторами она опубликовала критическую статью «Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими?». «Стохастическими попугаями» в ней названы модели, которые убедительно имитируют естественную человеческую речь, но в действительности не понимают, о чем «говорят», и могут генерировать тексты, лишенные смысла, содержащие фактические ошибки или этически спорные суждения, при этом выглядящие правдоподобно и обоснованно. Статья также анализировала финансовые и экологические риски развития языковых моделей, которые становятся пожирателями энергии в условиях климатического кризиса. Google просила либо отозвать статью, либо убрать из авторов всех сотрудников компании; разразился скандал, Гебру в итоге уволилась.
Эмили М. Бендер продолжает последовательно критиковать языковые модели, точнее, наше отношение к ним. Например, обращает внимание на то, что они хуже анализируют языки, отличные от английского, что подвергает их носителей риску, когда эти модели встроены в критическую инфраструктуру. «Правило Бендер», принятое среди разработчиков, требует, чтобы они указывали, для каких языков их модели релевантны.
Абеба Бирхан: следит, чтобы ИИ не научился плохому
Кажется, что чем больше набор данных, на которых обучается математическая модель, тем лучше результат обучения. Ученый-когнитивист Абеба Бирхан обнаружила, что это не так: по мере масштабирования данные начинают загрязняться, и в результате искусственный интеллект начинает имитировать не самые лучшие образцы естественного — воспроизводить стереотипы и предубеждения, генерировать враждебные высказывания. Вместе с небольшой группой коллег-исследователей Бирхан положила начало новой дисциплине — аудиту общедоступных наборов данных для обучения ИИ.
Она признается, что это тяжелая работа, связанная с необходимостью отсматривать большое количество контента, который лучше бы не видеть. «Раньше мне нравилось работать в кафе, теперь я не могу», — говорит Бирхан.
Нина Янкович: борется с сексуализированными дипфейками
В апреле 2022 года администрация Джо Байдена пригласила Нину Янкович возглавить Совет по работе с дезинформацией — и сразу сама стала объектом масштабной кампании по распространению фейков, которую организовали сторонники правых взглядов. Янкович подала в отставку, Совет вскоре был распущен, но интернет-травля продолжилась. Про Янкович распространяли ложь, в сеть выложили порнографические дипфейки с ее лицом. «Это был сюрреалистический опыт», — говорила она позже.
Она обнаружила, что не одинока: 96% дипфейков, обнаруженных в интернете, являются порнографическими, и в 100% из них фигурируют женщины, не дававшие на то согласия. С распространением фейков сталкивались многие женщины-политики: вице-президент США Камала Харрис, премьер-министр Новой Зеландии Джасинда Ардерн, министр иностранных дел Германии Анналена Бербок.
«Все эти инциденты являются частью более широкого явления гендерного насилия и дезинформации в интернете, целью которого является заставить женщин замолчать и не допускать их к политике и общественной жизни… Это увековечивает гендерное неравенство в обществах по всему миру и усиливается и усугубляется авторитарными властями, желающими подорвать демократический проект», — говорится в описании проекта «Гипатия», который Янкович запустила в конце 2022-го. Цель проекта — документировать случаи сетевого насилия, разрабатывать инструменты противостояния и добиваться политических решений, которые сделали бы интернет более безопасным.