К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.
#

Углеродный след

Энергетический голод: как большие языковые модели влияют на экологию

Дата-центры потребляют огромное количество энергии — около 1–1,5% всего мирового потребления. Некоторые компании научились обеспечивать их работу за счет возобновляемых и устойчивых источников энергии, однако появление больших языковых моделей (LLM) усложнило эту задачу — эта область требует примерно в четыре раза больше энергии, чем серверы, используемые для облачных приложений. Парадокс в том, что новая технология, хоть и призвана экономить как трудовые, так и временные ресурсы, является очень ресурсоемкой сама по себе. Процесс обучения и развертывания LLM-моделей потребляет огромное количество энергии и может наносить серьезный вред окружающей среде. Сооснователь Just AI Кирилл Петров размышляет о том, как разрешить этот конфликт и найти баланс между пользой обществу и минимизацией вреда экологии