В последние годы обсуждения о влиянии искусственного интеллекта на окружающую среду становятся все более актуальными. Современные большие языковые модели (LLM), такие как те, что предлагает OpenAI и Google, требуют значительных объемов электроэнергии и воды для охлаждения серверов в дата-центрах. Каждый запрос, введенный пользователем, приводит к выбросу углекислого газа, и новое исследование, опубликованное в журнале Frontiers in Communication, показывает, что не все запросы имеют одинаковое воздействие на окружающую среду.
В ходе исследования были проанализированы 14 различных LLM, отличающихся по объему обучающих данных. Ученые оценили их производительность на основе стандартизированного набора из 500 вопросов. Выяснилось, что более сложные модели, требующие длительного анализа и обработки, генерируют значительно больше CO₂ по сравнению с более компактными и эффективными моделями. В некоторых случаях выбросы углерода от сложных моделей превышали таковые у компактных моделей в 50 раз.
Кроме того, влияние на выбросы CO₂ варьировалось в зависимости от тематики вопросов. Сложные или открытые вопросы, например, по алгебре или философии, приводили к большему углеродному следу, чем простые запросы, такие как вопросы по истории. Это открытие подчеркивает, как языковые модели способствуют росту потребления энергии.
Исследователи также отметили, что модели, оптимизированные для решения сложных задач, называемые "reasoning models", требуют больше времени для генерации ответов и производят больше токенов, что напрямую связано с выбросами CO₂. Например, модель "Cogito" генерировала в три раза больше углерода по сравнению с аналогичными моделями, оптимизированными для кратких ответов.
Хотя разница в выбросах на уровне одного запроса может показаться незначительной, в масштабах большого числа запросов она становится ощутимой. Ученые подсчитали, что если задать модели DeepSeek R1 600,000 вопросов, это приведет к выбросам, сопоставимым с перелетом из Лондона в Нью-Йорк. В то же время, модель Qwen 2.5, не относящаяся к reasoning models, может ответить на три раза больше вопросов до достижения аналогичного уровня выбросов.
Эти результаты подчеркивают важный компромисс между точностью языковых моделей и их воздействием на окружающую среду. С увеличением размера модели, как правило, улучшается и точность, но это также связано с ростом выбросов CO₂ и количеством генерируемых токенов.
В условиях растущего спроса на мощные ИИ-модели компании, такие как Meta, Google и Microsoft, ищут новые способы удовлетворения энергетических потребностей, включая сотрудничество с атомными электростанциями. Это подчеркивает необходимость осознанного подхода к использованию ИИ, чтобы минимизировать его углеродный след. Пользователи могут выбирать более компактные модели для повседневных задач, что поможет сократить общее потребление энергии и выбросы CO₂.