Энергетический след ИИ: правда, которую от вас скрывали.
Изучите скрытые затраты энергии и углеродный след искусственного интеллекта. Анализ влияния AI на экологию, от запросов до глобальных последствий.
Растущий энергетический след искусственного интеллекта
Внедрение искусственного интеллекта (ИИ) кардинально изменило нашу жизнь, особенно в цифровом пространстве. Миллионы людей используют чат-ботов для учебы, работы, исследований, программирования, создания мультимедийного контента и решения повседневных задач. Но часто ли мы задумываемся о том, сколько энергии требуется для поддержания работы этих сложных систем?
Недавние исследования показывают, что индустрия ИИ оказывает значительное влияние на глобальное потребление энергии, и это влияние будет только расти. Понимание этого энергетического следа необходимо для прогнозирования и смягчения потенциальных последствий.
Оценка энергозатрат: от запроса до индустрии в целом
Для понимания общей картины необходимо оценить, сколько энергии расходуется на каждый отдельный запрос к ИИ. Эти запросы интегрируются во все большее количество приложений и сервисов, начиная от поисковых систем и заканчивая такими повседневными задачами, как отслеживание физической активности, онлайн-шопинг и бронирование авиабилетов.
Энергетические потребности, связанные с развитием ИИ, колоссальны. Крупнейшие технологические компании активно инвестируют в новые источники энергии, стремясь обеспечить бесперебойную работу своих систем и, возможно, преобразовать существующие энергетические сети.
Инвестиции в новые источники энергии
Компании Meta и Microsoft рассматривают возможность строительства новых атомных электростанций. OpenAI совместно с Дональдом Трампом представили инициативу Stargate, предусматривающую инвестиции в размере 500 миллиардов долларов – сумму, превышающую затраты на космическую программу Apollo – в строительство до десяти центров обработки данных. Каждый из таких центров может потреблять до пяти гигаватт энергии, что превышает общее потребление электроэнергии штатом Нью-Гэмпшир.
Apple также заявила о планах инвестировать 500 миллиардов долларов в производство и центры обработки данных в США в течение следующих четырех лет. Google планирует потратить около 75 миллиардов долларов на инфраструктуру ИИ только в 2025 году. Эти масштабные инвестиции подчеркивают уникальную потребность индустрии ИИ в энергии и знаменуют собой значительный отход от прежних тенденций потребления энергии крупными технологическими компаниями.
Изменение парадигмы энергопотребления центрами обработки данных
В период с 2005 по 2017 год энергопотребление центров обработки данных оставалось относительно стабильным благодаря повышению эффективности, несмотря на строительство множества новых объектов для обслуживания облачных сервисов, таких как Facebook и Netflix. Однако, с 2017 года, с развитием ИИ, ситуация начала меняться.
Центры обработки данных стали использовать энергоемкое оборудование, разработанное специально для задач ИИ, что привело к увеличению энергопотребления вдвое к 2023 году. Согласно последним отчетам, 4,4% всей потребляемой в США электроэнергии приходится на центры обработки данных. При этом углеродный след электроэнергии, используемой этими центрами, на 48% выше, чем в среднем по стране.
Прогнозы и потенциальные риски
Учитывая тенденцию развития ИИ в сторону более персонализированных и интеллектуальных систем, способных рассуждать и решать сложные задачи, можно с уверенностью предположить, что текущий уровень энергопотребления ИИ является самым низким, каким он когда-либо будет.
Согласно прогнозам, опубликованным Национальной лабораторией Лоуренса Беркли, к 2028 году центры обработки данных могут потреблять до 2,3% всей электроэнергии в США. В некоторых сценариях этот показатель может достигать 6%, что соответствует текущему потреблению энергии всеми жилыми домами в стране. Это создает серьезные вызовы для энергетической инфраструктуры и может усугубить проблемы, связанные с изменением климата.
половины электроэнергии, поступающей в центры обработки данных, будет использоваться для ИИ. В этот момент один только ИИ может потреблять столько же электроэнергии в год, сколько 22% всех домохозяйств в США.Углеродный след и поиск решений
Между тем, ожидается, что центры обработки данных продолжат использовать более грязные и углеродоемкие виды энергии (например, газ) для удовлетворения насущных потребностей, оставляя после себя облака выбросов. И все это происходит ради новой технологии, которая все еще находится в стадии становления, и во многих приложениях — образование, медицинские консультации, юридический анализ — может быть неподходящим инструментом для работы или, по крайней мере, иметь менее энергоемкую альтернативу.
Обсуждения об использовании энергии ИИ часто прерываются — либо критикой индивидуального поведения, либо сравнениями с более крупными источниками выбросов. Обе реакции упускают суть: ИИ неизбежен, и даже если один запрос имеет небольшое воздействие, правительства и компании формируют более масштабное энергетическое будущее, основанное на потребностях ИИ.
Мы используем другой подход, чтобы информировать о многих решениях, которые еще предстоит принять: где размещать центры обработки данных, чем их питать и как сделать растущие издержки ИИ заметными и подотчетными. По оценкам, ChatGPT сейчас является пятым по посещаемости веб-сайтом в мире, сразу после Instagram и перед X.
Потому что, несмотря на амбициозное видение искусственного интеллекта, представленное технологическими компаниями, поставщиками коммунальных услуг и федеральным правительством, детали того, как это будущее может наступить, остаются неясными. Ученые, исследовательские центры, финансируемые государством, активисты и энергетические компании утверждают, что ведущие компании в области ИИ и операторы центров обработки данных слишком мало раскрывают информацию о своей деятельности. Компании, разрабатывающие и внедряющие модели ИИ, в основном молчат, когда дело доходит до ответа на главный вопрос: сколько энергии потребляет взаимодействие с одной из этих моделей? И какие источники энергии будут питать будущее ИИ? Это заставляет даже тех, чья работа заключается в прогнозировании потребностей в энергии, собирать головоломку с бесчисленными недостающими элементами, что делает практически невозможным планирование будущего воздействия ИИ на энергосистемы и выбросы. Хуже того, сделки, которые коммунальные компании заключают с центрами обработки данных, вероятно, переложат издержки революции ИИ на всех нас в виде более высоких счетов за электроэнергию. Это многое, что нужно понять. Чтобы описать общую картину того, как выглядит это будущее, мы должны начать с самого начала. Часть первая: Создание модели. Прежде чем вы сможете попросить модель ИИ помочь вам с планами поездок или сгенерировать видео, модель рождается в центре обработки данных.Создание модели ИИ
Стойки серверов гудят месяцами, поглощая данные для обучения, обрабатывая числа и выполняя вычисления. Это трудоемкий и дорогостоящий процесс — по оценкам, обучение GPT-4 от OpenAI стоило более 100 миллионов долларов и потребовало 50 гигаватт-часов энергии, чего достаточно для электроснабжения Сан-Франциско в течение трех дней. Только после этого обучения, когда потребители или клиенты "выводят" (inference) модели ИИ, чтобы получить ответы или сгенерировать результаты, создатели моделей надеются возместить свои огромные затраты и в конечном итоге получить прибыль. "Для любой компании, чтобы заработать на модели, это происходит только на выводе (inference)", - говорит Эша Чуксе, исследователь из Microsoft Azure, которая изучала, как сделать вывод ИИ более эффективным. Как стало ясно из бесед с экспертами и компаниями, занимающимися ИИ, вывод (inference), а не обучение, представляет собой все большую долю потребностей ИИ в энергии и будет продолжать это делать в ближайшем будущем. В настоящее время, по оценкам, 80-90% вычислительной мощности для ИИ используется для вывода (inference). Все это происходит в центрах обработки данных. В Соединенных Штатах насчитывается около 3000 таких зданий, в которых размещены серверы и системы охлаждения и которые управляются облачными провайдерами и технологическими гигантами, такими как Amazon или Microsoft, но также используются стартапами, занимающимися ИИ. Растет число (хотя точно не известно сколько, поскольку информация о таких объектах тщательно охраняется) настроенных для вывода (inference) ИИ.Оборудование и энергопотребление
В каждом из этих центров модели ИИ загружаются на кластеры серверов, содержащие специальные чипы, называемые графическими процессорами или GPU, в частности, модель H100, произведенную Nvidia. Этот чип начал поставляться в октябре 2022 года, всего за месяц до запуска ChatGPT для широкой публики. С тех пор продажи H100 резко возросли, и это одна из причин, по которой Nvidia регулярно занимает место самой дорогой публичной компании в мире. Другие чипы включают A100 и новейшие Blackwells. Все они имеют общую черту: значительные энергетические требования для запуска своих сложных операций без перегрева. Одна модель ИИ может размещаться на дюжине или около того GPU, а в большом центре обработки данных может быть подключено более 10 000 этих чипов. Близко подключенные к этим чипам находятся процессоры CPU (чипы, которые предоставляют информацию графическим процессорам) и вентиляторы для поддержания охлаждения. Некоторое количество энергии тратится впустую почти при каждом обмене из-за несовершенных изоляционных материалов и длинных кабелей между стойками серверов, и многие здания используют миллионы галлонов воды (часто свежей питьевой воды) в день для своих операций охлаждения. В зависимости от предполагаемого использования эти модели ИИ загружаются на сотни или тысячи кластеров в различных центрах обработки данных по всему миру, каждый из которых имеет разные комбинации энергии, питающей их. Затем они подключаются к сети, просто ожидая, когда вы отправите им вопрос. Часть вторая: Запрос. Если вы видели несколько диаграмм, оценивающих влияние на энергию вопроса, заданного модели ИИ, вы можете подумать, что это похоже на измерение экономии топлива автомобиля или рейтинга энергопотребления посудомоечной машины: известное значение с общей методологией его расчета. Вы ошибаетесь. На самом деле, тип и размер модели, тип генерируемого вами вывода и бесчисленные переменные, находящиеся вне вашего контроля, такие как то, какая энергосистема подключена к центру обработки данных, куда отправляется ваш запрос, и какое время суток он обрабатывается, могут сделать один запрос в тысячи раз более энергоемким и производящим выбросы, чем другой. И когда вы делаете запрос к большинству ИИ-моделей, будь то на вашем телефоне в приложении, таком как Instagram, или в веб-интерфейсе для ChatGPT, большая часть того, что происходит после того, как ваш вопрос направляется в центр обработки данных, остается секретом. Такие факторы, как то, какой центр обработки данных в мире обрабатывает ваш запрос, сколько энергии для этого требуется и насколько углеродоемки используемые источники энергии, как правило, известны только компаниям, которые управляют моделями. Это верно для большинства известных моделей, к которым вы привыкли, таких как ChatGPT от OpenAI, Gemini от Google и Claude от Anthropic, которые называются «закрытыми». Ключевые детали тщательно охраняются компаниями, которые их создают, поскольку они считаются коммерческой тайной (а также, возможно, потому, что они могут привести к плохому пиару). Эти компании сталкиваются с небольшим количеством стимулов для раскрытия этой информации, и до сих пор они этого не делали. «Поставщики закрытых моделей ИИ представляют собой полный черный ящик», — говорит Борис Гамазайчиков, руководитель отдела устойчивого развития ИИ в Salesforce, который возглавлял усилия с исследователями из Hugging Face, поставщика платформы ИИ, инструментов, моделей и библиотек для частных лиц и компаний, чтобы сделать энергетические потребности ИИ более прозрачными. Без большего раскрытия информации от компаний, дело не только в том, что у нас нет хороших оценок — у нас вообще мало на что опереться. Без большего раскрытия информации от компаний, дело не только в том, что у нас нет хороших оценок — у нас вообще мало на что опереться. Так где же нам искать оценки? Так называемые модели с открытым исходным кодом могут быть загружены и изменены исследователями, которые могут получить доступ к специальным инструментам для измерения того, сколько энергии требуется графическому процессору H100 для выполнения данной задачи.Открытые модели
Такие модели также невероятно популярны; Meta объявила в апреле, что ее модели Llama были загружены более 1,2 миллиарда раз, и многие компании используют модели с открытым исходным кодом, когда им нужен больший контроль над результатами, чем они могут получить, используя что-то вроде ChatGPT. Но даже если исследователи могут измерить мощность, потребляемую графическим процессором, это исключает мощность, потребляемую центральными процессорами, вентиляторами и другим оборудованием. В статье Microsoft 2024 года анализировалась энергоэффективность при выводе больших языковых моделей и было обнаружено, что удвоение количества энергии, используемой графическим процессором, дает приблизительную оценку общих энергетических потребностей операции. Итак, на данный момент измерение ведущих моделей с открытым исходным кодом (и добавление оценок для всех этих других частей) дает нам наилучшее представление о том, сколько энергии используется для одного запроса ИИ. Однако имейте в виду, что способы, которыми люди используют ИИ сегодня — для написания списка покупок или создания сюрреалистического видео — намного проще, чем те, которые мы будем использовать в автономном, агентском будущем, к которому нас стремятся компании, занимающиеся ИИ. Подробнее об этом позже. Вот что мы обнаружили. Текстовые модели. Начнем с моделей, в которых вы вводите вопрос и получаете ответ в словах. Одной из ведущих групп, оценивающих энергетические потребности ИИ, является Мичиганский университет, возглавляемая кандидатом наук Джэ-Вон Чунгом и доцентом Мошарафом Чоудхури. Мы работали с командой, чтобы сосредоточиться на энергетических потребностях одной из наиболее широко используемых моделей с открытым исходным кодом, Meta's Llama. Самая маленькая модель в нашей когорте Llama, Llama 3.1 8B, имеет 8 миллиардов параметров — по сути, регулируемые «ручки» в модели ИИ, которые позволяют ей делать прогнозы.Энергопотребление текстовых моделей
При тестировании на различных подсказках для генерации текста, таких как составление плана поездки в Стамбул или объяснение квантовых вычислений, модели потребовалось около 57 джоулей на ответ, или около 114 джоулей, если учитывать охлаждение, другие вычисления и другие потребности. Это очень мало — примерно столько, сколько требуется, чтобы проехать шесть футов на электровелосипеде или включить микроволновую печь на одну десятую секунды. Самая большая из нашей когорты генерации текста, Llama 3.1 405B, имеет в 50 раз больше параметров. Больше параметров, как правило, означает лучшие ответы, но больше энергии требуется для каждого ответа. В среднем этой модели требовалось 3353 джоуля, или около 6706 джоулей всего, на каждый ответ. Этого достаточно, чтобы перевезти человека примерно на 400 футов на электровелосипеде или включить микроволновую печь на восемь секунд. Не расскажете ли мне анекдот? | Конечно! Вот один: В: Почему грязевой монстр решил подписаться на этот журнал? О: Потому что он хотел быть в курсе всех технических новостей. Таким образом, размер модели является огромным предиктором энергопотребления. Одна из причин заключается в том, что как только модель достигает определенного размера, ее приходится запускать на большем количестве чипов, каждый из которых увеличивает потребляемую энергию.Параметры и энергопотребление
Самая большая модель, которую мы протестировали, имеет 405 миллиардов параметров, но другие, такие как DeepSeek, пошли гораздо дальше, с более чем 600 миллиардами параметров. Количество параметров для закрытых моделей не разглашается и может быть только оценено. По оценкам, GPT-4 имеет более 1 триллиона параметров. Но во всех этих случаях сама подсказка также была огромным фактором. Простые запросы, например, просьба рассказать несколько шуток, часто использовали в девять раз меньше энергии, чем более сложные запросы на написание творческих историй или идей рецептов. Генерация изображений. Модели ИИ, генерирующие изображения и видео, работают с другой архитектурой, называемой диффузией. Вместо предсказания и генерации слов, они учатся трансформировать изображение шума, скажем, в фотографию слона. Они делают это, изучая контуры и узоры изображений в своих обучающих данных и сохраняя эту информацию по миллионам или миллиардам параметров. Модели, генерирующие видео, также учатся делать это во временном измерении.Энергопотребление моделей диффузии
Энергия, необходимая для данной диффузионной модели, не зависит от вашего запроса — создание изображения лыжника на песчаных дюнах требует столько же энергии, сколько и создание изображения астронавта, занимающегося фермерством на Марсе. Вместо этого потребность в энергии зависит от размера модели, разрешения изображения и количества "шагов", которые предпринимает процесс диффузии (большее количество шагов приводит к более высокому качеству, но требует больше энергии). Создание изображения стандартного качества (1024 x 1024 пикселей) с помощью Stable Diffusion 3 Medium, ведущего генератора изображений с открытым исходным кодом, с 2 миллиардами параметров, требует около 1141 джоулей энергии GPU. В отличие от больших языковых моделей, для диффузионных моделей нет оценок того, какая доля от общего энергопотребления приходится на графические процессоры, но эксперты предложили нам придерживаться "удваивающего" подхода, который мы использовали до сих пор, поскольку различия, вероятно, незначительны. Это означает, что общая оценка составляет 2282 джоуля. Улучшение качества изображения за счет удвоения количества шагов диффузии до 50 примерно удваивает требуемую энергию, примерно до 4402 джоулей.Сравнение с бытовыми приборами и транспортом
Это эквивалентно примерно 250 футам на электровелосипеде или примерно пяти с половиной секундам работы микроволновой печи. Это все еще меньше, чем самая большая текстовая модель. Отлично. Как выглядит грязевой монстр? | Хотите изображение? Сейчас будет! Генерация изображения... Это может показаться удивительным, если вы представляли, что генерация изображений требует больше энергии, чем генерация текста. "Большие [текстовые] модели имеют много параметров", — говорит Чанг, который выполнил измерения генераторов текста и изображений с открытым исходным кодом, представленных в этой статье. "Даже если они генерируют текст, они выполняют много работы". С другой стороны, генераторы изображений часто работают с меньшим количеством параметров.Создание видео с помощью ИИ
Видео, сгенерированные CogVideoX, моделью с открытым исходным кодом. В прошлом году OpenAI представила Sora, свой ослепительный инструмент для создания видео высокого качества с помощью ИИ. Появились и другие проприетарные видеомодели, такие как Google Veo2 и Adobe Firefly. Учитывая огромные объемы капитала и контента, необходимые для обучения этих моделей, неудивительно, что бесплатные модели с открытым исходным кодом, как правило, отстают по качеству. Тем не менее, по мнению исследователей из Hugging Face, одной из лучших является CogVideoX, созданная китайским стартапом в области ИИ Zhipu AI и исследователями из Университета Цинхуа в Пекине. Саша Лучиони, исследователь ИИ и климата в Hugging Face, протестировала энергию, необходимую для создания видео с помощью модели, используя инструмент под названием Code Carbon.Анализ энергопотребления CogVideoX
Более старая версия модели, выпущенная в августе, создавала видео со скоростью всего восемь кадров в секунду в зернистом разрешении — больше похоже на GIF, чем на видео. Для создания каждого из них требовалось около 109 000 джоулей. Но три месяца спустя компания выпустила более крупную и качественную модель, которая создает пятисекундные видео со скоростью 16 кадров в секунду (эта частота кадров по-прежнему не является высокой четкостью; она использовалась в эпоху немого кино Голливуда до конца 1920-х годов). Новая модель использует более чем в 30 раз больше энергии на каждое 5-секундное видео: около 3,4 миллиона джоулей, что более чем в 700 раз превышает энергию, необходимую для создания высококачественного изображения. Это эквивалентно поездке на 38 миль на электровелосипеде или работе микроволновой печи более часа. Справедливо сказать, что ведущие генераторы видео с искусственным интеллектом, создающие ослепительные и гиперреалистичные видео продолжительностью до 30 секунд, будут использовать значительно больше энергии. По мере того как эти генераторы становятся больше, они также добавляют функции, которые позволяют настраивать определенные элементы видео и сшивать несколько кадров в сцены — все это увеличивает их потребности в энергии. Примечание: компании, занимающиеся искусственным интеллектом, защищали эти цифры, говоря, что генеративное видео оказывает меньшее воздействие на окружающую среду, чем киносъемки и поездки, которые необходимы для обычного производства видео. Это утверждение трудно проверить и не учитывает всплеск генерации видео, который может произойти, если создание видео с помощью ИИ станет дешевым.Энергопотребление ИИ в течение дня
Итак, как может выглядеть дневное потребление энергии для одного человека с привычкой к ИИ? 3:30 Допустим, вы бежите марафон в качестве благотворительного бегуна и организуете сбор средств в поддержку своего дела. Вы задаете модели ИИ 15 вопросов о лучших способах сбора средств. Затем вы делаете 10 попыток создать изображение для своего флаера, прежде чем получите то, чем довольны, и три попытки создать пятисекундное видео для публикации в Instagram. Вы потратите около 2,9 киловатт-часов электроэнергии — этого достаточно, чтобы проехать более 160 километров на электровелосипеде (или около 16 километров на обычном электромобиле) или разогревать еду в микроволновой печи более трех с половиной часов. Но в этих расчетах есть существенная оговорка. Эти цифры не могут служить ориентиром для определения того, сколько энергии требуется для работы чего-то вроде ChatGPT 4o. Мы не знаем, сколько параметров содержится в новейших моделях OpenAI, сколько из этих параметров используется для различных архитектур моделей, какие центры обработки данных используются и как OpenAI может распределять запросы по всем этим системам. Можно гадать, как многие и делают, но эти предположения настолько приблизительны, что могут скорее сбивать с толку, чем помогать. "Нам следует прекратить попытки реконструировать цифры на основе слухов, — говорит Луччиони, — и усилить давление на эти компании, чтобы они действительно делились реальными данными". Луччиони разработала AI Energy Score — способ оценки моделей по их энергоэффективности. Но компании с закрытым исходным кодом должны присоединиться к этой инициативе. По словам Луччиони, мало кто это сделал.Топливо и выбросы
Теперь, когда у нас есть оценка общего количества энергии, необходимого для работы модели искусственного интеллекта для создания текста, изображений и видео, мы можем вычислить, что это означает с точки зрения выбросов, вызывающих изменение климата. Во-первых, работающий центр обработки данных не обязательно является чем-то плохим. Если бы все центры обработки данных были подключены к солнечным панелям и работали только тогда, когда светит солнце, мир гораздо меньше говорил бы об энергопотреблении ИИ. Но это не так. Большинство электросетей по всему миру по-прежнему сильно зависят от ископаемого топлива. Поэтому использование электроэнергии связано с климатическими последствиями. "Центрам обработки данных ИИ требуется постоянное электроснабжение, 24 часа в сутки, 7 дней в неделю, 365 дней в году", — говорит Рахул Мевавалла, генеральный директор Mawson Infrastructure Group, которая строит и обслуживает энергоемкие центры обработки данных, поддерживающие ИИ. Это означает, что центры обработки данных не могут полагаться на непостоянные технологии, такие как ветровая и солнечная энергия, и в среднем они, как правило, используют более "грязное" электричество.Углеродная интенсивность
Одно препринтное исследование Гарвардской школы общественного здравоохранения им. Т.Х. Чана показало, что углеродоемкость электроэнергии, используемой центрами обработки данных, на 48% выше, чем в среднем по США . Отчасти это связано с тем, что центры обработки данных в настоящее время расположены в местах, где в среднем более "грязные" сети, например, в регионе Средней Атлантики, где широко используется уголь, включая Вирджинию, Западную Вирджинию и Пенсильванию. Они также работают постоянно, в том числе тогда, когда более чистые источники могут быть недоступны. Центры обработки данных не могут полагаться на непостоянные технологии, такие как ветровая и солнечная энергия, и в среднем они, как правило, используют более "грязное" электричество. Технологические компании, такие как Meta, Amazon и Google, отреагировали на проблему ископаемого топлива, объявив о целях использования большего количества ядерной энергии. Эти три компании присоединились к обязательству утроить мировые мощности ядерной энергетики к 2025 году. Но сегодня ядерная энергия составляет лишь 20% электроснабжения в США и обеспечивает лишь часть операций центров обработки данных ИИ — природный газ составляет более половины электроэнергии, вырабатываемой в Вирджинии , где расположено больше центров обработки данных, чем в любом другом штате США, например. Более того, для реализации новых ядерных проектов потребуются годы, возможно, десятилетия. В 2024 году ископаемое топливо, включая природный газ и уголь, составило чуть менее 60% электроснабжения в США. На долю ядерной энергии приходилось около 20%, а на долю возобновляемых источников энергии — большая часть оставшихся 20%. Пробелы в энергоснабжении в сочетании со спешкой в строительстве центров обработки данных для питания ИИ часто приводят к недальновидным энергетическим планам. В апреле было обнаружено, что суперкомпьютерный центр X Илона Маска недалеко от Мемфиса использует десятки генераторов метанового газа, которые, по утверждению Южного центра экологического права, не одобрены энергетическими регуляторами для дополнения электроэнергии из сети и нарушают Закон о чистом воздухе. Ключевым показателем, используемым для количественной оценки выбросов из этих центров обработки данных, является углеродная интенсивность: сколько граммов выбросов углекислого газа производится на каждый потребленный киловатт-час электроэнергии. Для определения углеродной интенсивности данной сети необходимо понимать выбросы, производимые каждой отдельной электростанцией, а также количество энергии, которое каждая из них вносит в сеть в любой момент времени. Коммунальные предприятия, правительственные учреждения и исследователи используют оценки средних выбросов, а также измерения в режиме реального времени для отслеживания загрязнения от электростанций. Эта интенсивность сильно различается в разных регионах. Энергосистема США фрагментирована, и соотношение угля, газа, возобновляемых источников энергии или ядерной энергии сильно варьируется. Калифорнийская энергосеть, например, гораздо чище, чем энергосеть Западной Вирджинии. Время суток также имеет значение. Например, данные за апрель 2024 года показывают, что в Калифорнии показатель может колебаться от менее 70 граммов на киловатт-час днем, когда доступно много солнечной энергии, до более чем 300 граммов на киловатт-час в середине ночи. Эта изменчивость означает, что одна и та же деятельность может иметь совершенно разные климатические последствия, в зависимости от вашего местоположения и времени отправки запроса. Возьмем, к примеру, того марафонца, занимающегося благотворительностью. Текстовые, графические и видеоответы, которые он запросил, в сумме составляют 2,9 киловатт-часа электроэнергии. В Калифорнии выработка такого количества электроэнергии приведет к выбросу в атмосферу в среднем около 650 граммов углекислого газа. Но выработка этой электроэнергии в Западной Вирджинии может увеличить общее количество выбросов до более чем 1150 граммов.Искусственный интеллект за углом
То, что мы увидели до сих пор, показывает, что энергия, необходимая для ответа на запрос, может быть относительно небольшой, но она может сильно варьироваться в зависимости от типа запроса и используемой модели. Выбросы, связанные с данным количеством электроэнергии, также будут зависеть от того, где и когда обрабатывается запрос. Но к чему это все сводится? ChatGPT в настоящее время, по оценкам, является пятым по посещаемости веб-сайтом в мире, сразу после Instagram и опережая X. В декабре OpenAI заявила, что ChatGPT получает 1 миллиард сообщений каждый день, а после того, как компания запустила новый генератор изображений в марте, она сообщила, что люди используют его для создания 78 миллионов изображений в день, от портретов в стиле Studio Ghibli до фотографий самих себя в виде кукол Барби. Учитывая направление, в котором движется ИИ — более персонализированный, способный рассуждать и решать сложные проблемы за нас и везде, куда мы ни посмотрим — вероятно, что наш сегодняшний след ИИ является самым маленьким, каким он когда-либо будет. Можно провести очень грубые расчеты, чтобы оценить энергетическое воздействие. В феврале исследовательская фирма в области ИИ Epoch AI опубликовала оценку того, сколько энергии используется для одного запроса ChatGPT — оценку, которая, как обсуждалось, содержит множество предположений, которые нельзя проверить. Тем не менее, они подсчитали около 0,3 ватт-часа, или 1080 джоулей, на сообщение. Это находится между нашими оценками для самых маленьких и самых больших моделей Meta Llama (и эксперты, с которыми мы консультировались, говорят, что, скорее всего, реальное число выше, а не ниже).Будущее потребления энергии ИИ
Один миллиард таких запросов каждый день в течение года означал бы более 109 гигаватт-часов электроэнергии, чего достаточно для питания 10 400 американских домов в течение года. Если мы добавим изображения и представим, что для создания каждого из них требуется столько же энергии, сколько и для наших высококачественных моделей изображений, это будет означать дополнительные 35 гигаватт-часов, чего достаточно для питания еще 3300 домов в течение года. Это в дополнение к энергетическим потребностям других продуктов OpenAI, таких как генераторы видео, и ко всем другим компаниям и стартапам, занимающимся ИИ. Но вот в чем проблема: эти оценки не охватывают ближайшее будущее того, как мы будем использовать ИИ. В этом будущем мы не будем просто пинговать модели ИИ одним-двумя вопросами в течение дня или заставлять их генерировать фотографии. Вместо этого ведущие лаборатории гонят нас к миру, где «агенты» ИИ выполняют задачи для нас, не контролируя каждое наше движение. Мы будем разговаривать с моделями в голосовом режиме, общаться с компаньонами по 2 часа в день и направлять камеры наших телефонов на окружающую среду в видеорежиме. Мы будем давать сложные задачи так называемым «моделям рассуждения», которые логически решают задачи, но, как было установлено, требуют в 43 раза больше энергии для простых проблем, или «моделям глубокого исследования», которые тратят часы на создание отчетов для нас. У нас будут модели ИИ, которые будут «персонализированы» путем обучения на наших данных и предпочтениях. Это будущее уже не за горами: OpenAI, как сообщается, будет предлагать агентов за 20 000 долларов в месяц и будет использовать возможности рассуждения во всех своих моделях в будущем, а DeepSeek катапультировала рассуждения «цепочки мыслей» в мейнстрим с моделью, которая часто генерирует девять страниц текста для каждого ответа. Модели ИИ добавляются ко всему, от линий телефонной поддержки клиентов до кабинетов врачей, быстро увеличивая долю ИИ в национальном энергопотреблении. «Те немногие цифры, которые у нас есть, могут пролить крошечный луч света на то, где мы находимся прямо сейчас, но все ставки отменяются в ближайшие годы», — говорит Луччиони.Энергозатраты в будущем
Каждый исследователь, с которым мы разговаривали, сказал, что мы не можем понять энергетические потребности этого будущего, просто экстраполируя энергию, используемую в запросах ИИ сегодня. И действительно, шаги ведущих компаний ИИ по запуску атомных электростанций и созданию центров обработки данных беспрецедентного масштаба показывают, что их видение будущего будет потреблять гораздо больше энергии, чем даже большое количество этих отдельных запросов. «Те немногие цифры, которые у нас есть, могут пролить крошечный луч света на то, где мы находимся прямо сейчас, но все ставки отменяются в ближайшие годы», — говорит Луччиони. Генеративные инструменты искусственного интеллекта буквально пихают нам в глотку, и становится все труднее и труднее отказаться от них или сделать осознанный выбор, когда дело касается энергии и климата. Чтобы понять, сколько энергии потребуется этой революции в области искусственного интеллекта, и откуда она возьмется, нам придется читать между строк. Часть четвертая: Будущее впереди. В отчете, опубликованном в декабре Национальной лабораторией им. Лоуренса в Беркли, которая финансируется Министерством энергетики и дала миру 16 нобелевских лауреатов, была предпринята попытка оценить, что распространение искусственного интеллекта может означать для спроса на энергию. Анализируя как публичные, так и частные данные о центрах обработки данных в целом, а также о конкретных потребностях искусственного интеллекта, исследователи пришли к четкому выводу. Центры обработки данных в США использовали около 200 тераватт-часов электроэнергии в 2024 году, что примерно соответствует объему, необходимому для электроснабжения Таиланда в течение года. По оценкам, специализированные серверы искусственного интеллекта в этих центрах обработки данных использовали от 53 до 76 тераватт-часов электроэнергии. В максимальном выражении этого достаточно для электроснабжения более 7,2 миллионов американских домов в течение года. Если предположить, что большая часть этого была использована для инференса, это означает, что в прошлом году в США было использовано достаточно электроэнергии на искусственный интеллект, чтобы каждый человек на Земле обменялся более чем 4000 сообщений с чат-ботами. В реальности, конечно, не все пользователи несут ответственность за этот спрос на энергию. Большая часть, вероятно, идет на стартапы и технологических гигантов, тестирующих свои модели, продвинутых пользователей, исследующих все новые функции, и энергоемкие задачи, такие как создание видео или аватаров.Растущие потребности в энергии
Центры обработки данных в США использовали около 200 тераватт-часов электроэнергии в 2024 году, что примерно соответствует объему, необходимому для электроснабжения Таиланда в течение года. По оценкам исследователей, к 2028 году мощность, идущая на цели, связанные с искусственным интеллектом, возрастет до 165–326 тераватт-часов в год. Это больше, чем вся электроэнергия, которую в настоящее время используют центры обработки данных США для всех целей; этого достаточно для электроснабжения 22% американских домохозяйств в год. Это может привести к тем же выбросам, что и при пробеге более 300 миллиардов миль, что составляет более 1600 поездок туда и обратно от Земли до Солнца. Исследователи ясно дали понять, что внедрение искусственного интеллекта и ускоренные серверные технологии, которые его поддерживают, являются основной причиной резкого роста спроса на электроэнергию со стороны центров обработки данных после более чем десятилетнего застоя. В период с 2024 по 2028 год доля электроэнергии США, поступающей в центры обработки данных, может утроиться, с нынешних 4,4% до 12%.Инвестиции в инфраструктуру
Этот беспрецедентный скачок спроса на электроэнергию для искусственного интеллекта согласуется с тем, что объявляют ведущие компании. SoftBank, OpenAI, Oracle и эмиратская инвестиционная фирма MGX намерены потратить 500 миллиардов долларов в ближайшие четыре года на новые центры обработки данных в США. Первый начал строительство в Абилине, штат Техас, и включает в себя восемь зданий размером с бейсбольный стадион каждое. В ответ на запрос информации от Белого дома компания Anthropic предложила США построить к 2027 году дополнительные 50 гигаватт специализированной мощности. Компании, занимающиеся искусственным интеллектом, также планируют строительство мультигигаваттных мощностей за рубежом, в том числе в Малайзии, которая становится центром обработки данных в Юго-Восточной Азии. В мае OpenAI объявила о плане поддержки строительства центров обработки данных за рубежом в рамках стремления "распространить демократический ИИ". Компании применяют разрозненный подход к достижению этой цели, заключая сделки по новым атомным электростанциям, запуская старые и заключая крупные сделки с коммунальными компаниями.Отсутствие прозрачности
MIT Technology Review запросила интервью у Google, OpenAI и Microsoft об их планах на это будущее и о конкретных цифрах по энергии, необходимой для инференса ведущих моделей искусственного интеллекта. OpenAI отказалась предоставить цифры или предоставить кого-либо для интервью, но предоставила заявление о том, что приоритетом является эффективное использование вычислительных ресурсов, сотрудничает с партнерами для поддержки целей устойчивого развития и что ИИ может помочь в открытии климатических решений. Компания заявила, что первыми площадками для ее инициативы Stargate станут природный газ и солнечная энергия, и что компания будет стремиться включать ядерную и геотермальную энергию, где это возможно. Microsoft обсудила свои собственные исследования по повышению эффективности искусственного интеллекта, но отказалась поделиться конкретными сведениями о том, как эти подходы интегрированы в ее центры обработки данных. Google отказалась поделиться цифрами, детализирующими, сколько энергии требуется во время инференса для ее моделей искусственного интеллекта, таких как Gemini, и таких функций, как AI Overviews. Компания указала на информацию о своих TPU — собственном эквиваленте графических процессоров Google — и достигнутой ими эффективности. Исследователи из Lawrence Berkeley высказали прямолинейную критику текущего положения дел, заявив, что информации, раскрываемой технологическими компаниями, операторами центров обработки данных, коммунальными предприятиями и производителями оборудования, попросту недостаточно для составления разумных прогнозов относительно беспрецедентных энергетических потребностей этого будущего или оценки выбросов, которые оно создаст. Они предложили способы, с помощью которых компании могли бы раскрывать больше информации, не нарушая коммерческую тайну, например, соглашения об анонимном обмене данными, но в их отчете признавалось, что архитекторы этого массивного всплеска центров обработки данных ИИ до сих пор не были прозрачными, оставив их без инструментов для планирования. "Наряду с ограничением масштаба этого отчета, это отсутствие прозрачности подчеркивает, что рост центров обработки данных происходит с небольшим учетом того, как лучше интегрировать эти возникающие нагрузки с расширением производства/передачи электроэнергии или с более широким развитием сообщества", - написали они. Авторы также отметили, что за последние 20 лет было опубликовано всего два других отчета такого рода. Мы получили отзывы от нескольких других исследователей, которые говорят, что их способность понимать выбросы и энергетические потребности ИИ затруднена тем фактом, что ИИ еще не рассматривается как отдельный сектор. Например, Управление энергетической информации США составляет прогнозы и измерения для обрабатывающей промышленности, горнодобывающей промышленности, строительства и сельского хозяйства, но подробных данных об ИИ просто не существует.Финансирование инфраструктуры ИИ
"Почему мы должны платить за эту инфраструктуру? Почему мы должны оплачивать их счета за электроэнергию?" Согласно новому исследованию, опубликованному в марте, частныБремя искусственного интеллекта: кто оплатит счета за революцию?
В эпоху стремительного развития искусственного интеллекта (ИИ) возникает вопрос о том, кто понесет финансовое бремя растущего энергопотребления, необходимого для его функционирования. Исследователи из Гарвардской инициативы по законодательству в области электроэнергетики провели анализ соглашений между коммунальными предприятиями и технологическими гигантами, такими как Meta, чтобы выяснить, кто и сколько будет платить за электроэнергию для массивных центров обработки данных, используемых для ИИ.
Исследование показало, что скидки на электроэнергию, предоставляемые коммунальными предприятиями крупным технологическим компаниям, могут привести к повышению тарифов для обычных потребителей. В некоторых случаях, если центры обработки данных не смогут привлечь ожидаемый объем бизнеса в сфере ИИ или потребуют меньше электроэнергии, чем планировалось, потребители могут быть вынуждены субсидировать их деятельность.
Например, отчет законодательного собрания штата Вирджиния за 2024 год показал, что средний житель штата может платить на 37,50 долларов США в месяц больше за электроэнергию, потребляемую центрами обработки данных. Эта сумма может показаться незначительной, но в масштабах штата или страны она может стать существенным финансовым бременем для населения.
Растущее потребление энергии: последствия для потребителей
Элиза Мартин, научный сотрудник Программы экологического и энергетического права в Гарварде и соавтор исследования, выразила обеспокоенность по поводу того, что преимущества центров обработки данных могут не перевешивать затраты для потребителей. "Нам не ясно, что преимущества этих центров обработки данных перевешивают эти затраты", - заявила она. "Почему мы должны платить за эту инфраструктуру? Почему мы должны оплачивать их счета за электроэнергию?"
Каждый раз, когда пользователь запрашивает у модели ИИ шутку или просит сгенерировать изображение, этот запрос требует определенного количества энергии и приводит к выбросам в атмосферу. Хотя отдельный запрос может потреблять меньше энергии, чем работа кухонного прибора в течение короткого времени, суммарное воздействие от использования ИИ большим количеством людей может быть значительным.
Кроме того, ИИ все чаще интегрируется в различные аспекты нашей цифровой жизни, что означает, что пользователи могут использовать его, даже не осознавая этого. Эта интеграция может привести к увеличению общего энергопотребления и, как следствие, к росту расходов для потребителей.
Необходимость прозрачности и оценки воздействия
Технологические компании, как правило, не раскрывают подробную информацию о своих операциях в области ИИ, что затрудняет оценку истинного воздействия этой технологии на энергопотребление и затраты для потребителей. Необходима большая прозрачность, чтобы можно было принимать обоснованные решения о будущем развитии и использовании ИИ.
Крайне важно провести всестороннюю оценку энергетического бремени и выбросов, связанных с ИИ, чтобы понять масштабы проблемы и разработать стратегии для смягчения негативных последствий. Эта оценка должна учитывать как прямые затраты на электроэнергию, так и косвенные воздействия на окружающую среду и общество.
Неизвестные факторы и будущее искусственного интеллекта
Несмотря на проведенные исследования, многое об энергетическом воздействии ИИ остается неизвестным. Технологические компании, в основном, хранят молчание о деталях, что затрудняет точную оценку ситуации. Однако, по предварительным оценкам, ясно, что ИИ оказывает преобразующее воздействие не только на технологию, но и на энергосистему и мир в целом.
Развитие ИИ несет в себе огромный потенциал для улучшения жизни людей и решения сложных проблем. Однако, чтобы в полной мере реализовать этот потенциал, необходимо учитывать и смягчать потенциальные негативные последствия, такие как увеличение энергопотребления и финансовое бремя для потребителей. Только тогда можно будет обеспечить устойчивое и справедливое развитие ИИ в будущем.