AI пьёт миллиардами галлонов: как дата-центры тихо высушивают регионы
Дата-центры в США потребили 17 млрд галлонов воды в 2023 году, а к 2028-му цифра вырастет до 33 млрд. Разбираем кризис, который Big Tech предпочитает не обсуждать.

Жители округа Полк в Джорджии заметили, что вода течёт из крана как-то слабее. Они звонили в коммунальные службы, ругались в группе соседей в Facebook, и только через пятнадцать месяцев выяснилось, в чём дело: новый дата-центр площадью 6,2 миллиона квадратных футов втихую выкачал из местного водоканала 29 миллионов галлонов воды — без разрешения и без штрафов. Это и есть лицо нового водного кризиса: он происходит у вас на глазах, и его никто не считает, пока душ дома не превратится в струйку.
Цифры, которые Big Tech не любит произносить вслух
По данным Brookings Institution, дата-центры в США в 2023 году напрямую выпили примерно 17 миллиардов галлонов воды. 84% этого объёма — гипермасштабные и колокейшн-площадки крупных облачных провайдеров. Средний по размерам дата-центр потребляет столько же, сколько небольшой город; крупный — до 5 миллионов галлонов в день, то есть как город с населением 50 тысяч человек.
Это сейчас. К 2028 году одни только гиперскейлеры будут потреблять до 33 миллиардов галлонов в год. А к 2030-му, по подсчёту The Register, индустрии может потребоваться дополнительно от 697 миллионов до 1,45 миллиарда галлонов пиковой суточной мощности водоснабжения — для сравнения, ежедневное потребление Нью-Йорка составляет около миллиарда галлонов. То есть американская AI-инфраструктура к концу десятилетия может «съесть» в пике эквивалент водопровода крупнейшего города страны — и это сверх того, что у неё уже есть.
Северная Вирджиния — главный «дата-центровый коридор» планеты — уже даёт картину будущего. Все её площадки в 2023 году совокупно использовали почти 2 миллиарда галлонов: на 63% больше, чем в 2019-м. В одном только округе Лоудоун работают около 200 дата-центров, и они выпили примерно 900 миллионов галлонов всего за год.
Почему AI пьёт так много
Большую часть электричества, которое потребляет GPU-стойка, нужно куда-то отвести в виде тепла. Классический воздушный кондиционер с такими нагрузками уже не справляется — поэтому индустрия массово переходит на испарительные градирни и прямое жидкостное охлаждение. Градирня работает физически просто: горячую воду гонят через структуру с большой площадью контакта, часть её испаряется, остальная охлаждается. Испарившаяся часть — это вода, которая уходит в атмосферу безвозвратно для местной экосистемы.
Дальше начинается косвенная история: значительная часть электроэнергии для дата-центров берётся с ТЭС, где вода тоже расходуется массово (для охлаждения турбин). По оценке Гарвардского научного обзора, косвенный «водный след» одного запроса к крупной LLM может быть в 2–3 раза больше прямого. Когда вы видите цифру «полбутылки воды на 100 слов ответа ChatGPT» — это только прямое потребление; полный счёт длиннее.
Оценки воды на один запрос гуляют от 5 миллилитров до 519 миллилитров в зависимости от методологии, региона дата-центра и того, обучение это или инференс. Сэм Альтман сам называл цифру «одна пятнадцатая чайной ложки», но это в самых оптимистичных условиях — холодный климат, замкнутый цикл охлаждения, чистая энергетика. В Аризоне или Техасе летом всё иначе.
Тренировка моделей — отдельная история
Тренинг GPT-4 в дата-центрах Microsoft в Айове, как выяснили журналисты Associated Press, за один месяц 2022 года потребил 13,4 миллиона галлонов воды. Это одна локация, один тренировочный прогон, один месяц.
Современные frontier-модели тренируются месяцами на десятках тысяч GPU. К моменту, когда вы открываете чат и пишете «привет», в этой модели уже сидят миллионы галлонов испарённой воды — задолго до того, как первый пользователь сделал первый запрос.
География неравенства
Самое больное в этой истории — не сами цифры, а где AI строит свою инфраструктуру. За последние три года в США появилось более 160 новых AI-дата-центров в регионах с дефицитом воды. Аризона, Техас, Невада, юг Калифорнии — там, где вода стоит дорого, а грунтовые воды истощаются быстрее, чем восполняются.
В июне 2023 года власти Аризоны приостановили выдачу новых разрешений на жилое строительство в округе Марикопа — из-за того, что грунтовые воды кончаются. В том же округе у Google есть разрешение на забор 1,45 миллиарда галлонов в год для дата-центра. Дома строить нельзя, серверы — можно: разрешения, выданные до моратория, отзывать не стали.
История Джорджии с теми самыми 29 миллионами незаконных галлонов — это не редкость, это паттерн. Локальные власти слабее, чем корпоративные департаменты Big Tech, мониторинг точечный, штрафов либо нет, либо они символические. Когда инцидент всё-таки всплывает, у дата-центра уже подписаны контракты на следующие 10 лет.
Что считается, а что нет
Главная проблема честного учёта — методологическая. Прямое потребление — это вода, которую дата-центр сам забирает на испарительное охлаждение. Косвенное — вода, израсходованная электростанциями, питающими его. Эмбоди — вода, ушедшая на производство чипов: фабрика TSMC расходует миллионы галлонов в день, и каждый H100 несёт на себе соответствующую долю.
Big Tech любит публиковать только первый показатель. Когда Microsoft объявляет «water positive к 2030 году», речь почти всегда про прямое потребление — и про то, что компания обещает «восполнить» забранную воду через инвестиции в проекты восстановления водоёмов где-то в другом полушарии. Жители округа Маршалл в Айове или фермеры в Аризоне получают новые серверные стойки, а инвестиции в восстановление — кто-то другой за тысячи километров.
Что меняется в 2026 году
Кое-что всё-таки сдвигается. С августа 2024 года Microsoft развернула новый дизайн дата-центра с закрытым контуром охлаждения — без испарительных потерь. Первые две площадки нового формата запускаются в 2026-м в Финиксе (штат Аризона) и Маунт-Плезант (штат Висконсин). Закрытый контур потребляет в разы меньше воды, но требует больше электричества — то есть проблема сдвигается на энергосеть и косвенный след.
Параллельно набирает обороты direct-to-chip liquid cooling: жидкий теплоноситель прокачивают непосредственно через холдплейт на чипе или даже погружают серверы в диэлектрические жидкости. Эффективность кратно выше воздуха, испарения нет — но капитальные затраты намного больше, и переоборудовать старые залы сложно. Поэтому новые AI-кампусы строят сразу под liquid cooling, а легаси-площадки продолжают расходовать воду по старинке.
Регуляторика тоже подтягивается, но медленно. В Виргинии и Орегоне в 2026 году обсуждают обязательное раскрытие водопотребления дата-центрами на уровне штата. В Европе AI Act требует от операторов отчётности по environmental impact, но методология ещё не устаканилась.
Что это значит для индустрии
Гонка моделей с триллионами параметров и масштабирование тестового времени (test-time compute) делают каждый ответ всё «дороже» по воде и электричеству. OpenAI, Anthropic, Google и Meta вкладываются в дата-центры с горизонтом 5–10 лет — мощности, которые сейчас планируются, будут потреблять воду в 2030-х. Регионы, которые сейчас радуются налогам и рабочим местам от AI-стройки, через десять лет будут разбираться, как делить остатки водоносных слоёв.
Самое тревожное в этой истории — это её асимметрия. Прибыль от AI концентрируется у нескольких компаний и горстки городов. Расходы — вода, электричество, инфраструктура, шум — размазаны по сотням сельских округов, у которых нет рычагов, чтобы спорить с подрядчиками Microsoft или Google. История с тихими 29 миллионами галлонов в Джорджии — это не баг, это фича: пока учёт водопотребления остаётся добровольным и непрозрачным, такие истории будут повторяться.
Что дальше
Ближайшие 18 месяцев решат две вещи. Первая — приживётся ли обязательное раскрытие водопотребления хотя бы в нескольких штатах США и в ЕС. Вторая — насколько быстро гипермасштабные операторы переоборудуют существующие площадки под безводное охлаждение. Если ответы будут «да» и «быстро», к 2030 году кризис останется управляемым. Если нет — мы получим серию региональных конфликтов вокруг воды, в которых дата-центры будут выступать в роли антагонистов наряду с интенсивным сельским хозяйством.
А пока: в следующий раз, когда вы попросите модель сгенерировать слайды на 10 минут чтения, помните, что где-то в Айове или Аризоне за этим стоит около ста миллилитров воды, которые буквально испарились в атмосферу. Умножьте на сотни миллионов запросов в день — и водный след AI-индустрии перестанет казаться абстрактным.


