32 ГБ VRAM за $949: Intel Arc Pro B70 меняет правила для local AI
Intel выпустила профессиональную GPU Arc Pro B70 с 32 ГБ VRAM за $949. Разбираем, что это значит для сообщества local LLM и AI-разработчиков.

В мире local LLM главный дефицит — не вычислительная мощность, а память. Можно иметь самый быстрый процессор, но если модель не помещается в VRAM, толку от этого мало. И вот Intel тихо вышла на эту поляну с предложением, которое сообщество r/LocalLLaMA ждало давно: 32 ГБ видеопамяти за $949.
Что представил Intel
25 марта Intel анонсировала линейку профессиональных видеокарт Arc Pro B70 и B65, построенных на архитектуре Battlemage. Это тот самый «Big Battlemage» — старший кристалл, которого геймеры ждали для потребительских карт, но Intel направил его в профессиональный сегмент.
Arc Pro B70 — флагман линейки. 32 ГБ GDDR6, полный набор Xe2-ядер старшего чипа и цена $949. Младшая модель B65 предлагает 16 ГБ за меньшую сумму. Обе карты ориентированы на рабочие станции — AI-инференс, CAD, работа с видео.
Почему это важно для local AI
Контекст простой. NVIDIA RTX 4090 с 24 ГБ VRAM стоит от $1600 на вторичном рынке, а новые не найти. RTX 3090 с теми же 24 ГБ — лотерея по цене и состоянию. AMD пока не предлагает конкурентоспособных решений с большим объёмом памяти в потребительском сегменте.
Intel Arc Pro B70 даёт 32 ГБ VRAM — на 8 ГБ больше, чем у RTX 4090. Это позволяет загрузить модели, которые раньше требовали двух карт или жёстких квантизаций.
Для понимания масштаба: 32 ГБ VRAM хватает для запуска Qwen3.5 35B в Q4-квантизации, полноценного DeepSeek V4 MoE в активной части, или даже 70B-моделей в агрессивных квантах. А если поставить четыре карты — это уже 128 ГБ видеопамяти, что открывает доступ к моделям уровня Opus.
По данным ServeTheHome, Intel позиционирует возможность объединения нескольких карт именно для AI-задач — пулинг 128 ГБ VRAM из четырёх B70.
Но есть нюансы
Сырая вычислительная мощность Arc Pro B70 уступает NVIDIA. Экосистема CUDA остаётся стандартом — большинство AI-фреймворков оптимизированы именно под неё. Intel работает над совместимостью через SYCL и oneAPI, а llama.cpp уже поддерживает Intel GPU, но зрелость софтверного стека пока не сравнится с NVIDIA.
Пропускная способность памяти тоже вопрос. GDDR6 на Arc Pro B70, вероятно, даст меньшую bandwidth, чем GDDR6X на RTX 4090. Для инференса LLM, где скорость генерации токенов напрямую зависит от bandwidth, это может означать более медленную работу при том же объёме памяти.
Ещё один момент — лицензия. «Pro» в названии обычно означает валидированные драйверы для профессиональных приложений, и Intel может ограничить некоторые функции в потребительских сценариях.
Кому стоит обратить внимание
Для энтузиастов local LLM, которые упираются в стену 24 ГБ VRAM и не готовы платить за серверные GPU уровня A100, Arc Pro B70 — это первый реалистичный вариант за адекватные деньги. $949 за 32 ГБ — это $29.7 за гигабайт VRAM, против примерно $66 за гигабайт у RTX 4090.
Для бизнеса, который строит on-premise AI-инфраструктуру, четыре B70 за ~$4000 дают 128 ГБ VRAM — объём, за который NVIDIA просит десятки тысяч долларов в серверном сегменте.
Что дальше
Intel не скрывает, что Arc Pro B70 — не для геймеров. Это осознанная ставка на AI и профессиональный рынок, где дешёвый VRAM может стать конкурентным преимуществом. Если софтверная поддержка подтянется — а работа с llama.cpp и SYCL идёт активно — Intel может закрепиться как «бюджетная альтернатива NVIDIA» для локального AI. Не самый гламурный титул, но вполне прибыльная ниша.


