Intel выпустила GPU с 32 ГБ VRAM за $949
Intel Arc Pro B70 — первая видеокарта с 32 ГБ VRAM дешевле $1000. Самая доступная карта для локального запуска больших языковых моделей.

32 ГБ VRAM за $949 — это не опечатка. Intel выпустила Arc Pro B70, и для сообщества локальных LLM это, возможно, главная аппаратная новость весны. До сих пор самые доступные карты с 32 ГБ стоили заметно дороже, а большинство энтузиастов обходились 24 ГБ на RTX 4090 за $1 600+.
Что предлагает Intel
Arc Pro B70 построена на архитектуре Xe2 — той же, что лежит в основе потребительских Arc B570 и B580. Intel позиционирует карту как профессиональное решение и сравнивает с NVIDIA RTX Pro 4000, хотя конкретных бенчмарков пока не раскрыла.
Известные характеристики:
- VRAM: 32 ГБ
- Архитектура: Intel Xe2
- Ядра: 32 Xe2 cores
- Цена: от $949 (референсная карта)
- Кастомные версии: Arkn, ASRock, Gunnir, Maxsun, Sparkle
Младшая модель Arc Pro B65 выйдет в середине апреля, но её цену Intel пока не объявила.
Почему это важно для AI
На Reddit пост об этой карте набрал больше 1 100 очков и 342 комментария — и почти все обсуждения крутились вокруг одного вопроса: можно ли на ней запускать LLM?
32 ГБ VRAM — это магический порог для локальных моделей. На 24 ГБ уже тесно для 70B-моделей даже с квантизацией, а 32 ГБ открывают доступ к полноценным версиям Qwen 3.6, Llama и других открытых моделей без агрессивного сжатия. С учётом того, что TurboQuant от Google обещает 6-кратное сжатие KV-кеша, связка «Arc Pro B70 + TurboQuant» может стать народным рецептом для запуска серьёзных моделей.
Есть, правда, нюанс: экосистема Intel для AI-инференса пока уступает NVIDIA. Поддержка CUDA-совместимых фреймворков через SYCL и oneAPI улучшается, но llama.cpp и другие инструменты работают на Intel GPU не так гладко, как на NVIDIA. Сообщество r/LocalLLaMA активно тестирует совместимость, и результаты пока неоднозначные.
Что дальше
Если Intel удастся наладить стабильную поддержку в основных inference-фреймворках, Arc Pro B70 может стать первой по-настоящему бюджетной картой для серьёзной работы с LLM. Конкуренция с AMD, которая тоже метит в сегмент AI с большими объёмами VRAM, только подстёгивает ценовую гонку — и это хорошо для всех, кто запускает модели локально.
