GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
intelgpuarc-provramлокальные-модели

Intel выпустила GPU с 32 ГБ VRAM за $949

Intel Arc Pro B70 — первая видеокарта с 32 ГБ VRAM дешевле $1000. Самая доступная карта для локального запуска больших языковых моделей.

Влад МакаровВлад Макаровпроверил и опубликовал
3 мин чтения
Intel выпустила GPU с 32 ГБ VRAM за $949

32 ГБ VRAM за $949 — это не опечатка. Intel выпустила Arc Pro B70, и для сообщества локальных LLM это, возможно, главная аппаратная новость весны. До сих пор самые доступные карты с 32 ГБ стоили заметно дороже, а большинство энтузиастов обходились 24 ГБ на RTX 4090 за $1 600+.

Что предлагает Intel

Arc Pro B70 построена на архитектуре Xe2 — той же, что лежит в основе потребительских Arc B570 и B580. Intel позиционирует карту как профессиональное решение и сравнивает с NVIDIA RTX Pro 4000, хотя конкретных бенчмарков пока не раскрыла.

Известные характеристики:

  • VRAM: 32 ГБ
  • Архитектура: Intel Xe2
  • Ядра: 32 Xe2 cores
  • Цена: от $949 (референсная карта)
  • Кастомные версии: Arkn, ASRock, Gunnir, Maxsun, Sparkle

Младшая модель Arc Pro B65 выйдет в середине апреля, но её цену Intel пока не объявила.

Почему это важно для AI

На Reddit пост об этой карте набрал больше 1 100 очков и 342 комментария — и почти все обсуждения крутились вокруг одного вопроса: можно ли на ней запускать LLM?

32 ГБ VRAM — это магический порог для локальных моделей. На 24 ГБ уже тесно для 70B-моделей даже с квантизацией, а 32 ГБ открывают доступ к полноценным версиям Qwen 3.6, Llama и других открытых моделей без агрессивного сжатия. С учётом того, что TurboQuant от Google обещает 6-кратное сжатие KV-кеша, связка «Arc Pro B70 + TurboQuant» может стать народным рецептом для запуска серьёзных моделей.

Есть, правда, нюанс: экосистема Intel для AI-инференса пока уступает NVIDIA. Поддержка CUDA-совместимых фреймворков через SYCL и oneAPI улучшается, но llama.cpp и другие инструменты работают на Intel GPU не так гладко, как на NVIDIA. Сообщество r/LocalLLaMA активно тестирует совместимость, и результаты пока неоднозначные.

Что дальше

Если Intel удастся наладить стабильную поддержку в основных inference-фреймворках, Arc Pro B70 может стать первой по-настоящему бюджетной картой для серьёзной работы с LLM. Конкуренция с AMD, которая тоже метит в сегмент AI с большими объёмами VRAM, только подстёгивает ценовую гонку — и это хорошо для всех, кто запускает модели локально.

Похожие новости

Листайте вниз

для загрузки следующей статьи