GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
qwenopen-sourcelocalllamauncensoredggufabliteration

Qwen3.5-35B-A3B без ограничений: 675 апвоутов и 0 отказов на тесте из 465 запросов

Два разработчика выпустили uncensored-версии Qwen3.5-35B-A3B через аблитерацию. Вместе — больше 54 000 загрузок в месяц. MoE-архитектура работает на 22 ГБ RAM.

Влад МакаровВлад Макаровпроверил и опубликовал
3 мин чтения

675 апвоутов на r/LocalLLaMA и почти 55 000 совокупных загрузок в месяц — так сообщество встретило два параллельных релиза, снявших ограничения с Qwen3.5-35B-A3B.

Что произошло

Базовая модель Qwen3.5-35B-A3B вышла 24 февраля 2026 года: MoE-архитектура с 35B суммарными параметрами и только 3B активными на каждый проход, 262K токенов контекста, нативная мультимодальность (текст, изображения, видео), Apache 2.0. По бенчмаркам — MMLU-Pro 85.3, GPQA Diamond 84.2, SWE-bench Verified 69.2%, MMMU 81.4. Сильная модель.

Два независимых разработчика почти одновременно взялись убрать ограничения. HauhauCS (автор hauhau901 на Reddit) выпустил вариант Aggressive через аблитерацию весов — метод, при котором из модели удаляются направления отказа без дополнительного обучения. Заявленный результат: 0 отказов из 465 проверочных запросов. huihui-ai использовал открытый инструмент remove-refusals-with-transformers и выпустил вариант abliterated с поддержкой через Ollama.

Как запустить

Q4_K_M весит 20 ГБ и требует соответствующего VRAM. IQ4_XS в 16–18 ГБ влезает на RTX 3090/4090 с 24 ГБ. Вариант IQ3_S/IQ3_M на 12–16 ГБ — для RTX 4080. На Mac с 22 ГБ унифицированной памяти тоже работает: MoE активирует только ~3B параметров на шаг, поэтому модель очень быстрая несмотря на суммарные 35B.

Через Ollama: ollama run huihui_ai/qwen3.5-abliterated:35b (требует Ollama v0.17.5+).

Для vision-функций нужен отдельный mmproj-файл весом 858 МБ.

Почему важно читать мелкий шрифт

Оба варианта пока не получили независимого бенчмаркинга конкретно в версии 35B-A3B. Аналитик Benjamin Marie ранее проверял 9B-вариант Qwen3.5 и нашёл, что популярные abliterated GGUF значительно уступают стандартному Q4_K_L по точности — аблитерация при сохранении качества технически сложна. HauhauCS заявляет о "нулевых потерях способностей", но это пока самооценка без верификации третьей стороной.

Что дальше

HauhauCS анонсировал Balanced-вариант — для тех, кто хочет меньше ограничений, но не полное их отсутствие. Планируется GPTQ-формат. Unsloth обновили Dynamic 2.0 квантизации 3 марта: они сохраняют важные слои в 8-bit внутри 4-bit квантизации, что теоретически снижает потери при аблитерации.

Для r/LocalLLaMA это один из самых обсуждаемых релизов марта: пересечение мощной базовой модели, эффективной MoE-архитектуры и агрессивного uncensored-варианта — интересная комбинация для тех, кто запускает локальные задачи без облачных ограничений.

Похожие новости

Листайте вниз

для загрузки следующей статьи