Gemma-4-E2B молчит, когда страшно: фильтры ломают экстренные сценарии
Локальная Gemma-4-E2B блокирует первую помощь, юридические и медицинские запросы. Сценарий «оффлайн-помощник в кризисе» от Google не работает.

Представьте: связи нет, скорая едет час, у человека рядом проблемы с дыханием. На телефоне — оффлайн-модель Gemma-4-E2B от Google, специально предназначенная для таких сценариев. Вы пишете «как сделать экстренное восстановление дыхательных путей» — и получаете «hard refusal». Именно такой кейс описал на этой неделе автор поста в r/LocalLLaMA, набравшего больше трёхсот апвоутов. Ответ один и тот же на десятки сценариев: «обратитесь к специалисту». Когда специалиста нет — модель бесполезна.
Что произошло
Автор поста тестировал Gemma-4-E2B-it — облегчённую 2-миллиардную версию для запуска на телефоне или ноутбуке без интернета — как помощника по подготовке к экстренным ситуациям. Идея простая: маленькая локальная модель отвечает там, где не работает облачный ChatGPT, например в туристическом походе, в зоне стихийного бедствия или в сельской местности.
Реальность оказалась другой. По описанию автора, модель уходит в «hard refusal» почти на каждый запрос, выходящий за рамки бытовой беседы. Первая помощь — отказ объяснить процедуру восстановления дыхательных путей даже при пометке «крайний случай». Юридические вопросы — отказ. Медицинские дозировки — отказ. Сценарии безопасности при природных катастрофах — частично работают, частично нет. Иными словами, всё то, ради чего локальная модель и нужна.
Что отказывается обсуждать:
- Процедуры экстренной первой помощи
- Дозировки безрецептурных лекарств
- Правовая первая помощь в острых ситуациях
- Самооборона, действия при нападении
- Многие сценарии выживания
Ирония в том, что официальная карточка модели на Hugging Face утверждает обратное: «Gemma 4 значительно превосходит Gemma 3 и 3n по безопасности, при этом удерживая необоснованные отказы на низком уровне». На бумаге это так, по тестам Google — тоже. Но «низкий уровень» считается на распределении среднего пользователя, а не на распределении человека в кризисе.
Почему это важно
Здесь важна не сама модель, а сценарий, который она якобы закрывает. Google продвигает Gemma 4 E2B как ответ на запрос про оффлайн-AI: «вот лёгкая модель, запускайте на телефоне, она работает без сети». Но если фильтры безопасности зашиты так агрессивно, что блокируют именно те запросы, ради которых оффлайн-модель и нужна, — то это не оффлайн-помощник, а оффлайн-чат для болтовни о погоде.
История повторяется. Точно такой же спор был вокруг Llama Guard, ShieldGemma и встроенных safety-слоёв OpenAI: слишком агрессивная защита превращает модель в «ассистента, который ничего не помогает». Именно из-за этого в комьюнити уже появился gemma-4-E2B-it-Uncensored-MAX — fine-tune без guardrails — и OBLITERATUS, open-source-инструмент для удаления safety-слоёв из весов модели. Когда юзеры массово ищут способы снять защиту, это сигнал, что баланс между безопасностью и полезностью смещён не туда.
Для Google это удар по позиционированию. Gemma 4 — флагман open-weight стратегии компании, и кейс «оффлайн в экстренной ситуации» был одним из самых показательных. Если в пиар-материалах остаётся «локальная модель спасает в походе», а на практике она отказывается обсуждать СЛР, это выглядит как маркетинг, оторванный от реального продукта.
Что дальше
Ожидаемо появится либо официальная Google-версия с менее жёсткими фильтрами для медицинских и emergency-сценариев (как у Med-PaLM), либо комьюнити окончательно нормализует abliterated-варианты модели как стандарт для оффлайн-сценариев. И первый, и второй вариант — плохие новости для всей индустрии safety: они показывают, что подход «один фильтр для всех контекстов» не работает, и что либо нужны контекстно-зависимые ослабления, либо пользователи просто будут массово удалять защиту.

