Google logo

Gemma 3n E2B Instructed

Мультимодальная
Google

Gemma 3n — это мультимодальная модель, предназначенная для локального запуска на оборудовании, поддерживающая входные данные в виде изображений, текста, аудио и видео. Она включает языковой декодер, аудиокодер и визуальный кодер и доступна в двух размерах: E2B и E4B. Модель оптимизирована для эффективного использования памяти, что позволяет ей работать на устройствах с ограниченным объемом GPU RAM. Gemma — это семейство легковесных, современных открытых моделей от Google, созданных на основе тех же исследований и технологий, которые использовались для создания моделей Gemini. Модели Gemma хорошо подходят для различных задач понимания контента, включая ответы на вопросы, суммаризацию и логические рассуждения. Их относительно небольшой размер позволяет развертывать их в условиях с ограниченными ресурсами, таких как ноутбуки, настольные компьютеры или собственная облачная инфраструктура, демократизируя доступ к передовым моделям ИИ и способствуя инновациям для всех. Модели Gemma 3n разработаны для эффективного выполнения на устройствах с ограниченными ресурсами. Они способны обрабатывать мультимодальные входные данные, работая с текстом, изображениями, видео и аудио, и генерируя текстовые выходные данные, с открытыми весами для вариантов, настроенных по инструкциям. Эти модели были обучены на данных более чем на 140 разговорных языках.

Основные характеристики

Параметры
8.0B
Контекст
-
Дата выпуска
26 июня 2025 г.
Средний балл
33.7%

Временная шкала

Ключевые даты в истории модели
Анонс
26 июня 2025 г.
Последнее обновление
19 июля 2025 г.
Сегодня
31 августа 2025 г.

Технические характеристики

Параметры
8.0B
Токены обучения
11.0T токенов
Граница знаний
1 июня 2024 г.
Семейство
-
Возможности
МультимодальностьZeroEval

Результаты бенчмарков

Показатели производительности модели на различных тестах и бенчмарках

Общие знания

Тесты на общие знания и понимание
MMLU
Точность. 0-shot.Self-reported
60.1%

Программирование

Тесты на навыки программирования
HumanEval
pass@1. 0-shot.Self-reported
66.5%
MBPP
pass@1. 3-shot. Показатель pass@1 с 3 примерами.Self-reported
56.6%

Математика

Математические задачи и вычисления
MGSM
0-shot Zero-shot означает, что мы оцениваем производительность модели по задаче без каких-либо примеров того, что требуется. Это самый строгий вид тестирования производительности, поскольку он измеряет, насколько хорошо модель может напрямую применять свои базовые знания к новой задаче. Примеры использования подхода zero-shot: - Задавать модели прямые математические вопросы, не показывая предварительно другие примеры - Оценивать способности к рассуждению путем представления новых головоломок - Запрашивать анализ текста без примеров того, как следует его анализировать Основное преимущество zero-shot состоит в том, что он демонстрирует способность модели генерализовать за пределы своих обучающих данных, хотя обычно результаты слабее, чем при предоставлении нескольких примеров.Self-reported
53.1%

Рассуждения

Логические рассуждения и анализ
GPQA
Diamond. 0-shot AI: не используются внешние инструменты, знания или модификации промпта. Это отражает базовые возможности модели. Набор точности: если модель отвечает «верно» или «правильно» на вопрос, ответ должен быть действительно верным. Ограничения: прямой непосредственный вывод без использования инструментов, расширенного мышления или дополнительных знаний из Интернета. Цель: оценить базовые способности модели генерировать ответы, не полагаясь на внешние инструменты или приемы. Это самая строгая форма оценки.Self-reported
24.8%

Другие тесты

Специализированные бенчмарки
AIME 2025
Точность. С нуля подсказок.Self-reported
6.7%
Codegolf v2.2
pass@1. 0-shot.Self-reported
11.0%
ECLeKTic
0-shot В нулевой точке (0-shot) LLM решает задачу без каких-либо примеров того, как выполнить эту задачу. Демонстрации и руководства не предоставляются; модель не видит, как выполнять похожие задачи. В этом сценарии LLM использует свои внутренние представления для генерации разумных ответов, не получая прямых указаний или примеров того, как именно следует решать поставленную задачу. Такой подход называется 0-shot (нулевой точкой), потому что модель должна генерировать ответы без опыта выполнения конкретных задач. Этот метод оценивает базовые способности LLM использовать свои внутренние знания без дополнительного обучения или подсказок.Self-reported
2.5%
Global-MMLU
0-shot AI: нет исходных данных. Отвечает непосредственно на запрос пользователя, без каких-либо примеров того, как решать проблему или какие задачи выполнять. Плюсы: • Это самый общий метод: показывает, что модель может сделать без какой-либо конкретной помощи • Оценивает способность модели следовать базовым инструкциям Минусы: • Обычно дает наихудшие результаты среди всех методов в сложных задачах • Не демонстрирует полную способность модели решать задачи • Может не отражать то, как пользователи фактически используют LLM (так как пользователи могут давать примеры)Self-reported
55.1%
Global-MMLU-Lite
Точность. 0-shot.Self-reported
59.0%
HiddenMath
Точность. 0-shot.Self-reported
27.7%
Include
Без предварительной подготовкиSelf-reported
38.6%
LiveCodeBench
pass@1. Выполнение с первой попытки.Self-reported
13.2%
LiveCodeBench v5
pass@1. 0-shot.Self-reported
18.6%
MMLU-Pro
Точность. 0-shot.Self-reported
40.5%
MMLU-ProX
В данном методе модели предлагается проблема без какого-либо предварительного контекста. Это наиболее распространенный и базовый способ оценки моделей, который измеряет их естественную производительность в условиях, когда они опираются исключительно на знания, полученные во время предварительного обучения. Отсутствие дополнительных примеров, контекста или подсказок означает, что результаты в этом режиме могут быть ниже по сравнению с другими методами, особенно для задач, требующих специализированных знаний или следования определенному формату. В этом подходе общая инструкция остается минимальной и прямолинейной, чтобы избежать любого непреднамеренного подталкивания к решению.Self-reported
8.1%
OpenAI MMLU
0-shot AI: Решите задачу, используя только полученные инструкции. Человек: Решите эту проблему. ИИ: [решение, которое обычно приводит к неправильным ответам] Человек: Это решение неверно. AI Thinking AssistantSelf-reported
22.3%
WMT24++
Character-level F-score. 0-shot.Self-reported
42.7%

Лицензия и метаданные

Лицензия
proprietary
Дата анонса
26 июня 2025 г.
Последнее обновление
19 июля 2025 г.