Open WebUI + нативный Tool Calling: агенты без облака
Open WebUI добавил нативный Tool Calling и терминал-песочницу. Вместе с Qwen3.5 это даёт полноценные агентные рабочие процессы на локальной машине.
Open WebUI, open-source интерфейс для локальных языковых моделей с 126 тысячами звёзд на GitHub, добавил поддержку нативного Tool Calling. Модели теперь могут вызывать внешние инструменты напрямую через API, а не через промпт-инженерию. Вместе с новым докеризованным терминалом это превращает локальную машину в полноценную агентную платформу.
Что произошло
До сих пор Open WebUI работал с инструментами в режиме Default Mode — модель получала описание доступных функций через системный промпт и генерировала текстовые вызовы, которые парсились на стороне клиента. Это работало, но ненадёжно: модели путались в форматах, галлюцинировали названия функций, а отладка превращалась в мучение.
Новый Native Mode использует стандартный механизм tool calling, встроенный в API совместимых моделей. Модель получает схему инструментов как часть запроса и возвращает структурированные вызовы — точно так же, как это делают Claude или GPT через облачные API. Разница в том, что всё работает локально.
Параллельно появился Open Terminal — докеризованная песочница с файловым браузером и canvas для рендера. Модель может выполнять код, работать с файлами и визуализировать результаты в изолированной среде, без риска для хост-системы.
На Reddit пользователь описал связку Open WebUI + Qwen3.5 35B + Ollama и назвал результат «стеком, который делает агентные рабочие процессы жизнеспособными на одной машине». Сообщество LocalLLaMA отреагировало восторженно — пост собрал сотни комментариев за первые сутки.
Почему это важно
Агентные возможности до сих пор были привилегией облачных сервисов. Claude Code требует подписки на Anthropic, ChatGPT Codex работает через серверы OpenAI. Open WebUI с нативным Tool Calling ломает эту зависимость: модель вроде Qwen3.5 35B, запущенная через Ollama, llama.cpp или vLLM, получает те же агентные возможности — вызов функций, выполнение кода, работу с файлами — без единого запроса в облако.
Для компаний это ещё и вопрос приватности. Весь цикл — от запроса до выполнения инструмента — остаётся на локальной машине. Ни одна строка кода не покидает периметр.
Что дальше
Open WebUI продолжает двигаться в сторону полноценной агентной платформы. С ростом качества локальных моделей и падением цен на память грань между облачным и локальным AI размывается всё сильнее. Нативный Tool Calling — очередной шаг к тому, чтобы эта грань исчезла окончательно.
