GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
googlegeminiandroidagentsautomation

Gemini научился заказывать такси и еду — Google запускает агентный режим на Android

Google запустила автоматизацию задач в Gemini для Galaxy S26: ИИ самостоятельно открывает Uber и DoorDash, оформляет заказ и ждёт вашего подтверждения.

Влад МакаровВлад Макаровпроверил и опубликовал
3 мин чтения

Google начала массовый выкат функции автоматизации задач в Gemini — сначала для владельцев Samsung Galaxy S26. Ассистент теперь умеет самостоятельно открывать приложения, нажимать на нужные кнопки и оформлять заказы, пока пользователь занимается другими делами.

Что произошло

Анонс состоялся ещё в конце февраля, но 12 марта функция начала реально появляться у владельцев Galaxy S26 серии в США и Южной Корее. Работает это так: вы говорите Gemini «закажи мне кофе в Starbucks, как обычно», и ассистент запускает приложение в защищённом виртуальном окне, нажимает на знакомые кнопки и ставит заказ на паузу перед оплатой — ждёт вашего подтверждения.

В закрытом виртуальном окне Gemini изолирован от остального телефона: он не видит другие приложения и не имеет доступа к файлам. Пользователь может наблюдать за процессом в реальном времени — буквально видеть, как ИИ скроллит и тапает — или свернуть и заниматься своим. Уведомления приходят в ключевые моменты: когда нужно подтвердить действие или когда что-то пошло не так.

На старте работают шесть приложений: Lyft, Uber, Grubhub, DoorDash, Uber Eats и Starbucks. Instacart обещан в ближайшее время. Google говорит, что расширение на другие сервисы продолжится в течение года.

Почему это важно

Это принципиально другой класс задач по сравнению с тем, что делали голосовые ассистенты раньше. Google Assistant или Siri могут запустить приложение и выполнить одно простое действие — но только если разработчик специально это реализовал через API. Gemini работает иначе: он видит экран и взаимодействует с интерфейсом так, как это делает человек. Это означает, что теоретически метод масштабируется на любое приложение с понятным UI.

Пока действительно сложных задач система не берёт — только несколько заученных сценариев с партнёрскими приложениями. Но прецедент создан: агент на телефоне перестал быть демо-роликом конференции и стал реальной функцией, которую можно включить прямо сейчас.

Конкуренты не стоят на месте: Apple Intelligence обещает похожую интеграцию в iOS 20 в конце этого года, а OpenAI уже показала Computer Use для десктопа. Гонка агентов переходит с серверов на карман.

Что дальше

На Pixel 10 функция появится позже — без чёткой даты. Google также анонсировала персональные настройки: можно один раз задать предпочтения (только эконом в Uber, всегда без глютена), и ассистент будет их помнить без напоминаний.

Следующий логичный шаг — многошаговые цепочки через несколько приложений. Забронировать ресторан, вызвать такси туда и напомнить партнёру о встрече — всё одной командой. Пока это фантазия, но архитектура, которую описывает Google, именно к этому и ведёт.

Похожие новости

Листайте вниз

для загрузки следующей статьи