Что показал Google на Android Show: I/O Edition
Тадаам. 12 мая мы узнали, что Android постепенно превращается из ОС в AI-платформу, где интерфейс и действия генерируются и координируются иишкой.
На знамёнах - “Gemini Intelligence”, то есть, новый слой над всем устройством.
Но обо всём по порядку.
1️⃣ Agentic AI - Android начинает действовать сам, вспоминая Цоя.
Gemini сможет выполнять цепочки действий между приложениями без ручного переключения пользователя.
Например:
- заказать еду - заполнить формы - организовать покупки - бронировать поездки - взаимодействовать с приложениями через естественный язык
2️⃣ Create My Widget - добро пожаловать, vibe coding.
Пользователь сможет буквально описать виджет текстом, а ИИ его создаст.
Например:
- “сделай минималистичный погодный виджет в стиле Nothing” - “хочу виджет задач с ретро-эстетикой” - “намути трекер тренировок как в sci-fi UI”
Представьте, какие монстры будут получаться, учитывая как по-разному люди в принципе формулируют свои мысли.
🧙♂️ Не путать с просто прикольными кастомными виджетами. Google тестирует массовую генерацию интерфейсов, а UI становится временным и персональным.
Вдобавок, код теперь будет генерироваться под конкретного пользователя.
3️⃣ Gemini обволакивает весь Android
Google фактически заменяет старую модель: вместо “Android + приложения” будет “Gemini + приложения в виде инструментов”
Например, Gemini сможет:
- понимать контекст экрана - взаимодействовать с third-party apps - выполнять действия между сервисами - работать на телефоне, на ноутбуке, в машине и т. д.
4️⃣ Интерфейс Android становится динамическим
Google также активно продвигает:
- Material 3 Expressive (эволюция дизайн-системы Material You) - виджеты, сгенерированные AI - UI-персонализация на базе AI
👮 По сути, Google убивает концепцию “app-centric computing”, то есть, больше будет не надо сначала открывать приложение, потом искать нужную кнопку и проходить сценарий по цепочке действий, в новой формуле вы описываете намерение/задачу, а AI сам решает, какие приложения для этого нужно открыть и что там сделать. Gemini = интерфейс.
💻 Что это означает для разработчиков приложений в перспективе?
Как минимум - потерю контроля на UX, это оочень интересный момент. В зону риска попадает и брендинг приложений.
Если кажется, что вы это где-то уже видели - не кажется. Google делает такие вещи не резко, вы ведь уже меньше переходите по сайтам из выдачи, например.
P. S. Как всегда, не без подводных камней.
Встаёт вопрос приватности, ведь чтобы работать как агент, Gemini должен видеть:
- экран - контекст - приложения - сообщения - формы - покупки - поведение
Стоит того? Кажется, что да, если вы не испытываете иллюзий касательно того, что о вас знает Большой Брат.
OpenAI хочет стать интерфейсом к интернету.
А Google всего лишь претендует на интерфейс к реальному устройству. И у них всего лишь уже есть вся инфраструктура для агентного AI, которой нет почти ни у кого.
=== Об интеграциях IT&AI в маркетинге пишу здесь https://t.me/syncralab ===