Gemini Live: Когда ИИ видит ваш мир и советует убрать беспорядок
Тестирование Gemini Live от Google — ИИ, который не только видит и слышит, но и даёт советы, иногда слишком уверенно.

Встреча с ИИ, который не только понимает ваш мир через камеру смартфона, но и решает дать совет по уборке рабочего стола, — это опыт, который заставляет задуматься. Не столько о технологиях, сколько о нашей готовности принять такого «собеседника». Google представила Gemini Live — функцию, которая превращает ваш смартфон в окно, через которое ИИ наблюдает за вашей жизнью и, по мере возможности, пытается её улучшить.
Основанная на Project Astra, эта технология годами разрабатывалась в DeepMind. Теперь она доступна для пользователей Pixel 9 и Galaxy S25, а также для владельцев других Android-смартфонов с подпиской Gemini Advanced. За $20 в месяц вы получаете ИИ, который может распознавать объекты через камеру, давать советы и даже помогать с учебой.
Но что действительно поражает, так это способность Gemini Live к диалогу. Он не просто выдаёт информацию, но и умеет слушать, прерываться и даже задавать вопросы. Тестирование показало, что ИИ может распознавать произведения искусства, помогать с учебными материалами и даже давать советы по дизайну. Однако есть и проблемы: Gemini Live иногда «забывает» предыдущие темы разговора и может уверенно ошибаться.
Особенно заметны проблемы с неанглийскими языками. Попытки Gemini Live читать на хинди или урду часто превращаются в неразборчивую мешанину звуков. Это напоминает нам, что, несмотря на все достижения, ИИ ещё далёк от совершенства.
Gemini Live — это шаг в будущее, где смартфоны становятся ещё более интеллектуальными помощниками. Но пока это будущее ещё не наступило, и нам предстоит пройти долгий путь, прежде чем ИИ станет по-настоящему надёжным компаньоном.