Google a anunțat în cadrul Google I/O 2025 extinderea funcționalităților Gemini Live și integrarea partajării camerei în noul AI Mode din Google Search. Funcția se numește Live Search și permite chatbotului AI să „vadă” prin intermediul camerei telefonului tău și să ofere răspunsuri în timp real cu privire la subiectul abordat. Această funcție va fi curând disponibilă și pe iOS. Mai jos avem detalii.
Până acum această opțiunea era disponibilă în mod exclusiv pe telefoanele Android, fiind integrată în suita Gemini. Live Search va fi integrat curând în motorul de căutare al companiei și va putea fi folosit inclusiv de utilizatorii de iPhone. Asta înseamnă că poți îndrepta camera telefonului tău spre câteva ingrediente, iar AI-ul îți poate spune ce rețetă să faci. De asemenea, îți poate da informații despre anumite obiecte, monede, monumente ce se află chiar în fața ta.
Pe Android, funcția a fost testată mai întâi pe Pixel 9 și Galaxy S25, dar a fost extinsă la toate device-urile compatibile în aprilie. Inițial, Google voia să o ofere doar prin abonamentul Gemini Advanced, dar pare că a renunțat la idee și a făcut funcția gratuită pentru toți utilizatorii. Acum, utilizatorii iOS beneficiază de același tratament.
În Google Search vom găsi funcția sub forma unui buton „Live”, alături de Google Lens. Funcția va fi lansată în variantă beta în această vară, mai întâi pentru utilizatorii din programul Labs. Alte funcții anunțate pentru AI Mode includ Deep Research (sistem de căutare mai complex, contextual) și un agent AI care poate acționa pe web în locul tău.