Fotó google

A Google ismét csavart egyet az AI-forradalmon, és beizzította a Gemini Live új funkcióit, amelyek konkrétan azt jelentik: a mesterséges intelligencia már nemcsak hallgat és válaszol, hanem lát és értelmez is. És ezt nem metaforikusan kell érteni – tényleg látja, mit mutatsz neki.

Az új funkciók a Pixel 9 és Galaxy S25 modelleken debütálnak, és lehetővé teszik, hogy a felhasználók valós időben osszák meg a képernyőjüket vagy bekapcsolják a kamerát, miközben a Gemini AI kontextusérzékenyen reagál arra, amit „lát”. Megnézed egy akváriumot? A Gemini felsorolja, milyen halak úszkálnak benne. Online vásárolsz? Mutatod a kosarad tartalmát, és ő stílust tanácsol, árakat összevet, sőt segít dönteni.

Külön figyelemre méltó, hogy a kameraalapú elemzés mellett a képernyőmegosztás is bekerült a repertoárba, így már nem kell screenshotokat készíteni, magyarázni, küldözgetni – elég, ha megosztod a kijelzőt, és az AI olvas, értelmez, segít. Ez egyfajta co-pilot deluxe élmény, csak most már nemcsak egy beszélgetőtárs, hanem egy „digitális szem” is társult hozzá.

A szolgáltatás jelenleg korlátozottan érhető el, de a Google ígérete szerint hamarosan más Android készülékekre is eljut – ott viszont már Gemini Advanced előfizetés kellhet hozzá. Ja, és ha még nem múltál el 18, vagy céges/iskolai fiókod van? Akkor várnod kell még.

Az üzenet egyértelmű: a Google nem csak versenyben van, hanem tempót diktál. Az AI most már nemcsak ír, beszél és rajzol. Most már néz is.

author avatar
Grabowsky
Hirdetés: Sport felszerelések

HOZZÁSZÓLOK A CIKKHEZ

Kérjük, írja be véleményét!
írja be ide nevét

This site uses Akismet to reduce spam. Learn how your comment data is processed.