Google Lens er udvidet med nye filtre til menuer og køb
Indholdsfortegnelse:
Tidligere på måneden annoncerede Google nye filtre til Google Lens. Disse nye tilføjelser ville give os mulighed for at analysere vores omgivelser med vores telefon og give os data lige så værdifulde som menuen på en restaurant eller dens mest populære retter, for eksempel. Disse funktioner er begyndt at nå ud til brugerne omend med et lille redesign.
Den nye Google Lens-grænseflade kan tilgås via Google Assistant eller direkte fra Google Fotos. Vi kan nu få adgang til 5 nye tilstande, der kan vælges ved hjælp af en vandret rulle.I disse nye tilstande har vi mulighederne: automatisk, oversættelse, tekst, indkøb og måltider.
Google Lens tilføjer nye tilstande med kunstig intelligens ligesom andre mærker
Dette er slet ikke nyt, da vi allerede har set lignende betjening i assistenter fra andre firmaer som Huawei eller Samsung Operationen faktisk ligner det meget. Den automatiske tilstand kan analysere, hvad vi ser, og identificere det, selvom det ikke vil være den mest nøjagtige af alle. I de næste to giver oversættelsestilstanden os mulighed for at få en tekst på vores sprog i re altid, og teksttilstanden er designet til at eksportere bogstaver fra den virkelige verden til vores smartphone uden at skulle skrive dem.
Endelig kan indkøbs- eller spisemåderne analysere produkterne yderligere.Shopping-tilstand er i stand til genkende objekter gennem deres former eller endda deres stregkoder. Hvad madmuligheden gør, er at give os menuerne på visse restauranter, selvom virksomhederne skulle have forberedt sig først.
Linsemuligheder er fantastiske, men mange virksomheder er ikke klar
Disse tilstande vises i en lille karrusel nederst på skærmen, og knappen til at tage billeder skal ikke trykkes ned, Google Lens begynder at virke, så snart den registrerer et objekt foran kameraet. En anden af de interessante muligheder for denne software er, at den kan analysere de billeder, vi allerede har i galleriet, og ikke kun de billeder, som vi fokuserer på med kameraet. Det er også muligt kun at vælge et stykke af billedet og analysere det, hvis ikke hele fotografiet er vigtigt.
Dette nye redesign af Google Lens er tilgængeligt for folk, der bruger Google 9.91 beta, det ser ud til at være eksklusivt for Pixel-telefoner, men det er også allerede blevet testet på nogle Samsung-telefoner. Den vil snart være tilgængelig for alle som angivet af 9to5Google.
