Sådan korrigerer Google fotografier med en vidvinkellins
Indholdsfortegnelse:
- Sådan fungerer Googles algoritme
- Automatisk korrektion under hensyntagen til konteksten
- Måske vil vi se denne teknologi i Pixel
Forskere fra Google og MIT udviklede en algoritme, der søger at rette op på manglerne ved vidvinkelskud.
Du har måske set, at ansigterne på nogle mennesker ser strakte, let sammenpressede eller med en vis forvrængning på fotos. Selvom det kan skyldes fotografens få færdigheder, er sandheden, at billeder med vidvinkellinsen fra mobile enheder normalt forårsager forvrængning i objekter eller mennesker, der er på billedets kant.
Der er forskellige metoder, der forsøger at løse dette problem, men indtil videre har ingen været så effektive som Googles nye forslag. Selvom det kan synes let at rette, er det ikke, da det kræver kompleks lokal redigering, der ikke påvirker resten af objekterne på billedet.
Sådan fungerer Googles algoritme
Som forskerne forklarer, registrerer denne algoritme ansigter og skaber et maske, der gør det muligt automatisk at vende denne type forvrængning, når man tager et skud med en vidvinkel som illustreret i billedet:
Vi kan se forskellen, når vi anvender denne algoritme i de følgende billeder. Det er en selfie, der er taget med en vidvinkellins med et synsfelt på 97 °.
Det første billede viser forvrængningerne i ansigterne, og det andet viser, hvordan algoritmen gendannede ansigtsformerne til deres oprindelige tilstand.
Det vil sige, denne proces aktiveres automatisk, når du bruger vidvinkellinsen, hvilket giver denne specielle hjælp til ansigter, men uden at forårsage ændringer i resten af billedet. Og selvfølgelig gør hastigheden af denne automatiske korrektion (ca. 920 millisekunder) det umuligt for brugerne at opdage.
Ifølge deres tests fungerer denne algoritme med succes inden for området 70 ° til 120 ° i synsfeltet og dækker næsten alle muligheder fra en mobilenhed.
For at udnytte potentialet i denne algoritme behøver brugeren ikke at foretage sig noget eller aktivere nogen speciel kameratilstand. Denne funktion implementeres kun automatisk, når den registrerer, at vidvinkellinsen bruges.
Automatisk korrektion under hensyntagen til konteksten
Vi kan se dynamikken i denne algoritme i følgende video:
Algoritmen korrigeres automatisk under hensyntagen til resten af objekterne, der vises på scenen, hvilket får hele konteksten til fotografiet til at falde sammen. Resultaterne er naturlige uden detaljer, der viser, at fotografiet overhovedet er blevet ændret.
Holdet bag dette projekt har delt et fotogalleri på Flickr, der viser, hvordan forskellige metoder løser dette problem sammenlignet med dynamikken i deres algoritme. Der er mere end 160 fotografier (som den, du ser i begyndelsen af artiklen), der hjælper os med at evaluere resultaterne.
Måske vil vi se denne teknologi i Pixel
Vi kunne håbe, at denne algoritme eller en afledt teknologi vil blive anvendt i den næste generation af Pixel, da teamet, der deltager i dette projekt, er Google-medarbejdere.
Men i det dokument, de har delt, har de ikke nævnt noget om det. Disse første test af algoritmen i aktion har været en succes, der endnu engang viser, hvordan potentialet for kunstig intelligens kan forbedre dynamikken i mobile enheder og gøre livet lettere for brugerne.
Da det uden tvivl ville have en lignende dynamik i vores mobile enhed, ville det spare meget hovedpine og tid på at forsøge at redigere disse forvrængninger på fotografierne.
