Autoportrety portretowe to obecnie moja ulubiona rzecz w smartfonach. Czuję, jak twoje oczy przewracają się, gdy to czytasz, ale wysłuchaj mnie przez chwilę. Na poziomie technicznym obserwujemy ogromny nacisk na poprawę jakości przedniego aparatu przy jednoczesnym stosowaniu map głębi i korekcji kolorów, dzięki czemu zdjęcie można natychmiast przekształcić w coś nowego. To fascynujące i zabawne, a na początku tej funkcji istniejącej na smartfonach istnieją dwa bardzo różne sposoby tworzenia tego efektu.
Kamera True Depth firmy Apple jest wyposażona w wiele czujników do tworzenia mapy głębokości w czasie rzeczywistym na iPhonie X. Rozwiązanie Google opiera się całkowicie na uczeniu maszynowym i imponującej pojedynczej kamerze, aby osiągnąć ten sam efekt na Pixel 2. Oto spojrzenie na te dwie metody porównać!
Pierwszą rzeczą, którą musisz zrozumieć, porównując te aparaty, jest to, że Apple i Google priorytetowo traktują wytwarzane zdjęcia. Wiemy na poziomie technicznym, że te dwa telefony mają teraz najlepsze na świecie możliwości robienia zdjęć, z jedyną różnicą w odczycie dla większości osób, która część zdjęcia i jakie funkcje mają pierwszeństwo.
Na tych zdjęciach szybko stają się widoczne dwie rzeczy. Tło na zdjęciu iPhone'a X jest zdmuchnięte, aby upewnić się, że moja twarz jest dobrze oświetlona i odpowiednio pokolorowana. Tło na zdjęciu Pixel 2 jest lepiej zrównoważone z resztą zdjęcia dzięki HDR + Google'a, ale w rezultacie moja twarz jest wyraźnie ciemniejsza i przybiera lekko czerwonawy odcień, którego nie widać na drugim zdjęciu.
Istnieją również znaczne różnice w tym efekcie rozmycia używanym do tworzenia autoportretów portretowych. Oprogramowanie Google stosuje bardziej agresywne rozmycie i sprawia, że niedoskonałości na mapie głębokości wyróżniają się dość mocno. Wygląda prawie jak wycięta naklejka mojego zdjęcia. Niebieski Apple jest trochę bardziej naturalny, dopóki nie dojdziesz do moich włosów, a moje części zaczną wyglądać trochę nieostro. Żadne z tych ujęć naprawdę nie „przygwoździ” obrazu z powodu ich wad, ale wady są na tyle subtelne, że masz parę fajnych zdjęć.
Oto kolejny przykład, tylko że tym razem jest to strzał na zewnątrz powiększony w 100%.
Ta para zdjęć zawiera wiele takich samych wniosków. Apple lepiej oświetla moją twarz, w szczególności oczy, a Google lepiej oświetla tło i sprawia, że całe zdjęcie jest bogatsze. Rozmycie Apple rozciąga się zbyt głęboko na moje włosy i sprawia, że część mnie wygląda na nieostre, podczas gdy rozmycie Google jest tak poważne, że w rzeczywistości zedytowało niektóre z moich włosów, które wystawały nie na miejscu. Bez trybu portretu jest jasne, że iPhone X zrobił lepsze zdjęcie, ale z włączonym trybem zdjęć łatwiej jest docenić działanie oprogramowania Google.
Apple i Google wydają się podchodzić do tej techniki fotograficznej z przeciwnych kierunków i wydaje się prawdopodobne, że to, co zobaczymy w niezbyt odległej przyszłości, jest rodzajem spotkania w środku.
Oba te tryby zdjęć mają pewne naturalne ograniczenia, szczególnie we wczesnych dniach. IPhone X będzie migał ostrzeżenia w trybie pionowym, jeśli tło jest zbyt jasne lub jeśli obiekty w tle znajdują się zbyt daleko, aby zrobić odpowiednią mapę głębokości. Algorytm Google ma nieprzyjemny zwyczaj edytowania rogów okularów korekcyjnych lub obiektów na pierwszym planie, które nie są przymocowane do osoby. Jest trochę prób i błędów, aby oba działały poprawnie, co teoretycznie z czasem staje się rzadsze, gdy Apple i Google nadal ulepszają tę technologię.
Największą rzeczą, jaką Apple ma teraz nad Google w tym trybie portretu, musi być oświetlenie portretowe. Możliwość edycji zdjęć w czasie rzeczywistym podczas robienia zdjęcia to wielka sprawa, a możliwość kontynuowania edycji oświetlenia portretowego po zrobieniu zdjęcia jest niesamowita. Obecnie jest to bardzo trafiona lub nieudana funkcja, szczególnie gdy zaczynasz patrzeć na oświetlenie sceniczne, ale teraz nie ma tego tylko iPhone.
Podczas edycji zdjęć Google ma coś, czego Apple obecnie nie ma i prawdopodobnie powinno. Gdy zrobisz zdjęcie w trybie portretowym za pomocą Pixela 2, otrzymasz parę zdjęć. Jedno zdjęcie jest edytowane z rozmytymi obszarami, a drugie to zwykłe selfie z przednim aparatem. Daje to możliwość edycji obu zdjęć i sprawdzenia, które preferujesz. Apple przechowuje wszystko jako jedno zdjęcie, co moim zdaniem jest nieco mniej wygodne, aby zobaczyć zmiany między tymi dwoma trybami. Z drugiej strony jest to o jedno zdjęcie mniej w Rolce z aparatu, więc jest to prawdopodobnie tylko osobiste preferencje.
Wiele mówi się o „właściwym” sposobie robienia zdjęć, a jeszcze więcej o zaletach dokładności kolorów i skuteczności funkcji. Apple i Google wydają się podchodzić do tej techniki fotograficznej z przeciwnych kierunków i wydaje się prawdopodobne, że to, co zobaczymy w niezbyt odległej przyszłości, jest rodzajem spotkania w środku. W tej chwili nie jest od razu jasne, że podejście sprzętowe Apple jest znacznie lepsze niż podejście Google do selfie portretowego. Wszystkie rzeczy, które sprawiają, że aparat iPhone X robi świetne selfie, już istnieją na iPhone'ach 8 i 8 Plus. Jednocześnie nie jest jasne, o ile lepiej Google może zrobić oprogramowanie do edycji zdjęć za pomocą jednego aparatu i preferencji oświetlenia dla całego zdjęcia zamiast twarzy.
Jedno jest absolutnie jasne - nie jesteśmy pod koniec Apple i Google, oferując nam więcej i lepsze funkcje selfie.