Logo pl.androidermagazine.com
Logo pl.androidermagazine.com

W przypadku piksela 2 Google podwaja się w przypadku pojedynczej kamery

Anonim

Istnieje wiele interesujących aspektów Google Pixel 2 i Pixel 2 XL, ale jeden z najciekawszych jest również najmniej kontrowersyjny: Google trzyma się jednego tylnego aparatu.

Każdy znaczący producent telefonów, od Apple przez Samsunga po LG i Huawei, w ciągu ostatnich lat zmienił się w flagowy model z podwójnym aparatem. Chociaż implementacja różni się w zależności od telefonu - drugiego czujnika monochromatycznego lub obiektywu szerokokątnego, lub zdolności teleobiektywu / portretu - strategia jest taka sama: uzupełnij główną strzelankę o dodatkową funkcjonalność, starając się wyróżnić z szybko dojrzewającego pola konkurentów, a te z kolei sprzedają więcej telefonów.

Google chce, aby ludzie robili świetne zdjęcia za każdym razem, i wykorzystuje swoją wiedzę specjalistyczną w zakresie oprogramowania, aby mieć pewność, że tak się stanie.

W przypadku Pixel 2 i Pixel 2 XL Google robi dokładnie odwrotnie. Podwaja się w stosunku do pojedynczego aparatu i inwestuje znaczne środki w rozwiązania programowe, aby zwiększyć naturalne możliwości czujnika 12MP. Jasne, zarówno Pixel 2, jak i Pixel 2 XL korzystają z nowego fizycznego sprzętu, w tym przypadku dodano optyczną stabilizację obrazu, a także szerszy, szybszy obiektyw f / 1.8, ale wszelkie efekty portretowe, redukcję szumów z zoomem cyfrowym lub ściśle - zszywane panoramy są wykonywane przy użyciu coraz potężniejszego i niesamowicie imponującego pakietu narzędzi programowych Google sprzedawanych pod przykrywką „fotografii obliczeniowej”.

Jak pokazał Google w trybie HDR + Pixela pierwszej generacji, fotografia obliczeniowa ma rzeczywiste zalety. Oczywiście większość producentów, od Apple po Samsung, angażuje oprogramowanie, aby w pewnym stopniu wpływać na wydajność zdjęć, ale strategia Google polega na całkowitym złagodzeniu wad tylko jednego czujnika - a nawet na przelaniu wszystkich jego zasobów na tę jedną ścieżkę cyfrową - poprzez linie kodu. I chociaż HDR + istnieje w linii Nexus aż do Nexusa 5 z 2013 roku, dopiero w 2016 roku z Pixelami szybkość sprzętowa osiągnęła ambicję oprogramowania. W 2014 roku, wraz z Nexusem 6, Phil Nickinson napisał o aparacie ponadgabarytowego telefonu:

Znów zrobiłem kilka naprawdę dobrych ujęć w słabym świetle. I dostałem kilka naprawdę złych.

Tryb Google HDR + pomaga w tym, zapewniając nieco lepszą równowagę. Ale to także uwidacznia naszą główną wadę z aplikacją aparatu. To jest po prostu wolne. Uruchomienie od zimnego startu wymaga więcej niż kilku uderzeń, a nawet gorzej, jeśli nie uda się go uruchomić przy pierwszej próbie ze skrótu na ekranie blokady. Możesz też zrobić zdjęcie HDR +, a następnie poczekać dobre 5 lub 10 sekund na zakończenie przetwarzania, zanim będziesz mógł stwierdzić, czy musisz zrobić kolejne.

Ten frustrujący czas oczekiwania stał się mniej znaczący w 2015 roku dzięki Nexusowi 6P i znacznie bardziej tolerowany przez Pixels. Dzisiaj, gdy celujesz i strzelasz z Pixel lub Pixel XL, możesz bezpiecznie pozostawić HDR + włączony, ponieważ przetwarzanie jest praktycznie natychmiastowe. A zdolności przetwarzania są znacznie lepsze; HDR + poprawia, wygładza odcienie skóry na portrecie, rejestruje intensywność słonecznego dnia, odpowiednio eksponuje delikatny zachód słońca i uwypukla szczegóły w słabym świetle.

Jednym z powodów, dla których Pixel radzi sobie o wiele lepiej w tych rzeczach niż Nexus 6P, zanim stało się to dzięki ścisłemu nadzorowi Google nad sprzętem i oprogramowaniem; chociaż firma nie buduje własnych telefonów, poświęciła dużo czasu na współpracę ze swoimi partnerami sprzętowymi HTC i Sony, aby idealnie dostroić aparat do swojego oprogramowania.

Teraz, gdy jest już dostępny Pixel 2, będziesz mógł używać trybu portretowego, który rozmywa tło. Ale, podobnie jak HDR + ze zdjęciami przy słabym świetle, potrzebujesz do tego tylko jednego obiektywu.