Logo pl.androidermagazine.com
Logo pl.androidermagazine.com

Sześć miesięcy później obiektyw Google nadal nie jest świetny

Anonim

Dla firmy, której celem jest bycie wykresem wiedzy dla całej planety, usługi AI oparte na obrazie są oczywistą rzeczą dla Google, która chce mieć rację. A dla każdego, kto korzysta ze Zdjęć Google w ciągu ostatnich kilku lat, wiesz, że poczyniono ogromne postępy w ulepszaniu tych możliwości. Rozpoznawanie twarzy i obiektów w Zdjęciach Google może być niesamowite, a korzystanie z tych funkcji w prawdziwym świecie może przynieść wiele korzyści. Niesamowite jest oferowanie kamery z możliwością szybkiego identyfikowania witryn sklepowych i znaków drogowych tylko dla osób niedowidzących.

Google Lens zmierza w dobrym kierunku, ale najwyraźniej nie jest jeszcze gotowy do codziennego użytku.

Jako właściciel Google Pixel mam dostęp do Lens od sześciu miesięcy. Ten okres beta dla Lens był nieco niezręczny, czego można się spodziewać. Wskazuję Lens na niezwykłą książkę, którą miała moja przyjaciółka, i zamiast powiedzieć mi, gdzie mogę kupić tę książkę, otrzymuję fragment tekstu z okładki. Poprosiłem Lens, aby zeskanował zdjęcie markiza kina, nie ma pojęcia, co jest na zdjęciu i nie oferuje mi możliwości, ale bilety na serial tak, jak powinien. Robię zdjęcie mojego Owczarka Szetlandzkiego, Lens identyfikuje ją jako Rough Collie. W porządku, więc ostatni jest prawie niemożliwy do uzyskania na zdjęciu, ale chodzi o to, że Google Lens nie wykonuje niezawodnie większości rzeczy, które twierdzi, że jest jeszcze w stanie zrobić.

Trzeba przyznać, że to, co Lens robi dobrze, robi się szybko. Uwielbiam móc używać Lens do tłumaczenia języka w czasie rzeczywistym. Skieruj soczewkę na menu napisane w innym języku, natychmiast otrzymasz tłumaczenia na stronie, jakbyś cały czas przeglądał menu w języku angielskim. Zrób zdjęcie wizytówki, Lens jest gotowy do dodania tych informacji do mojej książki kontaktów. Używałem poszczególnych aplikacji do tych funkcji, które działały w przeszłości dość dobrze, ale ujednolicenie tych funkcji w tym samym miejscu, w którym mam dostęp do wszystkich moich zdjęć, jest doskonałe.

Wiem również, że dla Lens są to wciąż bardzo wczesne dni. W końcu w aplikacji jest napisane „Podgląd”. Podczas gdy właściciele Pixela mieli dostęp do tej funkcji od pół roku, większość świata Androida miała dostęp do niej tylko przez nieco ponad miesiąc w tym momencie. A kiedy zrozumiesz, jak działa to oprogramowanie, jest to ważny szczegół. Informacje Google o uczeniu maszynowym w dużej mierze opierają się na ogromnym wkładzie wiedzy, dzięki czemu mogą szybko przejrzeć je wszystkie i użyć rzeczy, które zostały właściwie zidentyfikowane, aby lepiej zidentyfikować kolejną rzecz. Można argumentować, że Google Lens dopiero co rozpoczął test beta, teraz, gdy wszyscy mają do niego dostęp.

W tym samym czasie Lens został ogłoszony rok temu, a ja nadal nie mogę wiarygodnie wskazać kwiatu i powiedzieć mi, jaki to rodzaj. Dostęp do tej funkcji jest fajny, ale mam szczerą nadzieję, że Google może sprawić, że ta funkcja stanie się wyjątkowa w niezbyt odległej przyszłości.