Logo pl.androidermagazine.com
Logo pl.androidermagazine.com

Przednie aparaty oznaczają androidowe polecenia gestów bez użycia rąk

Anonim

Machanie ręką w powietrzu w celu kontrolowania telefonu nie jest nowym pomysłem - rozmawialiśmy o tym wcześniej w systemie Windows Mobile i zostało zaimplementowane na innych platformach. Ale teraz, gdy Android ma przednie aparaty (na początek Samsung Galaxy S i HTC Evo 4G), w niedalekiej przyszłości możemy wreszcie zobaczyć polecenia gestów na naszych telefonach.

I tu właśnie wkracza programista EyeSight. Właśnie ogłosił wsparcie dla Androida, który „umożliwia użytkownikom sterowanie telefonami i nawigację w dokumentach, stronach internetowych lub mapach za pomocą technologii rozpoznawania gestów”.

Sprawdź pełną prasę i wideo demonstracyjne (na Nokia, niestety) po przerwie. Czy to jest czyjeś zainteresowanie?

HERZELIYA, Izrael, 8 czerwca - eyeSight Mobile Technologies, twórca rozwiązań Natural User Interface (NUI) dla telefonów komórkowych i konsumentów elektronika urządzeń , wprowadzono dziś na rynek innowacyjną technologię, która pozwala producentom urządzeń z Androidem zaoferować swoim klientom po raz pierwszy kontrolę nad telefonami za pomocą prostych gestów.

Rozwiązanie eyeSight wykorzystuje wbudowaną kamerę urządzenia, zaawansowane algorytmy przetwarzania obrazu w czasie rzeczywistym i wizji maszynowej, do śledzenia ruchów dłoni użytkownika i przekształcania ich w polecenia. Użytkownicy urządzeń z Androidem mogą teraz wyciszyć połączenie przychodzące, nawigować między menu GPS, aktywować odtwarzacz MP3, grać w gry i wykonywać wiele innych zadań, po prostu przesuwając dłoń po urządzeniu.

Technologia eyeSight to czyste oprogramowanie, wysoce zoptymalizowane pod kątem platform mobilnych, oferujące niskie wymagania procesora i pamięci, co bezpośrednio przekłada się na niskie zużycie energii. Oczekiwane wprowadzenie nowych urządzeń z Androidem z przednim aparatem przez Motorola, HTC i Google pozwoli w pełni wykorzystać zalety technologii eyeSight. Rozwiązanie pozwala użytkownikom kontrolować telefony i poruszać się po dokumentach, stronach internetowych lub mapach za pomocą technologii rozpoznawania gestów.

„Dobra technologia jest niewidoczna. Technologia TouchSight EyeSight dla urządzeń z systemem Android wprowadza właśnie to - nowy poziom interakcji, który jest naturalny, intuicyjny i prosty w użyciu”, powiedział założyciel i dyrektor generalny Itay Katz eyeSight. „Użytkownicy szukają sposobów na ułatwienie, ulepszenie i czerpanie przyjemności z codziennej interakcji z telefonem komórkowym, idealnie dążąc do uzyskania łatwej kontroli nad aplikacjami i funkcjami urządzenia, i tam właśnie powstaje rozwiązanie eyeSight”.

EyeSight zapewnia naturalny i intuicyjny sposób kontrolowania urządzeń przenośnych i aplikacji. W miarę wzrostu liczby aplikacji użytkownicy spędzają więcej czasu na poruszaniu się po skomplikowanych menu. Na przykład podczas korzystania z mobilnego systemu nawigacji zamiast szukać określonego klawisza lub klikania określonych obszarów na ekranie, kierowca koncentruje się na drodze i steruje urządzeniem za pomocą prostego gestu. Co więcej, podczas grania w gry mobilne, technologia eyeSight umożliwia grę za pomocą ruchów ręki naśladujących rzeczywiste działania, takie jak - rzucanie piłki, łapanie bumerangu, blokowanie ataków wroga i wiele innych. Technologia została opracowana do pracy z aplikacjami wielu telefonów z Androidem i zapewnia nowy, zabawny i ekscytujący sposób łatwego kontrolowania ulubionych czynności przez użytkowników.