Logo pl.androidermagazine.com
Logo pl.androidermagazine.com

Google i / o 2018: wszystkie duże ogłoszenia!

Spisu treści:

Anonim

Ubiegły rok był czasem rozwoju i przejścia na Google, ponieważ Android i Chrome są dojrzałe i konwergentne, a Asystent, kierowany postępami w uczeniu maszynowym i sztucznej inteligencji, zajął centralne miejsce w planach Google.

Jednocześnie Google został ostrzelany za wyświetlanie fałszywych wiadomości w swojej karuzeli wyszukiwania i przyznanie się, że nie zrobił wystarczająco dużo, aby ograniczyć rozprzestrzenianie się ekstremistycznych filmów na YouTube.

Podczas Google I / O 2018 firma zajęła się wszystkimi tymi tematami i ogłosiła wiele nowych narzędzi dla programistów, aby ulepszyć swoje aplikacje i usługi.

Oto wszystkie najważniejsze ogłoszenia z Google I / O 2018!

Uczenie maszynowe w akumulatorze, programie uruchamiającym i łóżku

Android P

W systemie Android P Google wyróżnia trzy główne obszary do rozwiązania - inteligencję, prostotę i dobre samopoczucie cyfrowe.

Aby pomóc w utrzymaniu telefonu tak długo, jak to możliwe, zanim będzie trzeba go naładować, Google skupia się głównie na systemie Android P. Google współpracuje z Deep Mind, aby stworzyć nową funkcję o nazwie Adaptive Battery, wykorzystującą uczenie maszynowe do nauki Twoje nawyki użytkowania i tylko pobierają energię baterii z aplikacji Android P wie, że używasz - ani razu niepotrzebnie działają w tle. Ponadto procesy w tle są również przenoszone na rdzenie małej mocy.

Android P Beta praktyczny: najlepsze i najgorsze funkcje

Uczenie maszynowe jest także wykorzystywane w kolejnej nowej funkcji o nazwie Jasność adaptacyjna. Android P nauczy się Twoich nawyków ręcznej zmiany jasności w zależności od otoczenia, a Google zauważa, że ​​testerzy usługi ręcznie zmieniają jasność znacznie mniej.

Przechodząc do programu uruchamiającego Androida P, Android P będzie teraz wyświetlać sugerowane „działania aplikacji”. Pod sugerowanymi aplikacjami na samej górze zobaczysz zalecane działania, aby rozpocząć bieg w Strava, nawiązanie połączenia z określonym kontaktem itp. Działania aplikacji znajdują się również w wyszukiwarce Google. Jeśli szukasz biletów do kina, możesz zobaczyć akcję ich zamawiania w aplikacji Fandango.

Plotki głosiły, że Android P wprowadzi system nawigacji oparty na gestach i właśnie to otrzymamy. Przesunięcie w górę od dolnej części ekranu przeniesie Cię na stronę Najnowsze aplikacje, która jest teraz prezentowana w lewej i prawej karuzeli pokazującej ostatnio otwarte aplikacje lub aplikacje, które Android uważa, że ​​chcesz otworzyć. Jeśli ponownie przesuniesz w górę, przejdziesz do szuflady aplikacji.

Inne zalety obejmują lepsze zarządzanie zrzutami ekranu, przycisk obracania ekranu, nawet jeśli obrócisz telefon, gdy automatyczne obracanie jest wyłączone, elementy sterujące głośnością znajdują się po lewej stronie, a teraz domyślnie ustawiony jest poziom głośności multimediów, oraz nowy gest Nie przeszkadzać o nazwie Shush włącz DND, gdy odwrócisz telefon do góry nogami.

Android P jest dziś dostępny dla telefonów Pixel, a także Nokia 7 Plus, OnePlus 6, Xiaomi Mi Mix 2S, Essential Phone, Sony Xperia XZ2, Oppo R15 Pro i Vivo X21.

Wreszcie, podążając za trendem lepszego cyfrowego samopoczucia, Google dodaje nowy tryb Wind Down do Androida P. Po poinformowaniu asystenta o której godzinie chcesz iść spać, ekran przełączy się na kolor w skali szarości i włączy Do Nie przeszkadzaj, gdy nadejdzie pora snu.

Co nowego w Androidzie P na Google I / O 2018

Porozmawiajmy

Asystent Google

W ciągu ostatnich 12 miesięcy Google poczyniło wiele postępów z Google Assistant, a na we / wy firma ogłosiła szereg nowych funkcji, które mają trafić do wirtualnego asystenta jeszcze w tym roku. Korzystanie z asystenta gwałtownie wzrosło na rynkach wschodzących, takich jak Indie, a Google wspomniał, że zwraca się ku uczeniu maszynowemu, aby lepiej analizować i rozpoznawać lokalne akcenty lub dialekty.

Asystent jest używany na ponad 500 milionach urządzeń i będzie obsługiwać ponad 30 języków w 80 krajach do końca 2018 roku. Asystent odbiera również sześć nowych głosów, a John Legend jest znaczącym dodatkiem. Google po raz kolejny zwraca się do AI, aby zbudować kompletny model głosu zamiast rejestrować każdy możliwy dźwięk.

Nowa funkcja, która pojawi się w Assistant, to Continued Conversation, która pozwala zadawać dalsze pytania bez konieczności wywoływania słowa budzenia „Hej Google” za każdym razem. Asystent będzie mógł także realizować wiele działań za pomocą jednego polecenia. Wreszcie Google wprowadza tryb „Pretty Please” dla dzieci, który zachęca do uprzejmego wzmocnienia. Ta funkcja będzie dostępna na żywo w tym roku.

Asystent zacznie także obsługiwać karty pełnoekranowe do wyświetlania komunikatów i ułatwi sterowanie inteligentnymi urządzeniami domowymi. Będziesz nawet mógł składać zamówienia od Starbucks, Dunkin Donuts i innych bezpośrednio od Asystenta.

Nowe funkcje zaczną pojawiać się na Androidzie od lata tego lata i będą dostępne na iOS pod koniec roku.

Co nowego w Google Home and Assistant na Google I / O 2018

Komputer powiedział „uhm”

Google Duplex

Każde wejście / wyjście ma w domu co najmniej jedno ogłoszenie, które powoduje opadanie szczęki ludzi, aw tym roku było to Google Duplex.

Dzięki Google Duplex możesz poprosić Asystenta Google, aby zadzwonił i faktycznie rozmawiał z innym człowiekiem w restauracji, salonie fryzjerskim lub innej firmie, aby dokonać rezerwacji / spotkania.

Google twierdzi, że nadal współpracuje z Duplex, aby upewnić się, że jest w sam raz przed wypuszczeniem go, a kiedy to nastąpi w nadchodzących tygodniach, będzie to stopniowe wdrażanie jako funkcja eksperymentalna.

Mimo to powiedziano, że demo pokazane przez Google to proste banany. Asystent w naturalny sposób mówi do osoby po drugiej stronie, nawet mówiąc takie rzeczy jak „um” i „hmm”, odpowiadając.

Wzmacniać.

Zdjęcia Google

Zdjęcia Google mają nowe funkcje ułatwiające udostępnianie. Sugerowane udostępnianie może pomóc Ci znaleźć najlepsze zdjęcia znajomych i udostępnić je, wykorzystując uczenie maszynowe do rozpoznawania ludzi na zdjęciach oraz oferty udostępniania tej osobie, w oparciu o własne wzorce udostępniania.

Nowa funkcja bibliotek współdzielonych może pomóc w automatyzacji udostępniania zdjęć określonych osób, rzeczy lub miejsc. Biblioteki udostępnione mogą powiadamiać odbiorców o nowych zdjęciach i automatycznie zapisywać zdjęcia w bibliotece osobistej - nie martwiąc się o to, czyj telefon ma zdjęcia. Sugerowane udostępnianie i biblioteki będą wprowadzane na iOS, Android i Internet w najbliższych tygodniach.

Ponadto Zdjęcia Google wykorzystują sztuczną inteligencję do dalszego ulepszania zdjęć. W ciągu najbliższych kilku miesięcy zdjęcia będą mogły rozpoznać ujęcia dokumentów i przekonwertować je na pliki PDF. Będzie także w stanie zasugerować automatyczne zwiększenie jasności, a nawet pokolorować stare czarno-białe zdjęcia, a także rozpoznawać twarze i selektywnie desaturować tło, aby obiekty były poruszane.

Co nowego w Zdjęciach Google na Google I / O 2018

Zobaczyć świat

Google Lens

Google Lens jest obecnie dostępny w Photos and Assistant, ale wkrótce zostanie zintegrowany bezpośrednio z aplikacją aparatu w telefonie. Oprócz telefonów Google Pixel, zostanie również dodany do aparatu dla urządzeń LG, Motorola, Xiaomi, Nokia, Sony, TCL, OnePlus, Asus, BQ i Transsion Holdings.

Po otwarciu aplikacji aparatu możesz skierować ją na obiekt, wyskoczy Google Lens i poda informacje o tym, co widzi.

Obiektyw ma również inteligentny wybór tekstu, dzięki czemu może widzieć słowa przez aparat telefonu, a następnie kopiować i układać je jako zwykły tekst. Dodatkowo będziesz mógł przeglądać oferty w menu w restauracji i zobaczyć, co to jest.

Wreszcie Google zauważa, że ​​pracuje nad tym, aby Lens wykraczał poza oferowanie podstawowych informacji o tym, co widzi. W jednym z przykładów firma powiedziała, że ​​w końcu będziesz mógł skierować Lens na plakat koncertowy, a następnie automatycznie obejrzeć teledyski dla tego zespołu.

Te nowe funkcje dla obiektywu zostaną wprowadzone „za kilka tygodni”.

Co nowego w Google Lens na Google I / O 2018

Zaufane źródła i kontekst

wiadomości Google

Google News przechodzi gruntowny remont, a aplikacja zyskuje odświeżenie Material Design i wiele nowych funkcji. Google twierdzi, że „przerobił” swój produkt informacyjny, wykorzystując sztuczną inteligencję do wypowiadania historii ze źródeł wysokiej jakości.

Google News Initiative przeznaczył 300 milionów USD na produkty i programy mające na celu wsparcie branży prasowej, a firma twierdzi, że celem tego przeprojektowania jest dostarczenie głębszych informacji i pełniejszego spojrzenia na tematy, na których Ci zależy. Na górze znajduje się teraz sekcja odpraw, która zawiera pięć opowiadań na każdy temat, i będziesz mógł dostosować tematy, a także wydawców, którymi jesteś zainteresowany.

Obrazy i filmy są teraz wyświetlane w linii, a Google kładzie nacisk na lokalne wiadomości - tworząc kontekstową mapę powiązanych wiadomości. Dostępny jest także nowy format wizualny o nazwie Newscasts, który zapewnia dodatkowe informacje - wszystko od zwiastunów, tweetów i nagłówków - zapewniając wizualny podgląd na temat, na którym Ci zależy, abyś mógł zagłębić się w więcej.

Będziesz także mógł zobaczyć oś czasu kluczowych momentów w historii, a Google News zaproponuje odpowiednie tweety, wbudowane sprawdzanie faktów, filmy i artykuły redakcyjne.

Kiosk stawia wydawców - gazety i czasopisma - na pierwszym planie i na środku, a będziesz mógł śledzić i subskrybować swoje ulubione publikacje bezpośrednio z poziomu Wiadomości. Funkcja Subskrybuj za pomocą Google będzie dostępna w najbliższych tygodniach.

Przeprojektowane Google News będzie dostępne na Androida, iOS i Internet w 127 krajach od dziś, a wszyscy będą mogli uzyskać dostęp do nowych funkcji w przyszłym tygodniu.

Co nowego w Google News na Google I / O 2018

Zrozumienie, jak często korzystasz z telefonu

Pulpit nawigacyjny Android

Choć nasze smartfony są świetne, bardzo łatwo zagubić się na ekranach i stracić kontakt z otaczającym nas światem. Google robi wszystko, aby pomóc ludziom w lepszym „cyfrowym samopoczuciu” dzięki Android Dashboard.

Dzięki Android Dashboard Google pokaże Ci, jakich aplikacji używasz w ciągu dnia, jak często ich używasz, całkowity czas spędzony na telefonie, ile razy go odblokowałeś itp.

Ponadto aplikacje takie jak YouTube również przyczynią się do tego, sugerując użytkownikom zrobienie sobie przerwy, jeśli wykryje, że oglądają filmy zbyt długo.

Dane deski rozdzielczej będą również dostępne dla poszczególnych aplikacji. YouTube może pokazać, ile minut / godzin spędziłeś na oglądaniu filmów w danym dniu, a Gmail może wskazać, ile czasu spędzasz w tym tygodniu lub w tygodniu.

Google pozwoli ci także ustawić Timery aplikacji. Na przykład możesz ustawić Timer aplikacji na Twitterze na 1 godzinę. Otrzymasz subtelne przypomnienie, gdy zbliżasz się do godziny korzystania z Twittera, a gdy ta godzina się skończy, ikona aplikacji będzie wyszarzona i nie będziesz mieć do niej dostępu przez resztę dnia.

Wizualny system pozycjonowania

mapy Google

Mapy Google otrzymują spersonalizowane rekomendacje sugerujące lokalizacje, takie jak popularne restauracje na podstawie historii wyszukiwania i zainteresowań. Wkrótce będziesz mógł wysłać znajomym krótką listę opcji restauracji, aby poddać je pod głosowanie i szybko zdecydować, gdzie zjeść. Po podjęciu decyzji możesz złożyć zamówienie lub dokonać rezerwacji jednym kliknięciem.

Co bardziej imponujące, Mapy Google wkrótce zintegrują się bezpośrednio z aparatem, aby nałożyć kluczowe informacje, takie jak wskazówki nawigacyjne i wyróżnić interesujące miejsca, takie jak restauracje i firmy.

Wizualny system pozycjonowania wykorzystuje bazę danych Google Street View do precyzyjnego pozycjonowania użytkownika w celu uzyskania jak najdokładniejszych wyników, co oznacza, że ​​powinieneś być w stanie niezawodnie korzystać z tych funkcji prawie wszędzie. Wystarczy skierować aparat na witrynę sklepową, aby szybko zobaczyć informacje, takie jak godziny pracy i numery telefonów.

Co nowego w Mapach Google na Google I / O 2018

Już w lipcu

Inteligentne wyświetlacze

W styczniu na targach CES firma Google po raz pierwszy spojrzała na Smart Displays - firmowe podejście do Echo Show i Echo Dot firmy Amazon. Podczas we / wy Google potwierdził, że pierwsze inteligentne wyświetlacze firm Lenovo, JBL i LG trafią do sprzedaży w lipcu.

Ponieważ inteligentne wyświetlacze są obsługiwane przez Asystenta Google, możesz zadawać dowolne pytania, które już zadajesz Google Home lub telefonowi. Ponieważ jednak masz teraz do dyspozycji duży ekran, będziesz mógł korzystać z inteligentnych monitorów, aby oglądać programy na żywo w YouTube TV, uzyskać dostęp do pełnej aplikacji YouTube i oglądać pokazy wideo z przepisami dzięki partnerstwu z Tasty.

Mądrzejszy niż kiedykolwiek

AI

Google już od kilku lat stawia duży nacisk na sztuczną inteligencję, a tegoroczne operacje wejścia / wyjścia nie różniły się niczym. W 2018 r. Google koncentruje swoje wysiłki na sztucznej inteligencji na opiece zdrowotnej i dostępności.

W dziedzinie opieki zdrowotnej Google wykorzystuje sztuczną inteligencję do pomocy lekarzom na całym świecie w wykrywaniu i diagnozowaniu chorób sercowo-naczyniowych poprzez wykonywanie skanów siatkówki. Skanując oko pacjenta, sztuczna inteligencja może określić wiek, płeć, jeśli dana osoba pali, i więcej, aby znaleźć te potencjalne zagrożenia dla zdrowia.

Ponadto Google wykorzystuje AI do przewidywania zdarzeń medycznych poprzez skanowanie ponad 100 000 punktów danych dla każdego pacjenta - dając lekarzom więcej czasu na działanie i reagowanie na sytuacje niż wcześniej.

Jeśli chodzi o dostępność, uczenie maszynowe jest używane do tworzenia zamkniętych napisów dla wielu osób jednocześnie na ekranie poprzez wybieranie sygnałów audio i wideo w klipie. Gboard zbiera również wsparcie dla kodu Morse'a, aby łatwiej niż kiedykolwiek więcej osób mogło łatwo komunikować się z przyjaciółmi i rodziną.

Wszystko to jest częściowo wspierane przez najnowszą jednostkę Tensor Processing Unit 3.0. Nowe jednostki TPU są tak potężne, że Google musiał wbudować chłodzenie cieczy w swoich centrach danych, a każdy pakiet TPU ma ponad 100 PetaFLOPS mocy obliczeniowej.

Co nowego w AI na Google I / O 2018

Przewidywanie następnego pełnego zdania

Gmail

Gmail otrzymał odświeżony interfejs użytkownika na początku tego miesiąca, a Google wprowadza teraz Smart Compose. Ta funkcja wykorzystuje uczenie maszynowe do przewidywania pełnych zdań na podstawie zaledwie kilku liter lub słów.

Na przykład, jeśli wpisujesz swój adres, Smart Compose rozpozna kontekst i automatycznie wypełni szczegóły lokalizacji w zdaniu. Ta funkcja będzie dostępna dla wszystkich użytkowników od końca tego miesiąca.

Samojezdna przyszłość

Waymo

Na I / O, firma Autobazonu Alphabet, Waymo, udostępniła kluczowe statystyki dotyczące postępów dokonanych w ciągu ostatniego roku. Flota samochodów Waymo przejechała obecnie ponad 6 milionów mil po drogach publicznych - każdego dnia zbiera więcej mil niż przeciętni amerykańscy kierowcy każdego roku.

Waymo mówi, że jest to jedyna firma na świecie, która posiada flotę w pełni samojezdnych samochodów na drogach publicznych bez kierowcy bezpieczeństwa ludzkiego, a program Early Rider Program w Phoenix prowadził wiele osób w ciągu ostatniego roku. W tym roku Waymo otwiera teraz usługę transportu bez kierowcy, zaczynając od Phoenix.

Usługa działa w podobny sposób, jak usługi udostępniania jazdy, takie jak Uber lub Lyft - otwórz aplikację i wybierz, dokąd chcesz jechać. Jedyna różnica polega na tym, że w Waymo samochód bez kierowcy odbierze Cię z Twojej lokalizacji.

Algorytmy głębokiego uczenia się Waymo zmniejszyły wskaźnik błędów wykrywania pieszych o 100 razy, a firma napina mięśnie AI, aby rozpoznawać pieszych, a także przewidywać wzorce dla innych pojazdów na drodze. Jak podsumował dyrektor generalny Waymo John Krafcik: „Nie tylko budujemy lepszy samochód. Budujemy lepszego kierowcę”.