Logo pl.androidermagazine.com
Logo pl.androidermagazine.com

Dzięki Google telefony stają się bardziej dostępne dla osób z upośledzeniem mowy i słuchu

Spisu treści:

Anonim

  • Live Caption oferuje napisy na żywo do urządzeń wszelkiego rodzaju.
  • Live Relay pozwala osobom z zaburzeniami mowy na prowadzenie rozmów telefonicznych za pomocą Asystenta Google.
  • Projekt Euphonia od Google AI powstaje, aby pomóc osobom z zaburzeniami mowy komunikować się szybciej i łatwiej niż kiedykolwiek wcześniej.

Przyjmowanie naszych telefonów za pewnik może być naprawdę łatwe. Używamy ich codziennie, bez namysłu, ale dla osób z niepełnosprawnościami fizycznymi nawet najprostsze zadania mogą być zniechęcające. Na Google I / O 2019 Google ogłosiło trzy nowe projekty, nad którymi pracuje, aby to zmienić - Live Caption, Live Relay i Project Euphonia.

Napisy na żywo

Napisy zamknięte są łatwo dostępne w narzędziach takich jak Netflix i YouTube, dzięki czemu filmy stają się bardziej dostępne dla osób niesłyszących lub słyszących, ale na obecnym etapie występują pewne problemy z napisami. Nie każdy film lub usługa obsługuje je i często wymagają one pewnego rodzaju połączenia danych.

Dzięki Live Caption Google stworzył system, który oferuje lokalne podpisy na urządzeniu w czasie rzeczywistym dla wszelkiego rodzaju multimediów. Niezależnie od tego, czy oglądasz film na YouTube, film, który sam nagrałeś, czy dosłownie cokolwiek innego, Live Caption transkrybuje słowa w locie bez żadnego połączenia danych.

Nie mamy dokładnej daty premiery, ale Google twierdzi, że zostanie wydana „jeszcze w tym roku”.

Przekaźnik na żywo

Z drugiej strony, Live Relay został zaprojektowany, aby pomóc ludziom odbierać połączenia telefoniczne, nawet jeśli mają trudności z mówieniem.

Jeśli ktoś odbierze połączenie za pomocą usługi Live Relay, osoba po drugiej stronie połączenia zostanie poinformowana, że ​​ta osoba korzysta z usługi Google Live Relay obsługiwanej przez Asystenta - bardzo podobnie do Google Duplex.

Wszystko, co mówi osoba po drugiej stronie, jest transkrybowane w czasie rzeczywistym na ekranie użytkownika Live Relay, a aby odpowiedzieć, możesz pisać niestandardowe wiadomości na klawiaturze lub użyć Smart Reply i Smart Compose, aby szybko wysyłać gotowe wiadomości na podstawie co właśnie powiedziała.

Podobnie jak Live Caption, Live Relay działa lokalnie na twoim telefonie i nie wymaga żadnych danych ani Wi-Fi do działania.

Live Relay wciąż znajduje się w „fazie badań”, ale mamy nadzieję, że uruchomi się raczej wcześniej niż później.

Projekt Euphonia

Wreszcie, euforia projektu jest tworzona, aby pomóc osobom cierpiącym na ALS, stwardnienie rozsiane lub inne zaburzenia mowy komunikować się łatwiej niż kiedykolwiek wcześniej.

Według Google:

Aby to zrobić, oprogramowanie Google przekształca zarejestrowane próbki głosu w spektrogram lub wizualną reprezentację dźwięku. Następnie komputer używa typowych transkrybowanych spektrogramów do „trenowania” systemu, aby lepiej rozpoznawał ten mniej powszechny rodzaj mowy. Nasze algorytmy AI mają obecnie na celu uwzględnienie osób mówiących po angielsku i mających upośledzenia typowo związane z ALS, ale uważamy, że nasze badania można zastosować do większych grup osób i różnych upośledzeń mowy.

Oprócz poprawy rozpoznawania mowy szkolimy również spersonalizowane algorytmy sztucznej inteligencji w zakresie wykrywania dźwięków lub gestów, a następnie podejmujemy działania, takie jak generowanie poleceń głosowych w Google Home lub wysyłanie wiadomości tekstowych. Może to być szczególnie pomocne dla osób, które są poważnie niepełnosprawne i nie mogą mówić.