4.03.20223 min

Justyna SzatanRedakcja Bulldogjob

Google rozpozna ruchy bez kamery! Poznajcie radar Soli ATAP

Interakcje z maszynami na podstawie gestów jest już możliwe za pomocą radaru.

Google rozpozna ruchy bez kamery! Poznajcie radar Soli ATAP

Technologia idzie do przodu, więc mamy coraz więcej urządzeń SMART w naszych domach, sterowane apkami na telefonie. A jeśli pójść o krok dalej i nauczyć maszyny odczytywać podstawową mowę ciała człowieka? To możliwe i to bez użycia kamer.


Google ATAP

Nad technologicznymi udogodnieniami codziennego życia pracuje zespół Google Advanced Technology and Project (ATAP). Swoje badania skupiają wokół wynalazków wykorzystania najnowszych dostępnych technologii oraz modeli AI oraz ML, by stworzyć inteligentne społecznie urządzenia.

Poza teamem naukowców, inżynierów, analityków i projektantów zaprosili do współpracy behawiorystów, którzy pomagają wyłapać najprostsze zachowania ludzi, których mogą się nauczyć maszyny, by lepiej zrozumieć nasze intencje.


Radar Soli ATAP

Projekt Soli to gadżet do orientacji przestrzennej z zastosowaniem fal elektromagnetycznych radaru w czasie rzeczywistym. Zasięg radaru to 9 stóp, czyli w zaokrągleniu 2,7 metra — mniej niż kamerka, natomiast zdecydowanie nie ingeruje w naszą prywatność.

Pierwsze generacja produktu pojawiła się na rynku w 2015 r., której zawdzięczamy model telefonu Google Pixel 4, reagujący na proste gesty dłoni bez konieczności dotykania smartfona. 

Kolejnym krokiem był wyświetlacz Nest Hub, który reaguje na gesty, w zasięgu radaru np. zatrzymując wyświetlany na ekranie film, czy przełączając piosenkę. Zostawiony w nocy przy łóżku, bez wsparcia żadnej opaski czy smartwatcha na podstawie częstotliwości oddechów i Twoich ruchów będzie monitorował Twój sen.


Aktualne badania Soli

Od roku zespół Google ATAP sprawdza, jak można wykorzystać Soli do interakcji niewerbalnej np. z komputerem, telewizorem czy termostatem. 

W praktyce urządzenie wyposażone w ten gadżet będzie w stanie określić czy tylko przechodzisz po pokoju, czy może skierowałeś wzrok w stronę urządzenia i to się ożywi oraz wyświetli Ci najnowsze komunikaty, czy kalendarz Twoich spotkań.


Potencjał projektu

Wyobraź sobie, że więcej urządzeń w Twoim mieszkaniu posiada moduł Soli, więc komunikując się między sobą, mimo ograniczonego zasięgu, więc będą uruchamiać lub wyłączać urządzanie zależnie od tego, gdzie idziesz.

Ważne, według aktualnych deklaracji zebrane dane mają być analizowane lokalnie, a nie wysyłane w stanie surowym do chmury.  To również ukłon zespołu w stronę prywatności użytkowników.

Wyobraź sobie, że jesteś w kuchni, gotujesz według przepisu, ale okazało się, że skończył Ci się np. makaron — więc musisz iść do innego pokoju np. spiżarki. Co robią maszyny? Zatrzymują film, skoro nie patrzyłeś w stronę ekranu i uruchomią się, jak ponownie poświęcisz mu uwagę.

W zakresie termostatu może też przypominać, jak będziesz go mijał, że np. dziś zapowiadają deszcz i rozważ wzięcie parasola.

A może system wyłączy muzykę, gdy zarejestruje, że rozpoczniesz rozmowę telefoniczną?


To dopiero początek badań

Urządzenia dobrze sobie radzą, na razie analizując zachowania jednej osoby, ale z większą grupą mają problem, ponieważ widzą nas na razie jako obiekty, które mogą na siebie nachodzić.

Potencjał jak widzisz, jest ogromny i zapowiada się, że będzie miało wszechstronne zastosowanie, natomiast musimy się na razie uzbroić w cierpliwość. 

<p>Loading...</p>