Witajcie kochani w kolejnym nagraniu z Mojej Szuflady - Piotr Witek się kłania. W dzisiejszym odcinku chciałbym zaprosić Was na demonstrację kilku, a dokładnie to pięciu aplikacji mobilnych dedykowanych osobom niewidomym, które wykorzystują system LIDAR. Po ostatnim nagraniu, gdzie demonstrowałem pandemiczne możliwości LIDARA, kilkoro z Was poprosiło mnie o demonstrację, więc oto jestem z kilkoma aplikacjami. Wszystkie aplikacje to mój wybór subiektywny. Każda z nich jednak ma jakieś swoje plusy, ale to też są takie plusy, które ja uznałem subiektywnie za plusy, więc oczywiście ocena należy tylko i wyłącznie do Was. Dobór był mój. Gdybyście jakieś inne aplikacje polecali, no to też oczywiście śmiało piszcie w komentarzach. A o jakich aplikacjach mówimy? Ja tu mam specjalny folder LIDAR, gdzie mam te pięć aplikacji. Subiektywnie też poukładałem je według mnie od najgorszej do najlepszej. Trudno powiedzieć. Chyba nie. Ale zacznę od tej, którą faktycznie uważam za najgorszą. CHIRP-RR, czyli CHIRP przez C-H-A-R. Nie martwcie się, wszystkie nazwy są w opisie, łącznie z linkami. Możecie też wszystkie nazwy z linkami do App Store znaleźć w mojej szufladzie mojaszuflada.pl, więc spokojnie tam możecie klikać, pobierać, instalować, testować i dzielić się Waszymi wrażeniami. Ja odpalam aplikację CHIRP-RR i jest to pierwsza aplikacja, którą uważam za najsłabszą. Oczywiście każda z aplikacji musi obejrzeć świat, więc pokazujemy tym aplikacjom to, co nas otacza z różnej perspektywy. Patrzymy z jednej i z drugiej strony, pokazujemy. Ja im w tym momencie pokazuję tej aplikacji, co się znajduje przede mną. Kieruję obiektyw na okno, w tym momencie przy już sztucznym świetle. Stukam. Okno jest mniej więcej 2 metry ode mnie, a słyszycie 1 cal. 2 cale, no sorry. Niestety ta aplikacja, tak jak wspomniałem, działa słabo. Ale dlaczego o niej mówię? Bo teoretycznie ma plus, który umożliwia nam sprawdzenie koloru obiektu, który wykryjemy gdzieś w odległości, na przykład teraz jakaś ściana przede mną. Dark Pink. Absolutnie nie, ściana jest zielona, więc po prostu wiecie. Ale żeby nie było, jest taka aplikacja, możecie ją potestować, możecie mi napisać, że robię coś źle i wtedy napiszcie, że to trzeba robić tak i tak i wtedy może mnie przekonacie. Ale generalnie uważam tą aplikację za bubel, choć stworzy ją Amerykański Związek Niewidomych. Tą aplikację na przykład blokuje niektóre gesty, więc ja teraz muszę, żeby przełączyć się na inny ekran, nie mogę wykonać gestu czterema palcami, muszę po prostu dać hołma, czyli przesiąąć palcem doło ekranu do góry. Ale nic tam. What's over there? Aplikacja bardzo fajna, bardzo fajna, tą wam gorąco polecam. Prosta, jak ją odpalicie, udzielicie dostępu do kamery, ma tylko dwa przyciski, Japanese i English, czyli wybieramy język, domyślnie jest język angielski. Nic więcej tutaj dla voice overa nie ma, więc musimy wyłączyć voice overa, raz, dwa, trzy, wyłączamy voice overa. I co w tym momencie? W tym momencie, jak z tymi wszystkimi innymi aplikacjami, tej też pokazuję świat, kieruję ją w bok, w stronę okna i dotykam ekranu mniej więcej na środku. I słyszymy, że tam jest okno 2,20 m ode mnie. Odwracam się w drugą stronę, w stronę drzwi na przykład i dotykam ekranu. 3,5 m są drzwi ode mnie, owszem, na ścianie, która jest 3,5 m, ale dotykam trochę z boku ekranu. Drzwi są inne, metr, niecały półtora ode mnie, bo w tym momencie mam efekt perspektywy. Patrzycie przez drzwi, mam jedne drzwi z pokoju i za nimi są drzwi z mieszkania, w przedpokoju, więc mamy efekt perspektywy. A gdy nacisnę z lewej strony? Dobra. 3,5 m jest ściana, czyli ta ściana, na której znajdują się drzwi. To jest właśnie plus tej aplikacji, że możemy dotykać różnych miejsc na ekranie, w ten sposób poznając lokalizację obiektów, co do których odnosi się komentarz. To jest podłoga daleko, a podłogę blisko on coś widzi na podłodze, ale nie wie, co to jest. Ja Wam nie powiem, to coś dało odgłos pewien, ale nie będę zdradzał. Mam jeszcze stół przed sobą, 10 cm od obiektywu coś jest, ale on nie wie, co. Stół 20 cm, coś tam jest, ale on nie wie, co. Jeszcze tutaj może łatwiejsza rzecz. Więc ta aplikacja jest doskonała do lokalizowania obiektów takich, które chcecie sami zlokalizować, gdzie one są, w jakiej odległości i w jakim kierunku. Bo tu dzięki temu, że nie ma automatycznego anonsowania, wy sami jesteście w stanie określić lokalizację, właściwie kierunek, gdzie dany obiekt się znajduje. Dobra, wyskakujemy sobie do naszego katalogu z aplikacjami lidarowymi. Aplikacja Super Lidar. To znacie, bo to jest ta aplikacja, która wykrywa maski na twarzach osób. Ona automatycznie anonsuje, popatrzmy. Stół, jedna stopa. Okno, 6 stóp. Siedzenie jakieś, 3-4 stopy. Drzwi, te dalsze, 11 stóp. A Person, tylko ta A Person to jest pies. Zero stóp, stół, a na stole coś pozna z wystawionych elementów. Wystawkę dla Was zrobiłem. No i nie, nie radzi sobie. Czyli tylko takie obiekty, wiecie, charakterystyczne, jeszcze tu go spróbujemy w błąd wprowadzić, co my tu mamy. Rozpozna. No ja też przy sztucznym świetle, nie wiem czy wspominałem rozpoznanie, więc no nie, nie daje rady rozpoznać, więc nie będziemy go męczyć. Super Leader ma jeszcze fajną funkcję, że anonsuje Wam wibracją obiekty, przeszkody przed Wami, więc możecie wykorzystywać Super Leader też jako taką wirtualną, białą laskę, jak te wszystkie wykrywacze przeszkód na ultradźwięki, na lasery i tak dalej, no to tu macie to samo za pomocą Leadera. Kolejna aplikacja to Seeing AI, aplikację, którą doskonale znacie, używacie np. do rozpoznawania tekstu, a tutaj mamy nową pozycję. Świat, jeśli nie macie w Waszym urządzeniu Leadera, no to niestety w ogóle w tej aplikacji Seeing AI ta pozycja Wam się nie pojawi, taki kanał. Ja w tym momencie znowu się rozglądam. Okno mi mówi, patrzcie. Okno. Coś tu więcej. Stół mamy, ok. Puchar, dobra. Czy coś jeszcze? Słychać psa sąsiadów, ale jego nie będzie widać pewnie. Za drzwi. A drzwi? No stary, drzwi mi nie rozpoznał? Rozpoznał drzwi. Coś więcej? Dobra, więcej nie rozpoznaje. Tyle mi zaanonsował z samego rozglądania się. Co więcej możemy tutaj zrobić w tej aplikacji? Mamy tutaj parę opcji, ale po kolei. Podsumowanie przestrzenne. Gdybyście mieli w tym momencie AirPodsy w uszach i stuknęli w ten element, usłyszelibyście coś takiego mniej więcej. Podsumowanie przestrzenne. Stół, okno, drzwi, drzwi, drzwi. Ja nie wiem, czy to w nagraniu też słychać, czy to się weszło też w nagraniu, że jesteście w stanie to usłyszeć, ale tu działa Spatial Audio. To podsumowanie, trafia do Was informacja. Każdy z wymienionych elementów, odgłos idzie z tego kierunku, w którym dany element się znajduje. W ten sposób możecie rozejrzeć się, w cudzysłowie, po przestrzeni, którą przed chwilą zeskanowaliście liderem. Czyli wcześniej dotykaliśmy ekranu w drugiej aplikacji. Tutaj SYNC.AI umożliwia nam słuchowe rozeznanie się w otoczeniu. Co tutaj mamy więcej? Mamy czujnik zbliżeniowy, czyli de facto to samo, co mówiłem a propos tej wirtualnej białej laski w Super Liderze. Czujnik zbliżeniowy, czekajcie jeszcze tak, zobaczmy sobie. Tu mam wrażenie, że mi ucieka fokus. Nie. Czujnik zbliżeniowy wyłączam, bo to jest ta wirtualna biała laska, a my potrzebujemy ten. Ustaw sygnalizator. Co to nam daje? Ja to aktywuję. W tym momencie wyświetla nam się lista wykrytych elementów. Słyszymy lokalizację, teraz względem nas, gdzie ono się znajduje, bo ja jestem odwrócony bokiem do tego okna. Zero metrów. Puchar. Wiecie, ta aplikacja wszystko co szklane, mniej więcej przypomina naczynie, to rozpoznaje czy anonsuje jako puchar, więc dość słabo to działa. Ale to okno powiedzmy. Ja teraz mogę próbować odnaleźć to okno i w tym celu mogę korzystać z podpowiedzi audio. To doskonale działa na słuchawkach, szczególnie tak jak w sumie rpocach, bo tutaj jest duży nacisk na spatial audio. Ja pukam i wy możecie usłyszeć dźwięki, tylko z tego co kojarzę to w nagraniu... O, teraz mnie dopiero zaczął anonsować okno, bo nakierowałem obiektyw na okno. Odsunąłem od okna obiektyw, w sensie na bok odwróciłem. Nie mam w uszach, nie słyszę w tym momencie żadnego odgłosu. Kieruję pomalutku obiektyw w stronę okna. O, teraz dopiero słychać, czyli jak gdyby poprzez audio mam wskazówkę gdzie znajduje się dany obiekt. Dobra, generalnie tyle jeśli chodzi o tą aplikację. Obiecywałem sobie o wiele więcej, niestety ta aplikacja też jest dość narowista. To jest też jakaś tam wersja beta tego rozwiązania, więc ono działa naprawdę różnie, ale oczywiście jak zwykle zachęcam Was do testów. No i oczywiście last but not least aplikacja, która jest według mnie najlepsza jeśli chodzi o wykorzystanie lidera przez osoby niewidome. My Finder, czyli mój lokalizator, mój odnajdywacz, jak zwał tak zwał. Uruchamiamy tą aplikację. I tak jak tam był plus aplikacji tamtej, że jest w języku polskim, tu minusem tej aplikacji jest to, że jest ona w języku angielskim. W tym momencie jak słyszycie odgłos, to to jest odgłos, który potrwa z 30 sekund do minuty. Aplikacja w tym czasie sobie skanuje otoczenie, skanuje sobie przestrzeń. Sobie to znaczy, że ja majtam też telefonem pokazując jej otoczenie. Ona sobie wykonuje skan 3D. Tutaj muszę pilnować, żeby też kable gdzieś mi tam nie trafiały w obiektyw. Pokazuje co się znajduje na ścianie, co się znajduje na półkach, żeby on sobie wszystko tutaj poskanował. Na razie nic nie macie anonsowane, bo ja gdyby chcę aplikację nauczyć tego co jest dookoła mnie. I teraz wam pokażę co się znajduje na ekranie. Mamy taką funkcję stukni dwukrotnie, aby zanalizować obraz. Tą funkcję znacie doskonale z chociażby aplikacji Seeing AI, czyli taka analiza sceny. Tutaj wykorzystywany jest lidar, także te informacje ze sceny są o wiele lepsze. Obiekty rozpoznane są bardziej precyzyjnie, znaczy rozpoznawane są bardziej precyzyjnie. Ale to wszystko działa jak gdyby na zasadzie jednej stop klatki. Do tej funkcji odnajdywania, zaraz wrócimy, tutaj możemy skorzystać z pomocy wolontariusza. To jest właśnie dodatkowy plus, płatny plus, bo tu jest model subskrypcyjny. Aplikacja jest całkowicie darmowa, ale jeśli chcielibyście skorzystać z dwóch dodatkowych rzeczy, to znaczy z możliwości rozpoznawania obiektów z wykorzystaniem Siri. Na zasadzie mówicie Siri, żeby znalazła wam na przykład pilota do telewizora, czy w ogóle pilota. Prosicie Siri znajdź pilota. To za taką funkcjonalność musicie ekstra zapłacić, podobnie jakbyście chcieli skorzystać z pomocy wolontariusza. No ale to wiadomo, do tego mamy Be My Eyes, więc tutaj się nie ma co ekscytować. I mamy tak zwany smart digital cane, czyli wirtualną, inteligentną, wirtualną białą laskę. I to jest super sprawa. Za chwilkę. Poniżej tego mamy jeszcze elementy, które w trakcie tego skanowania zostały wykryte. I tu sobie przeglądam. Plate, czyli talerz. To przede mną na stole leżało. I co, tyle? Uwiązł mój fokus, ten system iOS jest po prostu boski. Dobra, musicie mi wierzyć na słowo, że tych elementów, obiektów było więcej, ale żebyście nie musieli wierzyć na słowo, to kliknę jednak ten, gdzie jest ta wirtualna. Smart digital cane. Inteligentna laska. I słyszymy. Coach, czyli sofa. Pillow, czyli poduszka. Co tam jeszcze mamy? Czekajcie, bo jakoś tak trzymam dziwnie telefon. Dobra, coach było. Person to jest głowa manekina ze słuchawkami. Skrytka, storage box. Biurko, to mam przed sobą, okulary, to czego inne aplikacje nie były w stanie wykryć. Tak naprawdę ta aplikacja działa o wiele lepiej, jak też troszkę się ruszamy, w sensie jak ja bym wstał i się poruszał, a nie tylko siedział pilnując, żeby mi tu szereżące kable nie trafiły. Czyli ta person, o której wcześniej mówił jakiś tam program, teraz bez problemu rozpoznał jako dog, jako zakusia leżącego obok. Patrzymy dalej. Coś tu jeszcze mamy? Jakieś inne charakterystyki. Półka, gitara, poduszka, gitara. Nie będziemy patrzeć jeszcze tu. Słuchajcie, mam światło sztuczne, okulary znowu, więc jakość rozpoznawania też jest determinowana przez to światło. W dziennym, jasnym świetle ta aplikacja działa obłędnie. Widzicie sami różnice między tym rozwiązaniem a wcześniejszymi. Co ona jest w stanie wykrywać? Wcześniej nie słyszeliście, że gdzieś tam jest gitara, że poduszki są, że miejsce do siedzenia to sofa, że okulary na stole, czy talerz, że leży, że pies. To wszystko MyFinder bez problemu wyłapuje. Co więcej, możemy tutaj skorzystać z opcji, zobaczmy tylko teraz, o, na przykład. Dajmy teraz search, czyli wyszukaj. Pukam sobie w tą opcję i mam tutaj opcję odnalezionych obiektów. Mogę albo szukać z tych, które już zostały wykryte, albo mogę z palca wpisać, żeby ten pilot remote wspomniany, bez pomocy Siri, mogę sobie wpisać z palca i wtedy za pomocą tej aplikacji, zamiast obmacywać jakieś powierzchnie w pokoju, mogę po prostu rozejrzeć się, kręcąc tylko urządzeniem, czy coś jest, gdzieś pilot na stole, czy go nie ma, w poszukiwaniu. Jak to się działa tutaj? Poczekajcie. Mam gdzieś listę, czy tylko pole tekstowe? Nie, dobra, czyli tu mam pole tekstowe. Nie chcę teraz, bo to wiecie, za dużo czasu by mi zajęło, nie chcę pisać. A focus mi ucieka, nie mam listy. Czekajcie. Dajmy coś, pies, dobra, dog. Ale nie mam czynności. Nie jestem w stanie teraz tego wywołać. Mam teraz tak, get navigation to dog, czyli mogę zacząć nawigowanie do psa lub innego obiektu. I mogę tylko aktywować. Jak dam aktywuj, nawigacja rozpoczęta. No i mam informację, że go znalazłem, bo jest mniej więcej w odległości metra. Gdybym wpisał tutaj np. telewizor, czy ten pilot, czy cokolwiek innego, na tej zasadzie spokojnie mogę rozglądać się po pomieszczeniu. To są niestety ograniczenia mojego nagrywania, żeby się w kable nie zaplątać, to nagrywam to na siedząco. Ale jeśli macie możliwość sprawdzenia, jak działa ta aplikacja, to według mnie właśnie MyFinder jest najlepszą aplikacją lidarową dla osób z dysfunkcją wzroku. Działa fenomenalnie. W tej podstawowym działaniu jest zupełnie bezpłatna. Tylko gdybyście chcieli właśnie korzystać z Siri lub korzystać z wolontariusza. Minusem jest kwestia uruchamiania tej aplikacji, bo poza tym, że musicie zgodzić się na samo korzystanie z kamery, to są tam, przepraszam, dwa elementy. Po pierwszym uruchomieniu wybieracie, czy chcecie być wolontariuszem, czy chcecie być osobą, która potrzebuje pomocy. Niestety nie pamiętam w tym momencie, jak to określenie brzmi dokładnie, ale chodzi generalnie o coś na zasadzie, że jestem osobą potrzebującą wizualnej asysty. Wybieracie tę opcję w następnym kroku, zakładacie konto. Może to być konto aploskie. Macie taką funkcję zarejestruj się przez Apple i wtedy dopiero możecie bezpłatnie korzystać z tej aplikacji. Pamiętajcie oczywiście o zasubskrybowaniu kanału, jeśli jeszcze tego nie zrobiliście, bo wtedy będziecie otrzymywać powiadomienia o kolejnych nagraniach z mojej szuflady. A na dzisiaj to już wszystko. Bardzo Wam dziękuję za uwagę. Kłaniam się nisko i zapraszam do kolejnych nagrań, vlogów z mojej szuflady. Piotr Witek.