Witajcie kochani w kolejnym nagraniu z Mojej Szuflady, Piotr Witek się kłania. W dzisiejszym odcinku chciałbym zademonstrować Wam kolejną aplikację na system iOS i iPadOS, która umożliwia rozpoznawanie obiektów widzianych okiem kamery. Aplikacja nazywa się iCanSee, czyli ja mógł widzieć i oczywiście dedykowana jest osobom niewidomym. Jak ona wygląda? Przełączamy się od razu na okno naszej aplikacji. W momencie, gdy uruchamiamy tą aplikację po raz pierwszy, aplikacja odzywa się do nas po angielsku. Mam nadzieję, że teraz to, co usłyszeliście, ten głos, który ja słyszę w słuchawkach, Wy również słyszycie w nagraniu. Tutaj pewności nie mam, więc w razie czego ja będę Wam powtarzał to, co automatycznie mówi nam aplikacja. Aplikacja mówi do nas w języku angielskim, może również mówić do nas w języku rosyjskim. Póki co nie ma innych języków, no ale ja oczywiście będę Wam tłumaczył to, co aplikacja mówi. Tutaj otworzę na chwilkę ustawienia, czyli tutaj czyta zamiast settings, czyta główne menu. I tu oczywiście możemy sobie poczytać jakieś ustawienia, preferencje głosu, głośność i tak dalej. Czułość aplikacji, na co ma reagować. Chciałem Wam tylko pokazać, żeby w momencie, gdy wrócimy sobie do ekranu głównego, aplikacja powinna nas powitać dokładnie tak samo, jakbyśmy ją uruchomili tak po prostu z ekranu, czyli powinna nam powiedzieć I can see. I can see. Jak usłyszeliście, aplikacja tak nas będzie witać. No i co ta aplikacja potrafi? Generalnie wystarczy skierować obiektyw naszego urządzenia na jakiś obiekt. Na przykład ja w tym momencie kieruję na mikrofon. Znaczy mam zasłonięty w tym momencie ekran specjalnie, żeby nie było zbyt dużej gadatliwości i teraz kieruję obiektyw na mikrofon i słyszymy od razu mikrofon. Odsunę mikrofon i pokazuję mu okulary przeciwsłoneczne. I od razu sunglasses są rozpoznane. No to pokażmy mu może zamiast okularów przeciwsłonecznych, wezmę sobie tutaj pilota i pokazuję mu pilota. Modem. Remote control. Remote control. Modem. I od razu rozpoznaje pilota. On mówi modem jak ja mu zasłaniam ekran, więc tym się na razie nie sugerujcie. Teraz pokażę mu portfel. Zwykły portfel. Wallet. Wallet. Wallet. Od razu mam informację, że jest to wallet, że został on rozpoznany. No to pokażę mu teraz komputer leżący przede mną. Notebook. Notebook. Notebook. Rozpoznaje notebooka. Więc słuchajcie, niby teoretycznie wszystko jest super fajnie, bo co mu pokażę to on od razu rozpoznaje. Bazuje ten program oczywiście na jakichś takich sztucznych sieciach neuronowych i generalnie dzięki temu rozpoznaje całkiem fajnie, ale ma też takie problemy z rzeczami, które wydają się dość oczywiste. Ja teraz położyłem przed sobą słuchajcie kostkę Rubika i zobaczymy co on powie. Chest. Birdhouse. Birdhouse. Birdhouse. Zupełnie rozpoznaje różne rzeczy, ale nie jest to kostka do gry. Dajmy mu jeszcze szansę. Pokażę mu na przykład ładujący się Apple Watch w tym momencie. Pencil sharpener. Pencil sharpener. Digital clock. I dopiero za którymś podejściem rozpoznaje, że jest to zegarek cyfrowy. To teraz może się pokaż mu pieska, czy rozpozna pieska na sofie. Diaper. Chesapeake Bay Retriever. Chesapeake Bay Retriever. I tu zwróćcie uwagę, że jest w stanie rozpoznać nie tylko, że jest to pies, ale także rozpoznaje rasy psa. Także te sieci neuronowe, tak jak nie są w stanie rozpoznać czasami bardzo oczywistych obiektów, to jak są inne obiekty typu, nie wiem, półka na książki, to jest problemem rozpoznaje. Jednak ma duże problemy czasami z takimi podstawowymi rzeczami, które są, ja tu zatrzymam teraz, żeby nie trzeba było cały czas zasłaniać kamery i żeby on cały czas nie gadał. Czasami ma problemy z takimi dość oczywistymi rzeczami. To jest jego jedna wada. Kolejna, poza tym, że interfejs jest tylko w języku angielskim lub rosyjskim. Druga wada, pokażę Wam to i włączę raz jeszcze rozpoznawanie i pokażę Wam po prostu moje biurko. Zobaczcie ile on będzie gadał. Żadnej fotokopiarki tu nie ma, iPada tu nie ma. To jest to, co pokazuje, to jest moja plastikowa, w sensie nie moja, że moja głowa, ale taka plastikowa czarna głowa, na której trzymam słuchawki. Więc są obiekty takie, które wydaje mi się trafiły tutaj do jakiejś bazy i one po prostu są interpretowane na bazie, na podstawie tego, co jest zgromadzone w bazie, więc to jest też czasami słabe, ale dzięki temu, jak widzieliście, część obiektów, że to są rzeczy, które są tylko porównywane, a nie rozpoznawane od podstaw, identyfikowane są bardzo szybko i poprawnie, bo te rzeczy, które Wam pokazałem na początku, takie dość oczywiste, bardzo łatwo są identyfikowane, co więcej też takie sytuacje, jak na przykład pokazałem Wam pieska, to od razu rasa psa została zidentyfikowana. I teraz, co ta aplikacja ma w wersji darmowej i płatnej? Bo ja Wam teraz zademonstrowałem możliwości wersji darmowej, bezpłatnej, ale mamy też wersję pro, która jest wersją płatną i co ona oferuje? Ona oferuje dodatkowo trzy tryby. Pierwszy tryb to po prostu podawanie godziny, taki dość prosty feature, prosta rzecz, w momencie, gdy, obojętnie w którym momencie uruchomionego ekranu tej aplikacji dotkniemy, odtwarzana jest godzina, w sensie mówi telefon, która jest godzina. Drugi feature to jest nocny tryb. Nie mam wersji pro, więc Wam nie powiem, jak to działa, czy po prostu uruchamiana jest kamera, czy dodatkowo jakieś tutaj wykorzystywane są czujniki lidara, czy czegoś takiego, więc tutaj nie powiem, wiem tylko, że jest nocny tryb, który ma na przykład wspomagać nas w funkcjonowaniu na zewnątrz, gdybyśmy chcieli wykorzystać tą aplikację do rozpoznawania obiektów w trakcie poruszania się, bo mamy też taką informację w momencie, gdy wejdziecie w ustawienia, że ta aplikacja pomaga nam rozpoznawać nie tylko meble, nie tylko obiekty takie, jakieś sprzęty AGD, czy elektronikę drobną, ale także różnego rodzaju przeszkody na drodze. I teraz uwaga, bo tak naprawdę najistotniejsza, najciekawsza jest trzecia funkcja. Zwróciłem Wam uwagę, że aplikacja jest bardzo gadatliwa i mówi różne rzeczy, i mówi ich dużo, więc trzecia funkcja umożliwia poproszenie aplikacji, i to poproszenie głosowo, żeby wskazywała nam konkretne rzeczy, których szukamy, czyli żeby po prostu informowała nas o tych rzeczach, których szukamy, gdy tylko trafią one w obiektyw kamery. Czyli gdybym poprosił, nie wiem, na zasadzie tell me about remote control, powiedz mi o pilocie i zaczął pokazywać kamerą po moim biurku, to nie będzie mi anonsował różnych rzeczy, które wpadają w oko aplikacji, tylko powie mi, odezwie się dopiero wtedy, kiedy zobaczy ten pilot, którego szukam. Analogicznie, idąc drogą, idąc ulicą, możemy ustawić sobie telefon w taki sposób, żeby na przykład informował nas o przejściu dla pieszych, o zebrze, czy o innych charakterystycznych punktach, które chcemy, aby nasz telefon zobaczył. Jest to aplikacja, która w jakimś stopniu może nam pomóc w orientacji, aczkolwiek ja bym nie bazował na tym, nie opierał mojego własnego bezpieczeństwa. Myślę, że jest to raczej taka aplikacja, która może stanowić jakąś tam dodatkową pomoc. Zachęcam Was do testów. Gdybyście chcieli sobie kupić wersję PRO tej aplikacji, to jest wydatek w tym momencie rzędu 50 zł. No i oczywiście musicie się liczyć w tym, że nie ma tutaj języka polskiego. Więc tyle z mojej strony. Przypominam, aplikacja iCanSee. Linki oczywiście znajdziecie w mojej szufladzie i w opisie do tego nagrania. Tyle. Bardzo Wam dziękuję za uwagę. Pamiętajcie oczywiście o zasubskrybowaniu kanału, jeśli jeszcze tego nie zrobiliście. To po to oczywiście, żeby nie umknęły Wam żadne nowości. Ja ze swojej strony bardzo Wam dziękuję za uwagę i zapraszam Was do kolejnych vlogów z mojej szuflady. Kłaniam się nisko, Piotr Witek.