Witajcie kochani w kolejnym nagraniu z Mojej Szuflady, Piotr Witek się kłania. W dzisiejszym odcinku chciałbym Wam zademonstrować jak nie działają dwie nowe, dostępnościowe funkcje od Apple, czyli tryb wykrywania tekstu i tryb wskaż i mów. Tak, tak, jak nie działają, bo trzeba Wam wiedzieć, że to nie jest tak, że ja pokazuję tylko i wyłącznie to co działa, także też to co nie działa, a ponieważ tutaj zakres czy skala tego jak bardzo te funkcje nie działają jest przeogromna, no więc koniecznie muszę Wam pokazać, żeby przypadkiem nie przyszło Wam do głowy, że te funkcje mogą być powodem migracji do nowego systemu. Przede wszystkim o jakich funkcjach mówimy? Mówimy o funkcjach, które znajdują się w trybie wykrywania, czyli znajdują się one w urządzeniach, które posiadają lidar, czyli iPhony z serii Pro, a także niektóre iPady. I jak tą funkcję wywołujemy? Tak jak Wam już kiedyś o niej wspominałem, możemy ją wywołać albo otwierając latarkę i tam stukając w przycisk tryby wykrywania, albo mamy na to w systemie iOS i iPadOS 17 nowy gest, czyli trzykrotne stuknięcie czterema palcami. Ja ten gest sobie troszkę zmieniłem i ja stukam dwukrotnie, ale Wy jeśli zaktualizujecie sobie system, to trzykrotnie stukacie czterema palcami. Ja teraz wywołuję tą funkcję, pyk, pyk, sekundkę, o, teraz, no i słyszymy lupa, wizjer, już mamy podgląd z kamery i mamy kilka trybów wykrywania. Co mieliśmy dotychczas? Mieliśmy wykrywanie osób, wykrywanie drzwi, o obu tych funkcjach robiłem już nagranie, możecie je sobie znaleźć na moim kanale i pojawiły się dwie nowości, wykrywanie tekstu oraz tryb wskaż i mów. Zwróćcie uwagę, to takie lagowanie, takie pauzy, one się nie biorą znikąd, to są też problemy, jakie ma ta wersja, przynajmniej iOS jeszcze testowa czwarta beta. Więc cóż, zobaczmy jak to działa, wybierzmy najpierw opcję pierwszą, wykrywanie tekstu. Ja aktywuję tą funkcję, klik, klik i przed sobą mam karteczkę, odsuwam, to są podpowiedzi głosowe. Dlaczego ona to czyta? Czyta, bo tekst jaki pokazałem aplikacji iPhone'owi jest w języku niemieckim, bo aplikacja wybiera język. Teraz pokazuje po angielsku tekst, no i patrzcie, jest zonk, nie rozpoznaje, słuchajcie, tekst, który każda aplikacja typu Sync Assistant Home lub Sync AI rozpoznaje bez problemu. Możemy jeszcze, o, wykrywanie tekstu wyłączone, wyłączę go i włączę go ponownie, w takim razie wykrywanie tekstu włącz. Zawsze fajnie czyta, fajnie wykrywa, ale czy to jest aż tak super hiper, to bym nie powiedział, bo według mnie o wiele lepiej radzą sobie aplikacje właśnie typu Sync AI. Oczywiście tą funkcję wykrywania języka i przełączania się na dane syntezator mowy można sobie wyłączyć. Dlaczego ja Wam to zostawiłem? Ponieważ ta funkcja do rozpoznawania tekstu używa słowników języków Siri. Ja teraz tutaj wyłączę na chwilkę i włączę ponownie wykrywanie tekstu, ale już mam tutaj przed sobą polską ulotkę, aktywujemy i pasuje. Pokazuję ulotkę, wyciągnę to ze skrzynki pocztowej i nic się nie dzieje. Jeszcze raz. Nie wykrywa mi tekstu. Nic. Słuchajcie, język polski, aplikacja nie daje rady. Co ciekawe, czasami język polski rozpozna i próbuje odczytywać za pomocą rosyjskiego lub ukraińskiego. Czekajcie, wyłączę. Dobra, bo te komunikaty głosowe są za głośne. Czasami próbuje polskie teksty odczytywać korzystając ze słowników rosyjskich lub ukraińskich. To już ciekawostka, obsługuje system język ukraiński, polskiego nie obsługuje, a przypominam, że te wszystkie opcje ułatwień dostępu otrzymały język ukraiński dopiero rok temu, więc to też jest zastanawiające, dlaczego od razu jest tutaj język ukraiński, a języka polskiego nie ma. Oczywiście możemy sobie te wszystkie funkcje tutaj ustawiać i mamy kilka ustawień dla każdego z poszczególnych trybów. Jak klikniemy sobie w ustawienia, u góry przycisk ekranu mamy ustawienia trybu wykrywania i mamy poszczególne tryby. Wykrywanie tekstu, gdy aktywujemy sobie. Mamy tutaj też możliwość rozpoznawania etykiet, ja to mam wyłączone, ponieważ o wiele gorzej, jeśli można jeszcze tak powiedzieć, działa ta funkcja, jeśli mamy zaznaczone wykrywanie etykiet. Mowa, czyli to, że automatycznie tekst jest nam odczytywany. Tu mamy podpowiedzi. Latarka automatyczna, to słyszeliście, że automatycznie, gdy nie ma za dużo światła, choć teraz jestem w pełnym słońcu, więc tutaj nie powinno być problemu. No i to są tego typu ustawienia. Jeśli chodzi o samo wykrywanie i możliwość przełączania języków, to u samego dołu ekranu mamy takie ogólne ustawienia. Już po kolejnych trybach wskaż i mów, możemy kliknąć sobie tryby wykrywania i tutaj mamy właśnie dla całego trybu takie generalne, globalne ustawienia. Powiedź po wstrzymaniu wykrywania na główek. Mowa, przełącznik, włączone. Dźwięki, przełącznik, wyłączone. Dźwięki, ja wyłączyłem te dźwięki, bo tak jak nad mową, nad głośnością mowy, nie mam tutaj kontroli w nagraniu, tak samo nad dźwiękami. Mowę można wycieszyć dźwięków nie, więc wyłączyłem te dźwięki, bo bardzo by Wam po uszach dawały. Mamy haptykę. Wykrywanie języków, które możecie sobie tutaj też wyłączyć, więc tak to działa. Ale okej, mamy tryb wykrywania tekstu, więc teraz przejdźmy sobie do praktycznych działań z trybem wskaż i mów, czyli trybem, który co do zasady ma działać w taki sposób, że my palcem wskazujemy jakiś obiekt, jakiś tekst, szczególnie chodzi tutaj o urządzenia typu AGD, odsuwamy obiektyw kamery na jakieś 50 cm, tak żeby nasz palec i urządzenie znalazło się w kadrze i nasz iPhone powinien nam odczytać to, co my wskazujemy palcem. A jak to działa w praktyce? Zobaczmy. To zaczniemy jeszcze od tego, że musimy zamknąć ustawienia, robimy to w prawym górnym rogu przyciskiem OK. I teraz wybieramy sobie tryb wskaż i mów. Mamy wyłączone, więc klikamy i aktywujemy go. Ciach. W tym momencie jestem przed ekspresem do kawy, palcem przejeżdżam po nazwach kaw i staram się mieć oczywiście mój palec w kadrze, na ile jestem w stanie oczywiście, bo pamiętamy, że ma to robić osoba niewidoma, nie osoba widząca, która sama sobie przeczyta. I patrzcie, nic mi iPhone nie czyta. Słyszycie? Wcale dłoń nie jest zbyt blisko. Mogę jeszcze palcem odsunąć. To nie działa. Teraz popatrzmy z drugiej strony ekspresu. Dłoń wykryta. No spokojnie, jest pół metra. Teraz przybliżam jeszcze raz. Telefon przybliżyłem do samego ekspresu. Odsuwam. O! Jeżdżę po tekście i figę z tego mam. Po drugiej stronie ekspresu zobaczmy. Dłoń wykryta. Teraz lekko obracam urządzeniem, nic się nie dzieje. Jeszcze raz przykładam. Kamerę do palca. Odsuwam kamerę. Dłoń wykryta. Jadę palcem i urządzenie nic mi nie czyta. Po prostu nic. Zobaczmy w takim razie. O! Przeczytało espresso. Tutaj od góry idąc, jak przejeżdżam palcem, w tym momencie mam palec pod ekspressem. Potem mam longę i tak dalej. A tutaj po drugiej stronie. O! A na ekranie zobaczmy. Na ekranie zupełnie nic nie czyta. O! Cappuccino powinien teraz. Jeszcze raz. Cappuccino, nic. Powinien latte, macchiate. Także tak to działa. Zobaczmy jeszcze w takim razie na innym urządzeniu. Zaraz do Was wracam. Zmieniliśmy urządzenie. Jesteśmy teraz przy pralce. Mamy tutaj kilka przycisków. Kieruję oko kamery w stronę pralki i palcem podążam. Oświetlenie mamy typowo łazienkowe. Tekst do góry nogami. Jakbym obrócił pralkę do góry nogami. Jadę palcem dookoła programatora i mi czyta 60 stopni. Pokrętło ma te same informacje. W tym samym miejscu są stopnie i prędkości obrotów. On to czyta, ale żebym ja coś z tego wiedział to bym nie powiedział. 40 stopni. Przesuńmy. Szukamy on off. Ci co widzą to widzą, że mój palec przejeżdża w różnych miejscach i to co czyta iPhone jest mało miarobajne. Czyli funkcja co do zasady jakoś tam została zaprojektowana, ale żeby działała to na pewno nie w taki sposób, żeby można było jej zaufać. Tu mam lampki. Mówi o timerze. Czytam ich wartość. Ale to mi tak czyta, bo czyta, ale żebym ja coś z tego wiedział to tego bym już nie powiedział. Jak widzicie trudno powiedzieć, żeby te funkcje działały. To że są to jest fajny krok w dobrym kierunku, ale na pewno nie są one powodem, aby aktualizować system do iOS 17. Mam nadzieję, że one oczywiście zostaną poprawione, w sensie ich działanie, tych funkcji, że otrzymają przede wszystkim język polski, bo ja też specjalnie się pokazywałem wam oznaczenia, na których mamy informacje w języku angielskim. Więc aplikacja powinna sobie z nimi poradzić bez problemu, a nawet w tym języku sobie nie poradziła. Tak więc z mojej strony tyle. Wnioski wyciągnijcie sami. Ja na pewno nie rekomenduję, przynajmniej póki co, instalowania systemu iOS czy iPadOS 17. Pamiętajcie, że tak naprawdę dopiero parę miesięcy po premierze wszystkie błędy są usuwane z tego systemu, więc warto to wziąć pod uwagę, żebyście później nie żałowali, że coś wam nie działa. Pamiętajcie o tym, proszę. Tyle z mojej strony. Bardzo wam dziękuję za uwagę. Pamiętajcie oczywiście o zasubskrybowaniu kanału, żeby żadne nowości wam nie umknęły. Z mojej strony to tyle. Bardzo wam dziękuję. Raz jeszcze zapraszam do kolejnych vlogów z mojej szuflady. Kłaniam się nisko. Piotr Witek.