Artykuł – Nowości dostępnościowe w iOS14

O nowościach dostępnościowych w iOS 14 pisałem do wrześniowego numeru Mój Mac Magazyn. Ale gdyby komuś umknął ten tekst, to umieszczam go również poniżej. Miłej lektury.
Logo Mój Mac Magazyn

Nowości dostępnościowe w iOS14

Kolejny rok przyniósł nam nową, już 14 wersję mobilnego systemu operacyjnego dla urządzeń firmy Apple. Zatem zgodnie ze świecką tradycją, od kilku lat kultywowaną w w MMM, przyszła pora na podsumowanie nowości z obszaru dostępności, jakie zostały zaimplementowane w iOS14.

Wzrok

Chyba najbardziej wyczekiwaną przez osoby z dysfunkcją wzroku nowością w systemie iOS14, była zapowiadana od dłuższego czasu, możliwość rozpoznawania tekstu na zdjęciach i obrazach. Niestety, na starszych modelach wykorzystywanych przeze mnie do testów typu iPhone 8, ta funkcja albo w ogóle nie działa w typowy sposób, albo system potrzebuje więcej czasu aby zdjęcia zapisane w rolce mogły zostać poddane odpowiedniej procedurze OCR.

Aktualnie działanie tej funkcji ogranicza się do trybu na żywo, czym najbardziej przypomina rozpoznawanie krótkich tekstów w aplikacji Seeing AI. W przypadku iOS14 wystarczy uruchomić kamerę iPhone w trybie Aparatu, aby system w locie zaczął rozpoznawać tekst. A gdy tylko jakiś tekst znajdzie się w obiektywie kamery, program odczytu ekranu zacznie go odczytywać użytkownikowi. Funkcja ta działa automatycznie, jeśli tylko VoiceOver jest włączony. Niestety, do tempa i jakości pracy Seeing AI jeszcze jej sporo brakuje.

W trybie włączonego aparatu, iOS14 wprowadza rozpoznawanie obiektów w locie. Wcześniej ta funkcja dostępna była jedynie dla użytkowników iPhone 11. Aktualnie również właściciele starszych urządzeń mogą skorzystać z kamery do „rozejrzenia” się wokół siebie. Przy włączonym programie odczytu ekranu VoiceOver, iPhone anonsuje obecność różnych obiektów widzianych okiem kamery w rodzaju: stół, okno, obraz, pies itp. itd.

Rozpoznawanie obiektów na zdjęciach i obrazach, choć obecne wcześniej w systemie iOS13, w nowszej wersji iOS działa znacznie lepiej. Co ciekawe, rozpoznawanie obrazów zostało rozszerzone również na różnego rodzaju ikony, w tym także te systemowe. VoiceOver informuje o użyciu funkcji rozpoznawania, albo odpowiednim dźwiękiem, albo komunikatem głosowym. Anonsowanie rozpoznanej grafiki można również całkowicie wyłączyć.

Nowy system iOS umożliwia wreszcie trwałe etykietowanie zdjęć i nagrań video. Oznacza to, że po odpowiednim opisaniu zdjęcia lub nagrania video, gdy użytkownik zechce je komuś udostępnić, to będzie mógł to zrobić wraz z przypisaną etykietą. Była to jedna z tych bardzo oczekiwanych funkcji, szczególnie przez osoby z dysfunkcją wzroku, które nigdy nie były pewne jakie zdjęcia znajdują się w rolce aparatu, które można udostępnić, które skasować, a które komuś pokazać. Użytkownicy VoiceOver mogą zapoznać się z podpisem zdjęcia lub video korzystając z wirtualnego pokrętła, i jego nowej pozycji o nazwie Więcej Zawartości.

W iOS14 VoiceOver w znacznie szerszym zakresie wykorzystuje uczenie maszynowe. Dzięki temu może wykrywać, i opisywać w inteligentny sposób różnego typu elementy sterujące. Jeśli w danej aplikacji znajdują się elementy o programistycznie nieokreślonej roli (przycisk, pole wyboru etc.), VoiceOver jest w stanie je zidentyfikować, określić ich stan (włączone, zaznaczone etc.), a nawet umożliwić po nich nawigację za pomocą Wirtualnego Pokrętła. Dzięki tej funkcji, dotychczas niedostępne aplikacje mogą stać się dostępne dla użytkowników VoiceOver.

W systemie iOS14 wielu zmian doczekała się aplikacja Lupa. Przede wszystkim otrzymała ona osobną ikonę aplikacji. Można ją teraz dodać do ekranu głównego, biblioteki aplikacji oraz funkcji SpotLight. Wystarczy włączyć funkcję Lupa w ustawieniach dostępności, aby nowa ikona pojawiła się w katalogu Narzędzia.

Jednak znacznie ciekawszą nowością w aplikacji Lupa, jest możliwość ukrywania wszystkich wyświetlanych kontrolek. Dzięki temu powiększany obraz widziany jest na całej powierzchni ekranu. Wcześniej możliwość taka pojawiała się tylko w momencie wykonania stopklatki. W iOS14 panel z kontrolkami można zsunąć w dół, poza ekran, a pozostałe widoczne suwaki ukryć podwójnym stuknięciem w ekran. W ten sam sposób przywołujemy je z powrotem.

Zmianie uległ także widok interfejsu, na pierwszym planie umieszczony został suwak kontrastu. Za to pozostałe elementy interfejsu użytkownik może teraz dopasować do własnych preferencji, np. wybierając które elementy mają być najbardziej wyeksponowane, które zminimalizowane, a które ukryte. W podobny sposób można spersonalizować listę filtrów, odznaczając te, z których nie korzystamy.

Aplikacja otrzymała również nowy tryb Multiujęć, umożliwiający wykonywanie wielu tymczasowych stopklatek, które nie są zapisywane w rolce aparatu. Aby je przejrzeć, należy stuknąć w Pasek Stopklatek, zlokalizowany w prawym, dolnym rogu ekranu. Zdjęcia przechowywane są na Pasku do momentu stuknięcia w przycisk Zakończ.

Ruch i Motoryka

W tej sekcji Dostępności, pod przyciskiem Dotyk, pojawiła się zupełnie nowa funkcja o nazwie Stuknięcie w Tył. Polega ona na możliwości wywołania, poprzez podwójne lub potrójne stuknięcie jednym palcem w tył iPhone, którejś z predefiniowanych akcji. Są to zarówno skróty systemowe, pozwalające otworzyć centra Powiadomień czy Sterowania, zwiększyć lub zmniejszyć głośność, zrobić zrzut ekranu, lub zablokować ekran, jak i skróty Dostępności umożliwiające włączanie i wyłączanie VoiceOver, Zoom, Asistive Touch, Lupy, czy zmianę kolorystyki. Jednak największe możliwości nowej funkcji drzemią w połączeniu Stuknięcia w Tył z własnoręcznie tworzonymi Skrótami. W ten sposób możemy wywoływać dowolną aplikację, zaprogramowaną akcję i co tam tylko przyjdzie nam do głowy.

Funkcja Voice Control, umożliwiająca sterowanie iPhone bez jego dotykania, otrzymała dwa nowe języki. Oczywiście jeśli tak w ogóle można nazwać Brytyjski i Indyjski angielski, które dołączyły do Amerykańskiego angielskiego.

Jednak najważniejsza zmiana dotyczy możliwości współpracy funkcji Voice Control z systemowym programem odczytu ekranu VoiceOver. Dotychczas osoby z dysfunkcją wzroku nie mogły z tej funkcji korzystać. Obecnie oba rozwiązania doskonale ze sobą współpracują.

Słuch

Sekcja Słuch w iOS14 zawiera zupełnie nową funkcję o nazwie Rozpoznawanie Dźwięku.
Jej aktywowanie sprawia, że iPhone zaczyna nasłuchiwać dźwięków otoczenia, i alarmować użytkownika w momencie, gdy wykryty zostanie jakiś odgłos, należący do jednej z 14 różnych kategorii dźwięków, np. dzwonków do drzwi, alarmów czujnika dymu, krzyków, szczekania psa lub płaczu dziecka. Jeśli iPhone rozpozna dźwięk, na ekranie pojawia się powiadomienie z informacją, że został wykryty dźwięk, który brzmi np. jak dzwonek do drzwi.

Jest to funkcja szczególnie ważna dla osób głuchych i niedosłyszących. Dzięki niej zostaną one poinformowane o istotnych wydarzeniach, o których nie mogłyby się dowiedzieć w inny sposób. Jednak jest to również niezwykle przydatna funkcja dla wszystkich lubiących słuchać na słuchawkach głośnej muzyki, lub dla osób korzystających z funkcji aktywnej redukcji hałasu. Każdy człowiek w takiej sytuacji nie usłyszy dzwonka do drzwi, alarmu, czy płaczu dziecka.

Wśród opcji Dostępności znalazły się także ustawienia dotyczące słuchawek, a w szczególności AirPods Pro oraz Beats. Poza takimi dedykowanymi dla AirPods Pro drobiazgami, jak możliwość włączenia tłumienia hałasów otoczenia tylko w jednej słuchawce, czy ustawienie siły nacisku na przełączniki słuchawek, opcja o nazwie Dźwięk Wizualny kryje w sobie możliwość precyzyjnego dostrajania słuchawek. Użytkownik może w ten sposób dopasować do swoich preferencji odpowiednie brzmienie dźwięku, oraz przypisać je do różnych sytuacji np. Połączenia Telefoniczne czy Słuchanie Muzyki. Kreator ustawień jest bardzo prosty, i przez cały czas prowadzi użytkownika za rękę. Całość konfiguracji trwa ok. 5 min.

RTT (ang. Real-Time Text – Tekst na żywo) to usługa z której od roku 2017 korzystać mogą niesłyszący użytkownicy systemów iOS. RTT przypomina nieco wymianę wiadomości tekstowych. W tej usłudze tekst wpisywany przez nadawcę jest w tym samym czasie widziany przez odbiorcę. Nie trzeba stukać w przycisk Wyślij. Dzięki temu rozmowa jest dynamiczna,, znacznie szybsza i bardziej naturalna. iOS14 wprowadził możliwość wyświetlania powiadomień i tekstów RTT również na innych ekranach, nie tylko w oknie rozmowy.

Kolejna nowość dostępnościowa dedykowana osobom głuchym pojawiła się w FaceTime Video. Dotychczas w trakcie rozmowy video na FaceTime powiększany był obraz aktualnie mówiącej osoby. Od iOS14 FaceTime automatycznie rozpoznaje czy w danym połączeniu video uczestniczy osoba posługująca się językiem migowym. Jeśli iOS wykryje taką osobę, to w momencie gdy zacznie ona migać, jej obraz zostanie automatycznie powiększony tak, aby inni uczestnicy nie mieli problemu z dostrzeżeniem każdego, najmniejszego gestu i szczegółów mimiki twarzy.

Ostatnią nowością z obszaru dostępności, jaka trafiła do iOS14, jest możliwość przeprowadzania cichej konwersacji z Siri. Teraz gdy włączony jest tryb wyciszenia iPhone, Siri na nasze pytania nie będzie odpowiadała głosem, a jedynie wyświetli odpowiedzi na ekranie. Jeśli jednak przy nadal włączonym wyciszeniu wywołamy asystentkę komendą Hej Siri, to odpowie nam głosowo, tak jak bez wyciszenia. Funkcja ta domyślnie jest włączona, więc jeśli komuś jej działanie się nie podoba, warto ją od razu wyłączyć.

Podsumowanie

Po raz kolejny do systemu iOS trafił cały szereg udogodnień sprawiających, że coraz więcej osób o specjalnych potrzebach będzie chętniej sięgać po mobilne urządzenia Apple. Co więcej, wraz z kolejnymi wersjami beta, można było zauważyć, że pojawiają się, a następnie po testach wycofywane są różne drobne zmiany, które nie zostały uznane za warte wdrożenia. Przykładem takiej funkcji była nowa opcja VoiceOver o nazwie Mów w trakcie połączeń. Jej aktywowanie sprawiało, że głos VoiceOver słyszalny był dla innych uczestników połączeń telefonicznych lub FaceTime. W najnowszej becie iOS14.6 – najnowsza na czas pisania tego artykułu – ta funkcja już nie występuje. Więc albo nigdy się już nie pojawi w systemie, albo dopiero w ulepszonej odsłonie trafi do którejś kolejnej wersji iOS. Dzięki takiemu podejściu, do finalnego systemu dołączą tylko sprawdzone rozwiązania, nie sprawiające użytkownikom żadnych trudności, tym samym zachęcając ich do dalszego korzystania z produktów Apple.

W ostatecznej wersji systemu znajdą się na pewno i takie elementy dostępnościowe, o których tutaj nie wspomniałem, ponieważ po prostu ich nie zauważyłem. Zazwyczaj dopiero po kilku miesiącach obcowania z nowym środowiskiem, w przeróżnych sytuacjach, ujawniają się te drobne, na co dzień niezauważane udogodnienia. Więc z myślą o wszystkich użytkownikach systemu iOS o szczególnych potrzebach, mam nadzieję, że będzie ich jak najwięcej.

Jeden komentarz na temat “Artykuł – Nowości dostępnościowe w iOS14

  1. Cieszy coraz większa ilość funkcji dostępnościowych ale jakość wykonania całego systemu to już inna kwestia. Odnoszę wrażenie, że z każdą kolejną wersją jakość wykonania jest coraz gorsza a niechlujstwo coraz większe. Jest coraz więcej irytujących błędów, z którymi nic się nie robi a błędów tych w starszych wersjach nie było.

Możliwość komentowania jest wyłączona