iOS oraz iPadOS 16 – Wszystkie nowości z obszaru dostępności

Czekaliśmy, czekaliśmy i wygląda na to, że w końcu się doczekaliśmy. Zgodnie z najświeższymi informacjami, najnowsze wersje mobilnych systemów operacyjnych Apple zaprezentowane mają zostać wraz z najnowszymi modelami iPhone już 7 września. Przyszła więc pora, aby wymienić i wstępnie ocenić wszystkie nowości w obszarze dostępności jakie trafiły do systemów iOS oraz iPadOS. Zapraszam do czytania i komentowania.

Ekran Uaktualnień iPhone z informacją: System iOS jest aktualny i liczbą 16.

VoiceOver

Ponieważ zakładam, że największe zainteresowanie wśród moich czytelników wzbudzą zmiany i nowości w VoiceOver, to od nich zacznę dzisiejszy wpis. Nie ma ich zbyt wiele, ale na pewno Apple o nas nie zapomniało. 😉

Generalnie do całego systemu iOS / iPadOS trafiło 20 nowych języków interfejsu. Przynajmniej tak podaje Apple. Ja tego nie liczyłem. W każdym razie na pierwszy rzut oka widać, że jest sporo nowych. Nie tylko Bułgarski czy Ukraiński, ale również wiele bardzo egzotycznych języków. Co za tym idzie, mobilne systemy otrzymały również bardzo wiele nowych głosów.

Okno wyboru polskiego głosu - Podświetlona opcja Ewa Premium.

Jak się okazało, również stare języki doczekały się ciekawego uaktualnienia. Wśród angielskich głosów – dla wersji Amerykańskiej i Brytyjskiej – możemy teraz wybrać syntezator Eloquence oferujący 8 różnych brzmień mowy. W tym też te klasyczne, jak Babcia, czy Dziadek. 😉 Ja akurat za nimi nie przepadam. Na szczęście dla osób takich jak ja, na otarcie łez, dla innych języków pojawiło się sporo głosów Premium. Czyli takich o zdecydowanie lepszej jakości. Do tego grona trafiła także polska Ewa. Na ile jej głos stał się Pro możecie sami ocenić odsłuchując poniższe próbki nagrań. Słuchając pomyślcie sobie, że amerykańska Ava w wersji Premium zajmuje 323 MB, a polska Ewa jedynie 67,2 MB. Powiedzieć, że rozmiar jednak ma znaczenie, to nic nie powiedzieć. 🙁

Ewa Rozszerzona (Stara):

Ewa Premium (Nowa):

Niestety nowy system przyniósł ze sobą również nowe błędy VoiceOver. Jednym z nich jest niewczytywanie systemowych słowników wymowy. Więc aktualnie VoiceOver większość rzeczy czyta dokładnie tak , jak zostały one napisane. Dotyczy to również tak popularnych nazw jak YouTube, czy Facebook,. Od czasu do czasu VO przeczyta coś poprawnie, ale stanowi to raczej rzadkość niż regułę. Liczę na to, że w kolejnych wersjach beta zostanie to poprawione, i że do pełnej wersji iOS16 ten bug się nie prześliźnie.

Kolejna nowość zapowiadana przez Apple i szeroko opisywana w notkach prasowych miała dotyczyć zwiększonych możliwości anonsowania przez VoiceOver obiektów widzianych okiem kamery. Dotychczas otrzymywaliśmy informacje o znajdujących się w kadrze osobach, ich ilości i lokalizacji. Odkąd w modelach Pro pojawił się lidar, zaczęliśmy otrzymywać również informację na temat rozpoznanych obiektów. Nowością miało być głosowe i haptyczne określanie odległości do obiektów, wykrywanie drzwi, ich numerów, symboli, np. oznaczenia toalet, klamek, a nawet kierunku otwierania drzwi.

Okno ustawień funkcji Wykrywanie Drzwi

Niestety nie mogłem sprawdzić tych numerów i symboli na drzwiach, ale cała zapowiadana reszta, działa całkiem nieźle. Sam Tryb Wykrywania, trochę mało logicznie, odnajdziemy w ramach funkcji Lupa. Znajduje się dokładnie tam, gdzie zlokalizowane było wykrywanie osób, co demonstrowałem we wpisie Lidar w iPhone 😷 i jego Covidowo – pandemiczne zastosowania. Po zaznaczeniu opcji Tryb Wykrywania i skierowaniu przed siebie obiektywu kamery, VoiceOver zacznie nam anonsować np. takie komunikaty:

  • Wykryto drzwi w odległości 1,5m, obróć klamkę lub gałkę, wahadłowe.
  • Otwarte drzwi w odległości 2m.
  • Drzwi w odległości 4,5m, szybowe.

Co ciekawe, w Trybie Wykrywania VoiceOver odczytuje również napisy na drzwiach. Komunikatom towarzyszą wibracja i dodatkowe dźwięki, częstotliwością występowania określające odległość od drzwi. Im są one szybsze, tym bliżej się znajdujemy. Nasze preferencje dotyczące anonsowania możemy wybrać w ustawieniach samej funkcji.
Z kolei informacja, że drzwi są wahadłowe oznacza, że po prostu otwierają się one w sposób klasyczny, na zawiasach. A w tym ostatnim przypadku mogę się tylko domyślać, że tłumaczowi chodziło o przeszklone drzwi, ale pewnie translator wie lepiej… 😉 O tej funkcji zapewne przygotuję osobne nagranie, które postaram się opublikować już w przyszłym tygodniu.

Niestety, jeśli w naszym urządzeniu ustawiony mamy polski język interfejsu, to VoiceOver nadal bardzo słabo radzi sobie z rozpoznawaniem obiektów w aplikacji Aparat. Przy skierowaniu obiektywu na różne obiekty, VO anonsował będzie jedynie pojedyncze przedmioty typu „okno” czy „laptop”, i to w bardzo przypadkowy sposób. Za to, co wg mnie jest bardzo ciekawe, wystarczy na pokrętle zmienić język VoiceOver na angielski, aby od razu poprawiła się jakość anonsowania. W takiej sytuacji możemy usłyszeć np.:

  • A photo containing a drzwi and a lampa
  • A photo containing a laptop, a wyświetlacz komputera and a wood item
  • A photo of trawa, an okno and a droga (inne)
  • A photo containing an ukulele, a gitara and a tekstylia
  • A photo containing a droga (inne), a glass item, a kurtyna and an okno

Jak więc sami widzicie, nie brzmi to najlepiej. Co więcej, gdy w naszym iPhone mamy ustawiony język polski, to w ogóle nie działa automatyczny odczyt tekstu, taki jaki znamy np. z aplikacji Seeing AI, w opcji Krótki Tekst. A w wersji angielskiej działa to rewelacyjnie. Wystarczy oko kamery skierować na wydrukowany tekst, aby VoiceOver błyskawicznie zaczął odczytywać tekst, nawet taki w języku polskim. Podobnie bardzo dobrze działa rozpoznawanie obiektów, jeśli tylko interfejs naszego iUrządzenia przestawimy na język angielski.

Mapy

iOS16 wprowadza w aplikacji Mapy bardzo ciekawe wsparcie dla VoiceOver. Apple nazywa to informowaniem o punkcie początkowym kierunku marszu. Dotychczas użytkownicy otrzymywali jedynie informację o kolejnych punktach trasy, odległości do nich, oraz wskazówki, że już należy skręcić. Aktualnie VoiceOver może pilnować, czy cały czas trzymamy się wyznaczonej drogi. Jeśli z niej zboczymy, VO zaczyna generować dźwięki. Im bardziej schodzimy z trasy, tym dźwięki stają się częstsze i wyższe. Ustawienie urządzenia we właściwym położeniu, z jego szczytem skierowanym w stronę najbliższego punktu drogi, sygnalizowane jest ciszą i wibracją podobną do tej, która w aplikacji Aparat informuje nas, że złapaliśmy idealnie pionowe ujęcie. W tym wypadku iPhone oczywiście musimy trzymać poziomo. Dodatkowo głosowo anonsowane są kierunki dotarcia do najbliższego punktu / zakrętu na trasie. VoiceOver wypowiada np. następujący komunikat: Ul. Jana Pawła przed tobą, zostało 27 m. Całość sprawia bardzo fajne wrażenie. Coś więcej pewnie będę mógł na ten temat napisać dopiero po dłuższych testach. Na razie mogę powiedzieć tylko tyle, że zapowiada się całkiem nieźle dostępna aplikacja do pieszej nawigacji.

Uwaga! Przynajmniej narazie, automatyczne komunikaty głosowe nakładają się na informacje przekazywane przez VoiceOver. Jeśli Apple tego nie zmieni, to przy korzystaniu z czytnika konieczne będzie wyłączanie automatycznych komunikatów głosowych.

I jeśli chodzi o VoiceOver, to nie zauważyłem żadnych więcej istotnych nowości. A przynajmniej takich, które mógłbym Wam sensownie przybliżyć. Przykładowo w aplikacji Zdjęcia, na niektórych fotografiach lub nagraniach, VoiceOver anonsuje: Wykryto obiekt do uniesienia. Dodatkowo na Czynnościach znajdziemy opcję „Unieś obiekt z tła”, ale co ta funkcja ma robić, to aktualnie nie mam na to żadnego pomysłu. Na Twitterze Patryk pisał jeszcze o drobnych poprawkach typu że zablokowanie ekranu nie rozłączy linijki brajlowskiej, albo że VoiceOver szybciej reaguje na dotyk, i że aparat lepiej rozpoznaje polski tekst. Pierwszego nie potwierdzam, ponieważ nie używam linijki z iPhone. Drugiego również, ponieważ jeśli jakieś zmiany są, to na iPhone 13 Pro są one niezauważalne. A polskie teksty system rozpoznaje rzeczywiście lepiej, ale tylko na zdjęciach. A miał to robić w locie, nawet na materiałach video. Ta funkcja działa jedynie w angielskim interfejsie. Jest jeszcze kilka bardzo niszowych poprawek, w rodzaju anonsowania przez VoiceOver zmiany kolejności nawigacji przy zmianie sposobu prezentowania elementów, ale dotyczą tak niewielkiej grupy odbiorców, że szkoda się na ten temat rozpisywać.

Ruch

Kolejne nowości znajdziemy w sekcji Ustawienia / Dostępność / Ruch, a dokładniej, to w ramach funkcji Redukuj ruch. Pojawiła się tam opcja, która zainteresować może osoby słabo widzące, tj. Ograniczaj częstotliwość klatek. Oczywiście chodzi tu o klatki filmowe. Jak informuje samo Apple, opcja „Ustawia maksymalną częstotliwość klatek na ekranie: 60 klatek na sekundę”.

Okno ustawień Redukuj Ruch

Zawartość Mówiona

Następne nowości zlokalizowano w Ustawieniach / Dostępność / Zawartość mówiona. Dotyczą one dodatkowych ustawień językowych dla funkcji Przeczytaj Ekran. Od iOS16 możemy określić Domyślny Język dla systemowego głosu, a także włączyć opcję automatycznego wykrywania języków, jeśli chcemy syntezą mowy odczytywać treści w różnych językach.

Okno ustawień Zawartość Mówiona

Dotyk

W sekcji Ustawienia / Dostępność / Dotyk odnajdziemy kolejną nowość. Nosi ona nazwę: Nie kończ połączeń po zablokowaniu, i jak łatwo się domyślić, uniemożliwia kończenie bieżącego połączenia poprzez naciśnięcie przycisku bocznego. Generalnie chodzi o to, aby przez przypadek nie rozłączać trwającej rozmowy.

Okno ustawień Dotyku - Podświetlona opcja Nie kończ połączeń po zablokowaniu

Uwaga! Jeśli korzystasz z VoiceOver, to po zaznaczeniu tej opcji nie będziesz w stanie rozłączyć połączenia poprzez jednoczesne naciśnięcie przycisków: bocznego i ciszej.

Steruj pobliskimi urządzeniami

W Ustawieniach / Dostępność pojawiła się całkowicie nowa sekcja o nazwie Steruj pobliskimi urządzeniami. Jak informuje samo Apple: „Funkcja Steruj pobliskimi urządzeniami pozwala obsługiwać przy użyciu tego iPhone’a inne urządzenie zalogowane na tym samym koncie iCloud. Możesz na przykład włączać i wyłączać odtwarzanie multimediów, naciskać przyciski lub używać Siri”.

Okno wyszukiwania urządzeń w pobliżu

Niestety wygląda na to, że funkcja działa jedynie z najnowszymi systemami operacyjnymi Apple, więc puki co nie mam jak tego sprawdzić. Muszę poczekać, aż na innych urządzeniach zainstaluję najnowsze wersje systemów. Aktualnie po aktywowaniu funkcji rozpoczyna się proces wyszukiwania urządzeń w pobliżu, który trwa w nieskończoność.

Słuch

Kolejne nowości trafiły do sekcji Ustawienia / Dostępność / Słuch, a dokładnie do funkcji Rozpoznawania Dźwięku. Samą funkcję już kiedyś Wam demonstrowałem. Było to we wpisie Nowości w iOS14 – Rozpoznawanie dźwięku. Po dwóch latach została ona rozbudowana o dwie nowości.

Okno kreatora dodawania nowego dźwięku urządzenia lub dzwonka do drzwi

Tak na prawdę to nowość jest jedna, ale w dwóch obszarach. Do predefiniowanych dźwięków, które rozpoznawane są przez funkcję, aktualnie możemy dodać własne dźwięki. Może to być jakiś nowy odgłos lub typ alarmu, albo jakieś charakterystyczne urządzenie, lub nietypowy dzwonek do drzwi. Z punktu widzenia głuchych użytkowników, jest to fantastyczna nowość. Nareszcie można spersonalizować rozpoznawanie konkretnych dźwięków.

Siri

Pamiętajcie o tym, że Siri posiada dwie sekcje Ustawień. Jedna znajduje się w głównych Ustawieniach, a druga w Ustawienia / Dostępność / Siri. Ja odnoszę się do tej drugiej lokalizacji.

Jeśli korzystacie z VoiceOver, to pierwszą zmianę w Siri zauważycie już przy pierwszej próbie jej wywołania. Otóż zmienił się dźwięk samego wywołania. Przez lata przyzwyczaiłem się do tego dźwięku, więc na początku ten nowy trochę mnie irytował. Ale po kilku dniach przyłapałem się na tym, że aktualnie to stary dźwięk mnie irytuje. 😉 Nowy jest o wiele niższy i cieplejszy. A skoro o dźwiękach, to od razu dodam, że zmieniły się również dźwięki rozpoczynające i kończące nasłuch przy dyktowaniu, oraz pojawił się nowy dźwięk anonsujący działanie funkcji Rozpoznawanie Ekranu. Ten ostatni występuje w momencie, gdy jakiś element zostanie rozpoznany. Przydaje się o tyle, że czasem użytkownicy w ogóle nie zauważają, że włączyli tę funkcję, a ona zamiast pomagać, to tylko przeszkadza zmniejszając poziom dostępności.

Kolejna nowość nosi nazwę OKRES WSTRZYMANIA SIRI. Dzięki niej możemy teraz określić jak długo Siri powinna czekać, aż skończymy do niej mówić. Jest to szczególnie przydatne, gdy mamy problemy z artykułowaniem słów, czy to z uwagi na jakąś niepełnosprawność, czy słabą znajomość języka Siri.

Okno ustawień okresu wstrzymania Siri

Trzecia nowość dotyczy Ogłaszania Powiadomień Przez Głośnik. Dotychczas działało to jedynie na słuchawkach. Aktualnie po zaznaczeniu tej funkcji, Siri będzie nam wszystko anonsowała przez głośnik naszego iUrządzenia.

Czwartą nowością jest możliwość kończenia połączeń, czy to telefonicznych, czy FaceTime, bez dotykania naszego iUrządzenia. Jak informuje samo Apple: „Możesz używać polecenia „Hey Siri” do kończenia połączeń telefonicznych i FaceTime na iPhonie 11 i nowszych. Polecenie jest także dostępne na starszych urządzeniach, jeśli są z nimi połączone słuchawki AirPods lub obsługujące Siri słuchawki Beats”. I powiem Wam, że działa to rewelacyjnie. Teraz gdy macie czymś zajęte, brudne lub mokre dłonie, nie tylko możecie za pomocą Siri odebrać połączenie, ale także je zakończyć. Na pewno ogromnie docenią to wszystkie osoby, które z różnych względów nie mogą skorzystać z rąk do obsługi swoich urządzeń.

Ostatnią nową funkcją dostępności jaką otrzymała Siri, jest możliwość włączania i wyłączania automatycznego odbierania połączeń przychodzących. Niby mała rzecz, a cieszy. To jest właśnie opcja z rodzaju tych o których mówimy: Jak to możliwe, że Apple jeszcze tego nie wprowadziło? 😉

Książki

W aplikacji Książki, po otwarciu dowolnej publikacji w formie e-booka, w znajdującym się w prawym rogu ekranu Menu znajdziemy nowe opcje ułatwień dostępu.

Okno Opcji dostępności i makiet w aplikacji Książki

Pierwsza znajduje się już w głównej sekcji Motywy i ustawienia. Od szesnastej wersji systemów iOS oraz iPadOS możemy tam włączyć pogrubienie czcionek. Kolejne opcje ułatwień dostępu pojawiają się w momencie, gdy włączymy edycję wybranego motywu i tam klikniemy Opcje dostępności i makiety. Wśród nich do dyspozycji będziemy mieli możliwość regulacji odstępów między wierszami, znakami, wyrazami, a także włączania i wyłączanie justowania, oraz układu wielokolumnowego. Przyznam, że tych ustawień trzeba się trochę naszukać, ale jestem pewien, że osoby słabo widzące będą z ich obecności bardziej niż zadowolone.

Inne Opcje Ułatwień Dostępu

W szesnastej wersji systemów iOS oraz iPadOS pojawiło się kilka opcji ułatwień dostępu, który nie trafiły do sekcji Dostępność. Wg mnie świadczy to tylko o tym, że coraz więcej użytkowników, coraz chętniej sięga po różne udogodnienia, więc Apple łatwiej zlokalizować takie opcje w pobliżu funkcji, których one bezpośrednio dotyczą, niż ukrywać je w rzadko odwiedzanej sekcji Dostępność.

Na pierwszą z tych opcji czekałem z wypiekami na twarzy. Przyznam, że osobiście okrutnie irytują mnie otrzymywane wiadomości, lub wpisy w mediach społecznościowych, które albo są dyktowane, albo po prostu pisane bez jakiejkolwiek interpunkcji. Dlatego gdy dowiedziałem się, że funkcja Dyktowania otrzyma możliwość automatycznego wstawiania interpunkcji, to aż zatarłem ręce z radości. Więc wyobraźcie sobie teraz jakież było moje rozczarowanie, gdy przeczytałem, że owo automatyczne wstawianie interpunkcji dotyczy jedynie języka angielskiego. 🙁 Dlatego aktualnie pocieszam się tym, że nawet po angielsku działa to słabo, i że zanim trafi do języka polskiego, to jest szansa, że funkcja zostanie dopracowana.

Ekran opcji ustawień dyktowania

Kolejną nowością miało być wstawianie emoji w trakcie dyktowania. I tu znowu spotkało mnie srogie rozczarowanie. Albo ja jeszcze nie potrafię tego używać, albo funkcja nadal działa bardzo słabo. Jedynie kilka razy udało mi się wstawić ikonkę emoji, i to tylko te popularniejsze. W tym wypadku język dyktowania nie miał już znaczenia.

Za to trzecia nowość związana z dyktowaniem, czyli dyktowanie znak po znaku działa bardzo dobrze. W tym wypadku język dyktowania także nie ma znaczenia.

Opcje związane z dyktowaniem znajdziecie w Ustawienia / Ogólne / Klawiatura.

Ekran ustawień strony w Safari z podświetloną opcją Przetłumacz na Polski.

Czwarta nowość trafiła do Safari. Jest nią automatyczne tłumaczenie treści stron internetowych. Oczywiście ta funkcja była obecna w systemach iOS oraz iPadOS już wcześniej, ale od wersji 16 odwiedzane strony możemy tłumaczyć również na język polski. Jej użycie jest niezwykle łatwe, co zapewne zademonstruje w kolejnym nagraniu z Mojej Szuflady.

Podsumowanie

Według mnie najnowsze wersje mobilnych systemów iOS i iPadOS zawierają całkiem sporo nowości z obszaru dostępności. Jak zwykle nie ma tu mowy o rewolucji, ale ewolucyjny rozwój opcji ułatwień dostępu jest bezapelacyjny. Wygląda też na to, że większość zapowiedzi i obietnic złożonych przez Apple w trakcie majowego WWDC zostało dotrzymanych. Ciekawy jestem również tego, ile jeszcze smaczków dostępnościowych odkryjemy już po oficjalnej premierze obu systemów.

W tym miejscu muszę koniecznie podkreślić, że czwarta beta iOS16 jest wyjątkowo stabilna. Działa bardzo płynnie, bez jakichkolwiek problemów z VoiceOver. Zniknęły również niektóre błędy czytnika ekranu, w rodzaju losowego wybierania kontaktów w trakcie nawiązywania połączenia. Wygląda więc na to, że finalna wersja systemów zachowywać się będzie bardzo przyzwoicie.

Mnie osobiście zachwyca jeszcze jedna rzecz, tj. kierunek rozwoju Opcji Ułatwień Dostępu jaki przyjęło Apple. Firma przestała skupiać się jedynie na dostępności samego wnętrza urządzenia i jego interfejsu użytkownika. Aktualnie wbudowane opcje ułatwień dostępu sprawiają, że również otaczający użytkownika świat widziany okiem kamery, dźwięki otoczenia słyszane przez mikrofony, zewnętrznie kupowane publikacje elektroniczne, czy multimedia pobierane z różnych źródeł, stają się dzięki nim dostępne. A to już trochę tak, jakby Apple po kawałku zaczęło udostępniać nam cały świat.

  • Wszystkie powyższe uwagi dotyczą czwartej publicznej bety systemu iOS i iPadOS. Testy prowadziłem głównie na iPhone 13 Pro, więc na innych, lub starszych iUrządzeniach opisywany system iOS16 może zachowywać się inaczej. Pamiętajcie również o tym, że finalne wersje opisywanych systemów mogą nie posiadać wymienionych funkcji, mogą działać inaczej, a nawet mogą pojawić się w nich inne, nowe opcje ułatwień dostępu. Pomimo odpowiednich starań z mojej strony, mogłem też przegapić jakąś bardziej lub mniej istotną nowość, za co z góry przepraszam. Jeśli tak by się stało, to napiszcie proszę o tym w komentarzu, a ja wtedy zaktualizuję niniejszy wpis.

59 komentarzy na temat “iOS oraz iPadOS 16 – Wszystkie nowości z obszaru dostępności

  1. Przypuszczam, że funkcja unieś obiekt z tła dotyczy wycinania obiektów ze zdjęć lub filmików 🙂 Nic innego nie przychodzi mi do głowy 😉
    Co do głosu Ewy to jedyne co zauważyłam to to, że ona teraz nie mówi Jewa, tylko Ewa, już tak bardziej wyraźnie.Dalej ten głos jest dla mnie bardzo nieprzyjemny. Na pewno nie będę go urzywać.
    Co do aplikacji mapy to naprawdę brzmi ;to obiecująco. Ciekawa jestem czy na mojej leciwej już ósemce będzie to też działało.
    Co zaś do lidara to naprawdę jestem zaskoczona, że działa to po polsku. Myślałam, że jak zawsze funkcja będzie dzałała tylko w języku angielskim.
    Co do dyktowania to funkcja dyktowania znak po znaku jest bardzo przydatna. @Estem jej bardzo ciekawa. Co zaś do interpunkcji intligentnej to faktycznie jest to dla mnie ogromnerozczarowanie, bo tak jak mówisz Piotrze dla ludzi, którzy nie dyktują jej byłoby to pomocne, a też bardziej zrozumiałe dla odbiorcy.
    Bardzo dziękuję ze swej strony za ten jakże ciekawy wpis
    Pozdrawiam 🙂

  2. Niestety, ta nawigacja, przynajmniej na razie wymaga trzymania telefonu w dłoni. Gdy zablokujesz ekran i wrzucisz iPhone do kieszeni/torebki/plecaka, to pozostają ci nadal do dyspozycji jedynie komunikaty głosowe i wibracje na Apple Watch informujące o skręcie w lewo lub prawo.

  3. Świetne opracowanie, oby dotarło do jak najszerszej publiczności!
    Te informacje na pewno przydadzą się wielu osobom i trochę ułatwią im życie.
    Teraz czas na testy z realnym użytkownikiem 🙂

  4. To jest wada, ale i tak dobrze, że taka funkcja w ogóle została wprowadzona. Miejmy nadzieje, że będą ją poprawiać 🙂

  5. W ogóle ten system ma parę fajnych rozwiązań, które spodobają się wielu osobom. Ja już nie pamiętam tak stabilnego wydania. Mam nadzieję, że do wydania oficjalnego niczego nie popsują.

  6. Nie wiem czy myślimy o tym samym, ale automatyczne odbieranie przychodzących połączeń było już dawno, dawno temu. Nawet używałem tego jako prostej kamerki do monitoringu, włączając to na iPadzie i dzwoniąc potem z telefonu po FaceTime.

  7. Tak i nie Mateuszu. 🙂 Funkcja była, ale nie można było jej włączyć i wyłączyć za pomocą Siri. Dlatego jeśli ktoś, kto nie mógł obsługiwać iPhone czy iPada za pomocą dłoni miał włączoną tę funkcję, to automatycznie odbierane były wszystkie połączenia. Nie mógł sam wyłączyć tej opcji za pomocą Siri. Od iOS16 jest to wreszcie możliwe.

  8. Aaa w ten sposób. Właściwie zadałem to pytanie już na FB, ale może to jest lepsze miejsce. Jak bateria na 16? Leci szybciej/wolniej?

  9. Bardzo dziękuję za obszerny opis nowych funkcji i udogodnień w nowym ISO. Jak zwykle kawał dobrej roboty. niecierpliwością czekam na nagranie kożystania z nawigacji i inych nagrań. Pozdrawiam i tak trzymaj

  10. Bardzo dziękuję za ten wpis, super jest!
    A ja właśnie wolę, gdy VO czyta tak jak się pisze :).
    Heh, ilu użytkowników, tyle preferencji :).
    Ciekawa jestem, które z tych nowości będą dostępne na mojej poczciwej, starej ósemce :).
    Pozdrawiam

  11. U mnie oraz u znajomego nie działa gest wywołania ekranu ostatnich aplikacji. Czy u was też tak jest? W mojej opinii to dość poważny błąd. Oczywiście bez VO jest ok.

  12. Ważne, że sprawa dotyczy Iphone’ów bez przycisku home. U mnie działa gest, który sam sobie zdefiniowałem, ale trzeba go wykonać szybko dwa razy.

  13. Jak dla mnie to bardzo mało przydatnych nowości dostępnościowych. Za to bardzo cieszy mnie możliwość odblokowania telefonu w poziomie. Jeśli chodzi o polskie głosy VO to Krzysztof niektóre litery wypowiada wyraźnie głośniej. Na szczęście nic nie zmieniło się na gorsze w słowniku wymowy. Większość zdefiniowanych wyrażeń jest nadal poprawnie czytana.

  14. Oczywiście, to jest system w w wersji beta … Więc 🙂 zawsze coś się jeszcze może zmienić i ma prawo nie działać.

  15. Update: Problem z gestem wywołania ekranu ostatnich aplikacji zniknął po ponownym restarcie Iphone. Ciekawe czy na zawsze…

  16. Dzięki wielkie za materiał. Zachęcił mnie on do instalacji bety, zwłaszcza że z pożytkiem dla Tyflopodcastu, gdyż o różnych zagadnieniach zamierzam nagrywać teraz, bez czekania na oficjalne wydanie.

    Ogólnie system mi się podoba. Osłownikowanie już mniej w szóstej becie szaleje. W piątej irytowało mnie bardzo, gdyż po pierwsze naprawdę wymyślnie przeinaczało a po drugie na siłę głos próbował na siłę czytać po angielsku z polsko brzmiącym akcentem. Wiecie, taki syndrom microsoftowej Pauliny. Dys is a beta softłer i tego typu. Choć i tak rozwalił mnie Epel. Wiecie; zamiast Apple. Choć teraz Apple w najnowszej becie czyta jako Epl, więc chociaż tyle dobrze.:P

    Tak poza tym jest całkiem ok. Cieszy fakt dodania wsparcia dla j. polskiego w tłumaczu. Trzeba przyznać, że radzi sobie całkiem nieźle, choć tłumaczenie rozmowy nadal jakieś takie sobie, zwłaszcza odczyt w j.polskim.
    Drobne błędy dostępności w Safari typu znikający dolny pasek z przyciskami do kart, zakładek, udostępniania itp. Zbanowane jest trochę centrum powiadomień i sterowania jeśli idzie o znikanie powiadomień, szerszą z nimi interakcję itd, jak również przełączniki w centrum sterowania zdarzają się wadliwe zwłaszcza ten od trybów skupienia. Jednak jak wiemy jest to beta i takie drobne grzeszki dostępności mogą występować.

    To natomiast co bardzo mnie cieszy to możliwość usuwania zapisanych sieci wifi oraz podglądanie do nich haseł oraz ich kopiowania do schowka. Mała rzecz ale niesamowicie cieszy.

    Edycja wiadomości i ich cofanie po wysłaniu też spoko, choć nie bardzo miałem jak to przetestować tj. ja u siebie widziałem rezultaty, jednak moje króliczki doświadczalne z racji braku bety, dostawali kopię wiadomości z adnotacją że była ona edytowana, a ta cofnięta (o zgrozo) finalnie króluje sobie nadal w najlepsze.:P

    Nie wiem natomiast jak cofać już wysłane maile oraz jak edytować. Również powiadomienia o mailach do przeczytania na później w ogóle nie przychodzą. Tak samo nie da się z VO zaplanować wysyłki maila w przez siebie zdefiniowanym czasie. Predefiniowane jak najbardziej, natomiast przy własnym wybór godziny nie jest dostępny z VO – godziny się w ogóle nie rozwijają.

    Automatyczna CAPTCHA to również coś co działa po prostu zarąbiście, wręcz w locie, automagicznie. Testowałem w trybie prywatnym na Safari wyszukując coś w Google. Zwykle każdorazowo prosiło mnie o weryfikację. Teraz parokrotnie (również z dziwnych lokalizacjach łączyłem się po VPN) i absolutnie nie byłem proszony o jakąkolwiek weryfikację. Czy można chcieć czegoś więcej? 🙂

    A jeśli już mowa o przeglądaniu prywatnym, tu również mamy błąd a w zasadzie dostępnościową pułapkę, gdyż jeśli już uaktywnimy przeglądanie prywatne, jego dezaktywacja nie należy do najbardziej intuicyjnych. Da się to zrobić, jednak ja trafiłem zupełnie przypadkowo na tymczasowe rozwiązanie tego problemu.

    Większość aplikacji działa bardzo dobrze, choć Moovit lubi się od czasu do czasu wysypać oraz brak możliwości łatwego namierzenia dolnego paska z zakładkami. Eksplorując ekran w ogóle go nie widać. Należy przeskoczyć na sam koniec ekranu gestem jednokrotnego tapnięcia czterema palcami u dołu ekranu. Wówczas elementy paska są, ale i tu trzeba uważać podczas przemieszczania się po nim, bo VO lubi sobie czasami zaliczyć mały skok w bok i to o więcej niż jedną pozycję.

    To wierzchołek tak naprawdę góry lodowej gdyż nie testowałem jeszcze wszystkiego. Całość jednak oceniam jak narazie na 8,5/10. Tak dobrze raczej dawno nie było. Apple się wreszcie zaczyna starać. 😀

    Swoją drogą testowałem tak dla beczki głos ukraiński i bułgarski. Przyjemne kobitki, naprawdę, nie ma co. Chętnie bym poużywał zwłaszcza do poczytania sobie czegoś, gdybym tylko znał języki.

  17. Jeśli natomiast chodzi o sterowanie pobliskimi urządzeniami to istotnie, na wszystkich musi być najnowszy iOS 16, macOS Ventura, watchOS 9 itd. Również i u mnie wiecznie wyszukiwanie sobie trwa, i trwa, i trwa.

    Unoszenie obiektów z tła czyli wycinanie ich w gruncie rzeczy ze zdjęć i bodaj z wideo działa sobie kolorowo, różnie i bardzo podłużnie. Polega to na tym, iż jeśli tapniemy sobie w odpowiednią czynność, wydaje się że nie dzieje się nic; a tu jednak się dzieje, gdyż trwa wycinanie danego obiektu z tła. Jak nam VO kliknie, znaczy że prawdopodobnie się wycięło. Problem polega na tym, że nie wiemy tego do końca. Mnie ta sztuka udała się wyłącznie raz na 4 próby, gdzie wyciąłem ze zdjęcia i wysłałem mamie w wiadomości, no właśnie, do połowy wyciętego mojego psa własnego.:D Jeśli jesteśmy w danym polu tekstowym, z czynności na pokrętle wybieramy coś takiego jak upuść w miejscu położenia kursora i wówczas ot tak po prostu wkleja nam się dany obrazek. Ale jak mówię, ta sztuka udała mi się jedynie raz i nie do końca wiem jak się to dokładnie stało, bo późniejsze próby spełzły na niczym.

  18. A właśnie. Wiadomo coś odmośnie tych całych kluczy haseł (Passkeys)? Czy jakkolwiek Apple to zaimplementuje dopiero w stabilnych wersjach systemów czy jak? Narazie nigdzie niczego nie widziałem a usilnie starałem się znaleźć.

  19. Dzięki Maćku za podzielenie się tak ciekawymi spostrzeżeniami. U mnie też już szósta beta i jak dotąd niczego nie popsuli. 😉

  20. Za ten opis też dzięki. Myślę, że to będzie wsparcie dla osób słabo widzących, bo tak jak piszesz, niewidomy to raczej nie powalczy.

  21. Pytanko OT; Czy po przesiadce ze starszego iPhone’a na nowego bez przycisku Home/Początek doskwiera jego brak? Czy powrót do ekranu głównego gestem przesunięcia od dołu ekranu działa zawsze skutecznie przy włączony VO? Thx.

  22. A u mnie coś captcha ciągle nie chce zniknąć. Chcę wypełnić formularz w Google i lipa.

  23. Jeśli chodzi o gest wywołania ekranu ostatnich aplikacji to, tak jak myślałem, restart Iphone’a na długo nie pomaga.

  24. Nie pojawił się mój wcześniejszy komentarz, to też pozwalam sobie na powtórzenie. Jak to jest z tą captchą? Trzeba wykonywać jakąś dodatkową czynność z VO? Bo u mnie to nie działa niestety 🙁 Chciałem wypełnić formularz w Google.

  25. Panowie, a nie macie problemu ze zbyt długimi przerwami odczytu po natrafieniu na znaki interpunkcyjne? Wcześniej te przerwy były na tyle intuicyjnie zrobione, że czytanie tekstu brzmiało naturalnie, natomiast u mnie na 16 wyglądało to tak, jakby VO miał jakieś zwiechy za każdym razem, gdy chciał tą przerwę zrobić, przez co trwała wyraźnie dłużej niż na poprzednich wersjach iOS. Jeśli czyta się dużo, to irytuje to niesamowicie, dlatego u mnie jest spora obawa przed ponowną instalacją tego systemu.

  26. Wojtku, ten komentarz nie opublikował się automatycznie, ponieważ podałeś innego maila. 🙂 I nie, nie trzeba nic więcej ustawiać. Ta opcja jest domyślnie włączona.

  27. Mateuszu, nie, u mnie VO wszystko czyta normalnie, jak na iOS15. Nie wiem którą betę miałeś. U mnie od 4 do obecnej 6 czyta bez problemów.∑.

  28. A i jeszcze mnie dotychczas Google nie prosił o podanie CAPTCHA. W jakiej sytuacji ciebie prosi? Może podrzuć link, to zobaczę jak to u mnie wygląda.

  29. Miałem piątą, wróciłem do 15, wczoraj wrzuciłem szóstą i znowu musiałem wracać przez ten błąd. Trochę nie chce mi się wierzyć, że 12Pro jest zbyt starym telefonem, by głos VO poprawnie czytał zdania. Chociaż oni czasem mają błędy, które występują tylko na nielicznych urządzeniach. Do dziś pamiętam zamulenia iPhone xr na iOS 14,, podczas gdy nawet leciwe 7 działały lepiej. Nie mogłem zaktualizować tego sprzętu aż do sprzedaży, bo ciął się jak dziesięcioletni Android.

  30. Pewnie nie chodzi o to, że za stary, ale że jakaś konfiguracja jest w nim problematyczna. A gdzie dokładnie ten błąd obserwowałeś?

  31. Praktycznie wszędzie ale najbardziej irytował na artykułach, bo tam jest najwięcej interpunkcji. No i np na postach Facebookowych, gdy robił przerwy pomiędzy autorem, momentem publikacji, grupą odbiorców posta itd.. Generalnie wszędzie tam, gdzie VO musi zrobić przerwę pomiędzy fragmentami oznajmianej nam treści. Na 15 te przerwy brzmią naturalnie, natoniast na tej becie było jak pływanie w beczce z miodem.

  32. No to u mnie to nigdzie nie występuje. Ani w WordPress jak teraz czytam twój komentarz, a nie na Facebooku, ani nigdzie indziej.

  33. Czyli problem jednego modelu. Teraz zanim zainstaluję u siebie, będę musiał dorwać gdzieś czyjegoś 12Pro i sprawdzać czy już naprawili. A szkoda, bo tłumacz stron w Safari bardzo przypadł mi do gustu.

  34. Wojtku, po zainstalowaniu iOS16 w wersji RC na iPhone 13 Pro pojawił mi się ten sam błąd o którym pisałeś. 🙁

  35. No, niestety. A restart na długo nie pomaga. Na szczęście zdefiniowany gest daje radę. Oczywiście uważam, że jednak to jest spory błąd i mam nadzieje, że to ogarną. Bo jak widać, problem już nie jest jednostkowy. Tylko trzeba to zgłaszać.

  36. Witam. Wczoraj wyszła nowa aktualizacja iOS 16,zauważyłem u siebie, że jak jestem w polu edycyjnymi stukam trzy razy jednym palcem to nie ma . zaznacz, zaznacz wszystko jak to było wcześniej.Chyna,że ja coś robię źle, lub trzeba coś ustawić. Pozdrawiam

  37. Co do problemu z ekranem otwartych aplikacji, Apple Vis podaje, że to się pojawia przy włączonym odwróceniu kolorów. Podobno gdy to wyłączymy, problem zniknie.

  38. Dzięki Mateuszu. U mnie zadziałało, ale dopiero po restarcie urządzenia. Mam nadzieję, że nie jest to tylko efekt restartu. 😉

  39. U mnie to jest losowe. Raz działa, raz nie. Natomiast zdefiniowany gest działa zawsze.

  40. Dwa pytania ode mnie.
    Czy ulepszenia w nawigacji i odczycie tekstu będą zauważalne również na modelach nie pro? Może głupie pytanie, ale ja często zapominam, które funkcje wykrywania ruchu i rzeczy na zdjęciach są zależne od lidara, a które nie. Pod tym względem przydałby się jakiś wpis porównujący wersje pro i zwykłe, bo często nie zdajemy sobie sprawy, ile nam to daje, a ile nie.
    Drugie pytanie dotyczy sterowania urządzeniami. To oznacza, że możemy np. sterować odtwarzaniem na macbooku czy macu? To by się w sumie przydało. Niby można jakoś parować zegarek tak, żeby to mógł robić, ale działać, to to mi działało, jakby chciało, a nie mogło… Albo po prostu nie umiałam tego poprawnie skonfigurować.

  41. Odnośnie pytania 1. Lida to skaner 3D, czyli dotyczy wszystkiego związanego z oceną przestrzeni. Dlatego funkcje rozpoznawania tekstu dostępne będą również na modelach nie Pro. Ale tylko tekstu na zdjęciach, z kamery na żywo i ewentualnie nagraniach.
    A odnośnie pytania drugiego, to tak.

Możliwość komentowania jest wyłączona