Jakiś czas temu zdecydowałem się przystąpić do programu wczesnego dostępu do nowych funkcji Meta AI. Nie wiązałem z nim zbyt wielkich nadziei, dlatego mile się zdziwiłem, gdy wśród różnych drobnych zmian i poprawek natrafiłem na funkcję o nazwie Skupienie na rozmowie. Okazało się, że Meta stworzyła coś, czego od lat bardzo mi brakowało.

Czym jest Skupienie na rozmowie?
Skupienie na rozmowie, lub Tryb Konwersacji, bo w ustawieniach aplikacji Meta AI pojawiają się dwie wersje nazwy nowej opcji, to funkcja, która sprawia, że będziesz lepiej słyszeć swojego rozmówcę. Lecz nie chodzi tu o rozmowę przez telefon czy inny komunikator, ale rozmowę twarzą w twarz. I nie działa ona tak jak inne podobne rozwiązania, które wzmacniają wszystkie dźwięki otoczenia. Nawet jeśli dotyczy to wzmacniania tylko ludzkich głosów rozbrzmiewających dookoła.
Gdy masz na nosie okulary Ray Ban Meta, znajdujesz się twarzą w twarz z rozmówcą i włączysz Skupienie na rozmowie, okulary zaczną wzmacniać wypowiedzi tylko tej osoby i tylko wtedy, gdy będziesz na nią patrzeć. Gdy odwrócisz głowę w inną stronę, a twój rozmówca zniknie z kadru kamery okularów, wzmocnienie zostanie automatycznie wyciszone.
Działa to fantastycznie, szczególnie w tak gwarnych miejscach jak duże restauracje, teatralne foyer w trakcie antraktu, czy kawowe przerwy konferencyjne. Wreszcie nie trzeba niekomfortowo nachylać się do rozmówców, aby cokolwiek w tym zgiełku usłyszeć.
Tryb Skupienie na rozmowie docenią również osoby słabo słyszące, które na codzień nie korzystają z aparatów słuchowych lub innych form wsparcia słyszenia. Przyda się także w sytuacji, gdy nie mamy problemów ze słuchem, ale nasz rozmówca mówi cicho, a przez to jest trudno zrozumiały w otaczającym nas gwarze.
Jak uruchomić i zatrzymać Skupienie na rozmowie?
Jak wspomniałem, otrzymałem możliwość przetestowania tej funkcji w ramach programu wczesnego dostępu. Jeśli posiadasz okulary Meta i także chcesz do niego przystąpić, możesz tego dokonać z poziomu aplikacji mobilnej Meta AI i ustawień okularów.
Piszę o tym dlatego, że to właśnie z poziomu przycisku funkcji Wczesnego Dostępu, pierwszy raz uruchomiłem konfigurator funkcji Tryb Konwersacji. Zakładam, że w momencie, gdy nowa funkcja zostanie przetestowana przez garść użytkowników, trafi ona do głównego menu i na przykład sekcji Dostępność. A wtedy, po jej włączeniu, aktywowana będzie dokładnie tak, jak ma to teraz miejsce w moich okularach.
Aby uruchomić Tryb Skupienie na rozmowie wystarczy do włączonych i aktywnych okularów powiedzieć na przykład:
OK Meta, turn on conversation focus,
albo
OK Meta, start conversation focus.
Z kolei aby zatrzymać Tryb Skupienie na rozmowie wystarczy do włączonych i aktywnych okularów powiedzieć na przykład:
OK Meta, turn off conversation focus,
albo
OK Meta, stop conversation focus.

Skupienie na rozmowie można również dyskretnie włączać i wyłączać gestem dotknięcia i przytrzymania panelu dotykowego jednym palcem. Dzięki takiemu rozwiązaniu, ani my, ani nasz rozmówca nie będzie w żaden sposób skrępowany.
Niezależnie od tych wszystkich szybkich sposobów aktywacji, z poziomu aplikacji Meta AI, a dokładnie karty Urządzenia, również możemy aktywować funkcję skupienia na rozmowie. Stukamy w przycisk Skupienie na rozmowie wyłączone i włączamy w ten sposób Tryb Konwersacji. W ten sam sposób wchodzimy w ustawienia nowej funkcji.
Jak skonfigurować Skupienie na rozmowie?
Przy pierwszym uruchomieniu, pojawia się konfigurator Trybu Skupienie na rozmowie. Za jego pomocą w kilku krokach możemy wstępnie skonfigurować działanie nowej funkcji.
Zaczynamy od wyboru domyślnego wzmocnienia dźwięku. System proponuje nam 3 opcje.
- Wzmocniony , Dodatkowe wzmocnienie, dzięki czemu mowa brzmi wyraźniej w głośniejszych środowiskach. ,
- Standardowy , Umiarkowane wzmocnienie mowy w celu uzyskania naturalnego brzmienia głosów. Najlepsze rozwiązanie w większości środowisk.
- Brak wzmocnienia.

Możemy także od razu odsłuchać poszczególnych opcji i wybrać styl, który najbardziej nam odpowiada.
W dalszych krokach zapoznajemy się z dodatkowymi informacjami i ostrzeżeniami. Są to m.in.:
Funkcja Skupienie na rozmowie nie jest przeznaczona do używania w bardzo głośnych miejscach, na przykład na koncertach. Najlepiej sprawdza się w sytuacjach towarzyskich, np. w zatłoczonych restauracjach.

Mamy również możliwość obejrzenia krótkiego filmu, który zawiera instrukcję korzystania z nowej funkcji. Całość oczywiście w języku angielskim.
Wspomniałem wcześniej, że aktywując przycisk Skupienie na rozmowie w w zakładce Urządzenia w mobilnej aplikacji Meta AI również otwieramy ustawienia nowej funkcji. Możemy w tym miejscu dopasować jej wszystkie parametry, dodatkowo korzystając z suwaka wzmocnienia.

Podsumowanie
Nie testowałem nowej funkcji zbyt długo, bo ledwie dwa tygodnie, ale już jestem nią zachwycony. Sprawdza się na prawdę nieźle. Jednak nie ma ideałów, więc i tu zwróciłem uwagę na pewne rozminięcie się z zaleceniami Mety.
Między innymi miałem możliwość przetestowania nowej funkcji w restauracji, w której akurat korzystano z maszyny do polerowania sztućców. Oprócz typowego gwaru biesiadujących osób, w pomieszczeniu regularnie pojawiał się odgłos, który momentami skutecznie zagłuszał moich rozmówców. Wystarczyło wtedy tylko dotknąć oprawek okularów, aby włączyć nową funkcję. I po kilku sekundach, prawie magicznie, siedząca przede mną osoba stawała się o wiele lepiej słyszalna. Gdy jednak odwracałem głowę w stronę podchodzącego kelnera, wzmocnienie automatycznie się wygaszało, aby natychmiast powrócić, gdy ponownie zwróciłem się w stronę mojego rozmówcy.
Jednak ten metr osiemdziesiąt, podawany przez Metę jako maksymalny zasięg działania nowej funkcji, to raczej pobożne życzenia. wg mnie funkcja działa najlepiej, gdy od rozmówcy dzieli nas dystans ok. jednego metra. 130 cm to wg mnie maksymalna granica działania. Może moja opinia bierze się stąd, że nową funkcję sprawdzałem w rzeczywiście dość głośnym otoczeniu. Uważam jednak, że w końcu takie jest jej przeznaczenie. Dlatego warto wiedzieć o tym ograniczeniu.
Doskonałym rozszerzeniem działania nowej funkcji, teoretycznie będącym świetnym wsparciem dla osób słabo słyszących, byłaby możliwość wskazywania mówiących osób, które znajdują się w większej odległości i wzmacnianie ich wypowiedzi. Przewodniczki wycieczki, nauczyciela w klasie itp. itd. Jak widać, możliwości technologiczne już są.
Po raz kolejny technologia asystująca trafia do urządzenia, które w żaden sposób nie stygmatyzuje użytkownika. Aktualnie nie tylko osoby słabo widzące czy niewidome za jego pomocą mogą korzystać ze wsparcia AI przy rozpoznawaniu obrazów czy czytaniu tekstów. Teraz także osoby mające problemy ze słuchem, które nie akceptują noszenia aparatów słuchowych, w bardzo naturalny sposób mogą korzystać z nowej funkcji. A może ona nie tylko ułatwić im swobodne komunikowanie się, poprawić jakość relacji społecznych, ale także przywrócić pewność siebie.
Generalnie mnie się ta funkcja bardzo podoba i mam nadzieję, że ostatecznie trafi do publicznej wersji oprogramowania – jeśli już jej tam nie ma. A jeśli będziecie mieli możliwość jej przetestowania, to gorąco do tego zachęcam.




Nie wiem czy dobrze zrozumiałem – ta funkcja koncentruje się na konkretnej osobie? I gdy np odwrócę głowę żeby wymienić zdanie z kelnerem, głos kelnera nie zostanie już wzmocniony?
Mam też nadzieję, że w przyszłości Meta rozwinie tą funkcję o ogólne wzmocnienie dźwięków otoczenia. Wtedy komunikaty w komunikacji miejskiej (nie wiedzieć czemu ustawione na najniższy poziom głośności z możliwych( nie wymagałyby domyślania się co autor chciał przekazać. W AirPods jest coś takiego i tam sprawdza się fajnie. Możemy wybrać wzmocnienie ogólne, wyizolowanie tylko ludzkich głosów albo podkręcenie jasności dźwięku.
Tak, dokładnie tak to działa. 🙂
Mam kilka krótkich pytań: czy rozmówca też musi mieć okulary? Czy korzystamy z tej funkcji przy pomocy iphone oraz czy będzie dostępna również w języku polskim? Pozdrawiam.
Nie, rozmówca nie musi mieć okularów. Wydaje mi się, że na Androidzie też działa aplikacja Meta AI, ale najłatwiej sprawdzić to w Google Play.
I sama funkcja nie zależy od języka. Wzmacnia po prostu głos naszego rozmówcy w dowolnym języku. A sama aplikacja Meta AI jest po polsku.