Respeaking – wrażenia ze szkolenia

Opracowywanie napisów dla niesłyszących metodą respeakingu, to jedno z tych rozwiązań, którymi można zarówno się zachwycić, jak i nad nimi westchnąć: „Dlaczego dopiero teraz?”. Na szkoleniu do „nowego zawodu” przeważały zachwyty, ponieważ gościliśmy tłumaczy ustnych i pisemnych, dla których to zupełna nowość, a także praktykujących „napisowców” chcących iść z duchem czasu. Autorka posta wzięła udział jako osoba słabosłysząca, sporadycznie korzystająca z usług dostępnościowych, dlatego moje wrażenia z części praktycznej będą bardzo subiektywne.

Na początek trochę historii. W Wielkiej Brytanii telewizyjne napisy dla niesłyszących jako takie funkcjonują od późnych lat 1970., zaś metoda respeakingu – od 2001 roku, czyli od 15 z całości ok. 35 lat. Warto jednak zauważyć, że podstawą respeakingu jest sprawne rozpoznawanie mowy przez komputer, a język polski pod tym względem długo „czekał w kolejce do specjalistów” za bardziej popularnymi językami. Po drugie, polskie stacje telewizyjne nadal dość rzadko nadają programy z napisami, co nie daje szansy na powstanie oddolnego ruchu odbiorców napisów, który zajmowałby się ich jakością, a nie nadal walczył o dostępność jakichkolwiek. Inicjatywa musiała pojawić się w kręgach akademickich, ale dzięki temu można od razu udowodnić, że w respeakingu nie chodzi o odciążenie rąk autora, ale przede wszystkim o znaczną poprawę jakości napisów.

Napisy na żywo w USA na początku tworzyły osoby wybrane z puli protokolantów sądowych, zaś w Wielkiej Brytanii – stenotypiści wyposażeni w specjalną klawiaturę. Kolejnym krokiem była holenderska klawiatura Velotype, która umożliwiała przypisanie do klawiszy całych sylab. Za „analogowe” początki respeakingu możemy uznać rok 1987, kiedy powstał pomysł, aby na Velotype pisały dwie osoby naprzemienne, a trzecia – „człowiek-papuga” – najpierw odgradzała piszących od nadmiaru napływających treści i wstępnie redagowała napis. Około lat 2000 w zastosowaniach „niespecjalistycznych” mieliśmy już wybieranie głosowe w telefonach i zabawki reagujące na proste polecenia. Tymczasem na Wyspach, w Holandii i kilku innych krajach rozpoczął się trwający do dziś wyścig na wydajność między doświadczonymi stenotypistami a respeakerem, korektorem i komputerem. Produktem wyrównanej rywalizacji jest dziś dokładność napisów na poziomie 95-98% (w zależności od języka, emitowanego programu, itd.), przy czym napisy z respeakingu zdecydowanie wygrywają kosztami. W przypadku języka polskiego AVT Lab po około pół roku (!) eksperymentów osiąga już dokładność ponad 90%, co wskazuje, że śmiało możemy mieć inne zmartwienia niż zaległości technologiczne…

Strona praktyczna respeakingu była dla mnie bardzo miłym zaskoczeniem – częściowo dlatego, że wcześniej nigdy nie dyktowałam SMS-ów ani wyszukiwania Google. Tuż po uruchomieniu program Newton Dictate spisuje ciąg niemal przypadkowych słów, jakby był ostatnią z kilku osób bawiących się w głuchy telefon („mają troszczyć się, żeby wszystko działało dobrze” → „mają toczyć się, że nie wszystko działa dobrze”, „panie i panowie posłowie” → „fajni panowie posłowie”, „to masz już” → „Tomasik”). Od razu tworzy jednak profil głosowy użytkownika, w którym procent adaptacji („przyzwyczajenia” programu do danego głosu) po 2-3 godzinach dyktowania rośnie lawinowo do 100%. Już w trzecim lub czwartym podyktowanym akapicie widać było automatyczne „poprawianie się” programu– Newton dopasowywał końcówki po zakończeniu zdania kropką, podobnie jak próbują to robić automatyczne translatory. Pod koniec pierwszego dnia program słyszał mnie już prawie idealnie, a poprawek nie wymagała nawet większość nazw własnych (w tym z wiadomości o Ukrainie). Ciekawym i upartym w błędem było natomiast wstawianie krótkich przyimków przed wyrazami z też zaczynającymi się na w spółgłoskę – jak w tym zdaniu :) Każdy uczestnik szkolenia wydawał się mieć swój rodzaj „literówek głosowych”, które program eliminował w bardzo różnym tempie.

Uczestnicy najpierw nabrali wprawy w dyktowaniu uroczystego przemówienia, a następnie przyszedł czas na wiadomości. O ile wcześniej można było podawać całą wypowiedź i spokojnie kończyć ją słowem „kropka”, to program informacyjny był już wyzwaniem. O ile „cięcie” i redagowanie w locie było mi znane z wprowadzenia do tłumaczeń ustnych, to nadal konieczne „kropki” i „przecinki” okazały się bardzo denerwujące jako spowalniacze. Sąsiad przy komputerze obok nie miał tego problemu – redagował tak wydajnie, że co parę zdań mógł jeszcze wstawiać zupełnie nieobowiązkowy „nowy wiersz”.

Tak, jak się spodziewałam, respeakingiem nie do przeskoczenia było dla mnie dyktowane tłumaczenie symultaniczne. W moim przypadku całą uwagę pochłania rozumienie angielskiego (i polskiego) ze słuchu, mimo to bardzo często zawodne. Po niedużym fragmencie, który udało mi się podyktować, widać wyraźnie, że Newton nie wybacza zająknięć, czego efekty mogą być niebezpieczne, np. we frazach:
n-niesie konsekwencje → nie niesie konsekwencji
oraz ich ro-… bliskim → oraz ich rad bliskim

Korzystając z nowatorskiego wprowadzania tekstu nie można rezygnować z konwencji przyjętych w napisach dla niesłyszących: dźwięków w nawiasach kwadratowych i etykiet dla mówiących poza kadrem. Wstawienie tych elementów wymaga utworzenia szablonów głosowych. Jest konieczne, aby respeaker zapoznał się z tematyką i postaciami z programu, podobnie jak tłumacze kabinowi powinni dostawać materiały konferencyjne.

Przy okazji szkoleń i badań przyszłych respeakerów przypominają się obawy, jakie w latach powojennych budziło tłumaczenie symultaniczne. Jednoczesne słuchanie, redagowanie informacji i zgrabne wypowiadanie jej w innym języku wydawało się nadludzkim wyczynem. Dziś do tego rutynowego już wyczynu :) należy dodać jeszcze mówienie w sposób zrozumiały dla komputera, a przy braku korektora – także wyłapywanie błędów, podział napisów na dwulinijkowe porcje i synchronizację czasową z programem… Według Łukasza (którego można uznać za pierwszego zawodowego respeakera w Polsce) sekret jest podobny, jak przy „samym” tłumaczeniu symultanicznym: automatyzacja, kontrola nad głosem (zwłaszcza tempem), podzielność uwagi i oczywiście ogromna czujność – myślenie o kilkanaście sekund do przodu. Łukasz opowiada się jednak za rozdzieleniem ról na respeakera (lub tłumacza-respeakera) i korektora nie tylko na czas udoskonalania techniki. Następnym krokiem oswajania respeakingu będą badania predyspozycji tłumaczy ustnych i pisemnych oraz „nie tłumaczy”. W tym momencie mogę podsumować, że jeśli zachowa się stanowisko korektora, a wysyłany na zewnątrz sygnał telewizyjny pozostanie lekko opóźniony, to od strony technologicznej jesteśmy w pełnej gotowości.

Dodatkowe źródło: Lambourne, Andrew (2006) Subtitle respeaking: A new skill for a new age. InTRAlinea special issue: Respeaking.

Ten wpis został opublikowany w kategorii O nas. Dodaj zakładkę do bezpośredniego odnośnika.

Możliwość komentowania jest wyłączona.