Aktualności

Udostępnij się!

Złoty klucz w otwartym niskim, białym kartonowym pudełku.W tajemniczym pudełku znaleźliśmy KLUCZ DO SKARBCA KULTURY! Ale dla ponad miliona osób pudełko jest puste.
Akcja społeczna „Udostępnij się” ma na celu otworzenie skarbca kultury dla osób z niepełnosprawnością wzroku i słuchu.
Narzędziami do realizacji tej misji są: audiodeskrypcja, napisy dla niesłyszących oraz język migowy.

strona internetowa „Udostępnij się!”

#udostepnijsie na twitterze
#udostepnijsie na facebooku


Tydzień temu…

Fundacja Siódmy Zmysł przysłała nam tajemnicze pudełko… białe, przewiązane czerwoną wstążką! Ciekawe co w nim jest!

Opublikowano Aktualności | Możliwość komentowania Udostępnij się! została wyłączona

Wykład gościnny dra Davida Orrego-Carmony „The reception of subtitles”

David Orrego CarmonaLaboratorium przekładu audiowizualnego ma przyjemność zaprosić na na wykład gościnny, który wygłosi nasz członek, dr David Orrego-Carmona, w Instytucie Lingwistyki Stosowanej UW (ul. Dobra 55) w dniu 24.11 (wtorek) o godz. 13.15. Wykład nosi tytuł: The reception of subtitles: different audiences and different types of subtitling. Zapraszamy!

Opublikowano Aktualności | Możliwość komentowania Wykład gościnny dra Davida Orrego-Carmony „The reception of subtitles” została wyłączona

Nowe prezentacje

Zapraszamy do zapoznania się z prezentacjami, jakie wygłosiliśmy ostatnio na konferencjach.

Investigating the competences of interlingual respeakers – a preliminary study” na konferencji 45th Poznań Linguistic Meeting
Łukasz Dutka, Agnieszka Szarkowska, Krzysztof Krejtz, Olga Pilipczuk
Poznań, 18 września 2015

Audio Description in the Classroom” na pierwszym Międzynarodowym Sympozjum o Audiodeskrypcji w Edukacji.
Walczak, A.
Warszawa, 23-24 września 2015.

Reading subtitles across devices: A study into the differences in reading patterns of people watching subtitled videos on smartphone, tablet and computer screen” na konferencji International Conference on Eyetracking and Applied Linguistics.
Szarkowska, A., Laskowska, M., Oliver, A., Pilipczuk, O.
Warszawa, 21-22 września 2015.

Tapping the linguistic competence in the respeaking process. Comparing intralingual paraphrasing done by interpreting trainees, translation trainees and bilinguals” na konferencji Respeaking, live subtitling and accessibility.
Agnieszka Chmiel, Agnieszka Lijewska, Łukasz Dutka, Agnieszka Szarkowska, Izabela Krejtz, Krzysztof Krejtz
Rzym, 12 czerwca 2015.

Are interpreters better respeakers? An exploratory study on respeaking competences” na konferencji Respeaking, live subtitling and accessibility.
Agnieszka Szarkowska, Łukasz Dutka, Agnieszka Chmiel, Agnieszka Lijewska, Krzysztof Krejtz, Krzysztof Marasek, Łukasz Brocki
Rzym, 12 czerwca 2015

więcej prezentacji

Opublikowano Aktualności | Możliwość komentowania Nowe prezentacje została wyłączona

Respeaking – wrażenia ze szkolenia

Opracowywanie napisów dla niesłyszących metodą respeakingu, to jedno z tych rozwiązań, którymi można zarówno się zachwycić, jak i nad nimi westchnąć: „Dlaczego dopiero teraz?”. Na szkoleniu do „nowego zawodu” przeważały zachwyty, ponieważ gościliśmy tłumaczy ustnych i pisemnych, dla których to zupełna nowość, a także praktykujących „napisowców” chcących iść z duchem czasu. Autorka posta wzięła udział jako osoba słabosłysząca, sporadycznie korzystająca z usług dostępnościowych, dlatego moje wrażenia z części praktycznej będą bardzo subiektywne.

Na początek trochę historii. W Wielkiej Brytanii telewizyjne napisy dla niesłyszących jako takie funkcjonują od późnych lat 1970., zaś metoda respeakingu – od 2001 roku, czyli od 15 z całości ok. 35 lat. Warto jednak zauważyć, że podstawą respeakingu jest sprawne rozpoznawanie mowy przez komputer, a język polski pod tym względem długo „czekał w kolejce do specjalistów” za bardziej popularnymi językami. Po drugie, polskie stacje telewizyjne nadal dość rzadko nadają programy z napisami, co nie daje szansy na powstanie oddolnego ruchu odbiorców napisów, który zajmowałby się ich jakością, a nie nadal walczył o dostępność jakichkolwiek. Inicjatywa musiała pojawić się w kręgach akademickich, ale dzięki temu można od razu udowodnić, że w respeakingu nie chodzi o odciążenie rąk autora, ale przede wszystkim o znaczną poprawę jakości napisów.

Napisy na żywo w USA na początku tworzyły osoby wybrane z puli protokolantów sądowych, zaś w Wielkiej Brytanii – stenotypiści wyposażeni w specjalną klawiaturę. Kolejnym krokiem była holenderska klawiatura Velotype, która umożliwiała przypisanie do klawiszy całych sylab. Za „analogowe” początki respeakingu możemy uznać rok 1987, kiedy powstał pomysł, aby na Velotype pisały dwie osoby naprzemienne, a trzecia – „człowiek-papuga” – najpierw odgradzała piszących od nadmiaru napływających treści i wstępnie redagowała napis. Około lat 2000 w zastosowaniach „niespecjalistycznych” mieliśmy już wybieranie głosowe w telefonach i zabawki reagujące na proste polecenia. Tymczasem na Wyspach, w Holandii i kilku innych krajach rozpoczął się trwający do dziś wyścig na wydajność między doświadczonymi stenotypistami a respeakerem, korektorem i komputerem. Produktem wyrównanej rywalizacji jest dziś dokładność napisów na poziomie 95-98% (w zależności od języka, emitowanego programu, itd.), przy czym napisy z respeakingu zdecydowanie wygrywają kosztami. W przypadku języka polskiego AVT Lab po około pół roku (!) eksperymentów osiąga już dokładność ponad 90%, co wskazuje, że śmiało możemy mieć inne zmartwienia niż zaległości technologiczne…

Strona praktyczna respeakingu była dla mnie bardzo miłym zaskoczeniem – częściowo dlatego, że wcześniej nigdy nie dyktowałam SMS-ów ani wyszukiwania Google. Tuż po uruchomieniu program Newton Dictate spisuje ciąg niemal przypadkowych słów, jakby był ostatnią z kilku osób bawiących się w głuchy telefon („mają troszczyć się, żeby wszystko działało dobrze” → „mają toczyć się, że nie wszystko działa dobrze”, „panie i panowie posłowie” → „fajni panowie posłowie”, „to masz już” → „Tomasik”). Od razu tworzy jednak profil głosowy użytkownika, w którym procent adaptacji („przyzwyczajenia” programu do danego głosu) po 2-3 godzinach dyktowania rośnie lawinowo do 100%. Już w trzecim lub czwartym podyktowanym akapicie widać było automatyczne „poprawianie się” programu– Newton dopasowywał końcówki po zakończeniu zdania kropką, podobnie jak próbują to robić automatyczne translatory. Pod koniec pierwszego dnia program słyszał mnie już prawie idealnie, a poprawek nie wymagała nawet większość nazw własnych (w tym z wiadomości o Ukrainie). Ciekawym i upartym w błędem było natomiast wstawianie krótkich przyimków przed wyrazami z też zaczynającymi się na w spółgłoskę – jak w tym zdaniu :) Każdy uczestnik szkolenia wydawał się mieć swój rodzaj „literówek głosowych”, które program eliminował w bardzo różnym tempie.

Uczestnicy najpierw nabrali wprawy w dyktowaniu uroczystego przemówienia, a następnie przyszedł czas na wiadomości. O ile wcześniej można było podawać całą wypowiedź i spokojnie kończyć ją słowem „kropka”, to program informacyjny był już wyzwaniem. O ile „cięcie” i redagowanie w locie było mi znane z wprowadzenia do tłumaczeń ustnych, to nadal konieczne „kropki” i „przecinki” okazały się bardzo denerwujące jako spowalniacze. Sąsiad przy komputerze obok nie miał tego problemu – redagował tak wydajnie, że co parę zdań mógł jeszcze wstawiać zupełnie nieobowiązkowy „nowy wiersz”.

Tak, jak się spodziewałam, respeakingiem nie do przeskoczenia było dla mnie dyktowane tłumaczenie symultaniczne. W moim przypadku całą uwagę pochłania rozumienie angielskiego (i polskiego) ze słuchu, mimo to bardzo często zawodne. Po niedużym fragmencie, który udało mi się podyktować, widać wyraźnie, że Newton nie wybacza zająknięć, czego efekty mogą być niebezpieczne, np. we frazach:
n-niesie konsekwencje → nie niesie konsekwencji
oraz ich ro-… bliskim → oraz ich rad bliskim

Korzystając z nowatorskiego wprowadzania tekstu nie można rezygnować z konwencji przyjętych w napisach dla niesłyszących: dźwięków w nawiasach kwadratowych i etykiet dla mówiących poza kadrem. Wstawienie tych elementów wymaga utworzenia szablonów głosowych. Jest konieczne, aby respeaker zapoznał się z tematyką i postaciami z programu, podobnie jak tłumacze kabinowi powinni dostawać materiały konferencyjne.

Przy okazji szkoleń i badań przyszłych respeakerów przypominają się obawy, jakie w latach powojennych budziło tłumaczenie symultaniczne. Jednoczesne słuchanie, redagowanie informacji i zgrabne wypowiadanie jej w innym języku wydawało się nadludzkim wyczynem. Dziś do tego rutynowego już wyczynu :) należy dodać jeszcze mówienie w sposób zrozumiały dla komputera, a przy braku korektora – także wyłapywanie błędów, podział napisów na dwulinijkowe porcje i synchronizację czasową z programem… Według Łukasza (którego można uznać za pierwszego zawodowego respeakera w Polsce) sekret jest podobny, jak przy „samym” tłumaczeniu symultanicznym: automatyzacja, kontrola nad głosem (zwłaszcza tempem), podzielność uwagi i oczywiście ogromna czujność – myślenie o kilkanaście sekund do przodu. Łukasz opowiada się jednak za rozdzieleniem ról na respeakera (lub tłumacza-respeakera) i korektora nie tylko na czas udoskonalania techniki. Następnym krokiem oswajania respeakingu będą badania predyspozycji tłumaczy ustnych i pisemnych oraz „nie tłumaczy”. W tym momencie mogę podsumować, że jeśli zachowa się stanowisko korektora, a wysyłany na zewnątrz sygnał telewizyjny pozostanie lekko opóźniony, to od strony technologicznej jesteśmy w pełnej gotowości.

Dodatkowe źródło: Lambourne, Andrew (2006) Subtitle respeaking: A new skill for a new age. InTRAlinea special issue: Respeaking.

Opublikowano O nas | Możliwość komentowania Respeaking – wrażenia ze szkolenia została wyłączona

Ankieta o sztuce współczesnej!

Ankieta zakończona, dziękujemy!

Dwa szare równoległoboki na białym tle tworzą uproszczony budynek oglądany od strony rogu, w perspektywie z podłogi. W lewej ściance prostokątne wycięcie od dołu - wejście do obiektu. Pod spodem czarny wyraz OPEN zapisany wielkimi literami, gładką czcionką, oraz błękitny wyraz ART zapisany jakby odręcznie.

Celem projektu „Open Art” jest stworzenie multimedialnego przewodnika po zbiorach polskiej sztuki nowoczesnej i współczesnej zgodnie z zasadami projektowania uniwersalnego. Przewodnik ma formę darmowej aplikacji na smartfony i tablety. Zawiera multimedialne opisy wybranych dzieł z Muzeum Narodowego w Krakowie, Muzeum Sztuki Współczesnej MOCAK oraz Muzeum Narodowego w Warszawie.

Naszym głównym celem jest stworzenie zrozumiałych i ciekawych opisów, dlatego prosimy o ocenę przygotowanych przez nas opisów kilku dzieł. Państwa uwagi posłużą nam jako wskazówki, dzięki którym będziemy mogli ulepszyć przewodnik tworzony w ramach projektu.

Ankieta będzie dostępna do 15 lutego 2015.

Bardzo dziękujemy!

Opublikowano Badania | Otagowano , , , , | Możliwość komentowania Ankieta o sztuce współczesnej! została wyłączona

Chcesz zdobyć nowy zawód? Zostań respeakerem!

Respeaking to technika opracowywania napisów do programów audiowizualnych nadawanych na żywo lub spotkań i konferencji, polegająca na wykorzystaniu oprogramowania do rozpoznawania mowy.

Weź udział w szkoleniu respeakingowym!

W programie szkolenia m.in.

  • Wprowadzenie do respeakingu
  • Respeaking na świecie i w Polsce
  • Oprogramowanie do rozpoznawania mowy dla języka polskiego (Newton Dictate oraz Dragon Naturally Speaking)
  • Program do opracowywania napisów na żywo FAB Subtitler Live
  • Praktyczne warsztaty respeakingowe na materiałach polsko- i anglojęzycznych
  • Ocena jakości napisów na żywo tworzonych metodą respeakingu – model NER

Osoby, które ukończą kurs i wezmą udział w badaniu, otrzymają zaświadczenie potwierdzające ukończenie kursu wydane przez Instytut Lingwistyki Stosowanej UW.

Szkolenia prowadzą pionierzy respeakingu w Polsce oraz eksperci z zagranicy:

Terminy szkoleń:

5–6 lutego 2015 r. – prowadzący: Juan Martínez Perez (Swiss TXT)

7–8 lutego 2015 r. – dr Carlo Eugeni (University of Parma/Respeaking on Air)

16–17 lutego 2015 r. – dr Pablo Romero-Fresco (University of Roehampton)

Szkolenia odbywają się w godz. 9.30–18.00 (z przerwą na lunch) w siedzibie Instytutu Lingwistyki Stosowanej UW przy ul. Dobrej 55 w sali 01.063 na poziomie -1.

Biorąc udział w kursie, uczestnicy szkolenia jednocześnie zobowiązują się do wzięcia udziału w badaniach respeakingowych, składających się z testów pamięci roboczej, testów parafrazowania oraz testów respeakingowych.

Osoby zainteresowane zapraszamy na spotkanie informacyjne, które odbędzie się we wtorek
9 grudnia 2014 r. o godz. 13.15 w sali 01.076 w Instytucie Lingwistyki Stosowanej UW przy ul. Dobrej 55.

Zapisy na szkolenia prowadzi i szczegółowych informacji udziela Agnieszka Szarkowska: a.szarkowska@uw.edu.pl

Opublikowano Aktualności | Możliwość komentowania Chcesz zdobyć nowy zawód? Zostań respeakerem! została wyłączona

Jak wytłumaczyć brak tłumaczenia – wrażenia z filmu „Plemię”

Oglądając film z lektorem lub napisami, odruchowo korzystamy z tłumaczenia audiowizualnego jako niezbędnej warstwy przekazu. Cieszy też coraz więcej udogodnień zmniejszających bariery w odbiorze – audiodeskrypcja, napisy dla niesłyszących, tłumacz migowy… A gdyby tak odwrócić role, i barierą w odbiorze uczynić to, że większość z nas posługuje się słuchem? Czy taka bariera, oprócz zmuszenia do myślenia, mogłaby być filmowym środkiem wyrazu?

To pytania, z którymi wybierałam się na pokaz filmu „Plemię” Mirosława Słaboszpyckiego. To pierwszy film pełnometrażowy tego reżysera, ale pokaz na Warszawskim Festiwalu Filmowym nie był jego premierą. Film został nawet wyróżniony w Cannes i recenzji mu nie brakuje, więc tym razem skupmy się głównie na jego niestandardowej formie.

Zacznijmy od banału: skoro bohaterami są ukraińscy Głusi ze szkoły specjalnej, nie można powiedzieć, że „Plemię” to film niemy. To film z dialogami, które w całości toczą się w ukraińskim języku migowym. Widzowie słyszący nie mają do dyspozycji napisów ani lektora, i nie koniec na tym – nie widzimy nawet tego, co Głusi i słyszący czasem piszą do siebie na kartkach (to ostatnie było kluczowe w krótkometrażowej „Głuchocie” tego samego reżysera). Celowy brak tłumaczenia ma ciekawe skutki zarówno od strony zrozumienia fabuły, jak i doboru języka filmowego.

Fabuła jest analizą stopniowego awansu nowego ucznia liceum dla Głuchych w ramach niemal mafijnych struktur tworzonych przez rówieśników. Z początku zastraszony i ignorowany „nowy” schodzi do kolejnych kręgów piekła – od pierwszej butelki wódki i rabunku do brutalnego morderstwa. Łatwo domyślić się można także motywów postępowania bohaterów, bo nie ma tu snucia planów czy retrospekcji, i każdy kadr mniej lub bardziej wynika z poprzednich. Ale ukryta przed nami treść dialogów mocno działa na wyobraźnię. Można mimowolnie gubić się w domysłach, dlaczego postacie nagle są w danym miejscu, co do siebie mówią, jak komentują coraz bardziej zacieśniającą się wokół nich pętlę, i czy ktokolwiek z nich w ogóle głośno (a raczej… wprost) wspomina o ucieczce ze spirali przemocy. Imiona bohaterów widzowie słyszący również znają tylko z podsumowań fabuły.

Gdy głusi bandyci są we własnym gronie, cisza działa na ich korzyść – przygotowując zasadzkę, nie muszą ze sobą rozmawiać, a tym bardziej nie targują się z ofiarami. Zapewne łatwiej jest ukryć podwójne życie szkoły przed sąsiadami – awantura w środku nocy nie zaczyna się krzykami, lecz zapaleniem światła w pokoju. Wszystkie braki słowa mówionego odczuwa się raczej w sferze informacji – emocje są bowiem wypisane nie tylko na twarzach, ale i widoczne w całej mowie ciała bohaterów. Nie są przesadnie kontemplowane – wykorzystywanie języka migowego do studium emocji rażąco nie pasowałoby do bezpośredniości i brutalności filmu. Zdecydowanie przesadził pewien anglojęzyczny recenzent, widząc w scenie bójki baletową harmonię ruchów.

Środki filmowego wyrazu są surowe i zupełnie inne niż w kinie niemym. Filmom niemym towarzyszyła muzyka na żywo, a scenarzysta starał się, by sekwencje były trochę naiwne i zawsze zrozumiałe – zdarzały się nawet kadry-tabliczki z niezbędnymi informacjami. W „Plemieniu” nie ma ani jednego taktu muzyki czy znaczącego napisu. Słyszymy tylko dźwięki otoczenia. W pewnym momencie dają poczucie przewagi (jeden z bohaterów ginie przejechany przez ciężarówkę, której nie zauważa), ale przeważnie nic nie wnoszą. Język migowy „słychać” tylko w momentach wyjątkowego wzburzenia, kiedy rozmowa przypomina szarpaninę. Podobnie ze scenami seksu – sprawiają wrażenie beznamiętnego trącania się ciał, a chemia i ekstaza nie mają prawa głosu. Ledwie kilka dźwięków wydanych krtanią robi na takim tle duże wrażenie – te zawsze wiążą się z wyjątkową agresją albo bólem.

Brak mówionych dialogów i muzyki skłania też do wyjątkowo mocnej koncentracji. Nawet gdyby film poruszał spokojniejszą tematykę, nie dałoby się na nim zdrzemnąć. Reżyser prowadzi kamerę wolno, jakby od niechcenia – sceny sprawiają wrażenie filmowanych „z ręki”, gdy się za kimś idzie, albo przechwyconych z nieruchomych kamer przemysłowych. Częste są długo trwające kadry, w których oprócz ciał rozmawiających osób nie drgnie nawet listek. Z początku się dłużą, ale później podstępem wciągają w świat niezrozumiałych znaków i dodają filmowi realizmu – tak statycznego montażu nie ma chyba nawet w dokumentach. Widz czuje się jak szpieg w świecie Głuchych, a jednocześnie bierny obserwator systemu, w którym przemoc utrwala się w ciągle tych samych koleinach.

Na warszawskim pokazie „Plemienia” było kilka grup osób Głuchych, ale i oni mogli czuć się nieswojo – w końcu krajowe języki migowe często różnią się od siebie bardziej, niż wynikałoby to z geografii. Podobno ukraiński język migowy, tak jak polski, czerpał w swoim rozwoju z francuskiego migowego, ale kto wie, jak potem rozeszły się ich drogi. Anegdota mówi, że dla Głuchych z Zachodu ukraiński migowy jest zrozumiały w około jednej piątej. Jeśli ten tekst przeczytała osoba biegle znająca polski migowy, która mogłaby naświetlić sprawę – prosimy o kontakt i podzielenie się wrażeniami z filmu ☺

Na pewno poleciłabym film jako ciekawy eksperyment artystyczny i… pewną odmianę dla tłumaczy audiowizualnych, którzy czasem nie potrafią oderwać się od analizowania tłumaczenia ☺ A jeśli ktoś ma nadzieję na relaks przy filmie o sztubackich wybrykach, to czeka go srogi zawód – zostanie w przejmującej ciszy wbity w fotel.

Karolina Milewska, współpraca: Łukasz Dutka
Opublikowano Aktualności | Możliwość komentowania Jak wytłumaczyć brak tłumaczenia – wrażenia z filmu „Plemię” została wyłączona

Nowe badanie AVT Lab!

Zapraszamy Was do wzięcia udziału w naszym nowym badaniu eyetrackingowym przeprowadzanym w ramach projektu HBBTV4ALL!

Pokażemy Wam 6 krótkich klipów (2-3 minuty) i poprosimy o odpowiedź na kilka pytań. Każdy uczestnik otrzyma drobny upominek.

W sprawie wolnych terminów i zgłoszeń piszcie na adres: a.szarkowska@uw.edu.pl.

Opublikowano Badania | Możliwość komentowania Nowe badanie AVT Lab! została wyłączona

„Przekładaniec” o audiodeskrypcji


„Przekładaniec” to czasopismo wydawane przez Uniwersytet Jagielloński, poświęcone szeroko rozumianemu przekładowi. Najnowszy numer niemal w całości traktuje o audiodeskrypcji, która zyskuje należną sobie pozycję równą tłumaczeniu z języka obcego – wiąże się z podobnymi trudnościami, prowokuje dyskusje o wierności i odbiorze przekładu, specyficznie towarzyszy oryginalnemu dziełu, a dobrze zrobiony opis tego, czego nie widać, sam bywa… niewidoczny. AVT Lab w „Przekładańcu” dzieli się rozmaitymi doświadczeniami związanymi z audiodeskrypcją: od sztuk wizualnych po sport i pomoce dydaktyczne. Zapraszamy do lektury!

Opublikowano Aktualności, O nas | Możliwość komentowania „Przekładaniec” o audiodeskrypcji została wyłączona

„Jakie powinny być napisy?” – raport z badania preferencji widzów nt. napisów telewizyjnych

W raporcie przedstawiamy wyniki ankiety internetowej pt. „Jakie Twoim zdaniem powinny być napisy?” przeprowadzonej w ramach projektu HBBTV4ALL przez Instytut Lingwistyki Stosowanej Uniwersytetu Warszawskiego (ILS UW) w kwietniu 2014 r.

Celem ankiety było zbadanie preferencji widzów na temat różnych rozwiązań stosowanych w napisach telewizyjnych – zarówno „zwykłych” napisów (tj. tłumaczonych z jednego języka na drugi, przeznaczonych dla osób słyszących), jak i napisów dla niesłyszących.

Ankieta była dostępna na stronie internetowej ILS UW wiosną 2014 r. Wzięło w niej udział 815 osób, z czego 427 osób odpowiedziało na wszystkie pytania i to ich odpowiedzi przytaczamy w niniejszym raporcie.

Ankieta składała się z 31 pytań: pierwsza grupa pytań dotyczyła danych demograficznych (wiek, płeć, dysfunkcja słuchu itp.), druga zaś – różnych aspektów napisów i napisów dla niesłyszących.

W raporcie przedstawiamy szczegółowe wyniki dotyczące różnych rozwiązań w napisach i napisach dla niesłyszących oraz opracowane na ich podstawie rekomendacje dla nadawców telewizyjnych.

Dziękujemy wszystkim uczestnikom badania i zapraszamy do lektury!

Opublikowano Badania | Możliwość komentowania „Jakie powinny być napisy?” – raport z badania preferencji widzów nt. napisów telewizyjnych została wyłączona