Przenieść tradycję do świata wirtualnego – rozmowa z Neilem Pymerem
Kultywowanie tradycji, poszukiwanie nowej formuły, zabieranie głosu w dyskusji na temat możliwości społecznego zaangażowania sztuki. O kierunkach rozwoju Aardman Animations z NEILEM PYMEREM – dyrektorem kreatywnym innowacyjnego działu interaktywnego w brytyjskiej wytwórni filmów animowanych – rozmawia MATEUSZ DEMSKI.Mateusz Demski: 4 listopada ubiegłego roku minęło 30 lat od dnia, w którym Wallace i Gromit zadebiutowali na dużym ekranie. To właśnie od Podróży na Księżyc (1989), krótkometrażowej animacji Nicka Parka, zaczyna się wasz triumfalny pochód przez festiwale, przeglądy oraz rynki sprzedaży całego świata. Dziś nie wyobrażamy sobie współczesnego kina i telewizji bez Uciekających kurczaków (2000, P. Lord, N. Park) czy Baranka Shauna (2007–2016). Czy cały czas inwestujecie w animowane filmy poklatkowe?
Neil Pymer: Oczywiście, w Aardman Animations stale koncentrujemy się na naszym dziedzictwie i rozwoju najpopularniejszych tytułów we wspomnianej technice. W skali międzynarodowej to właśnie one cieszą się największym prestiżem i budują naszą główną grupę odbiorczą. Baranek Shaun stał się światowym fenomenem. Ta animacja bije rekordy oglądalności w Chinach, Indiach, a przede wszystkim w Japonii, która jest centralnym ośrodkiem „shaunmani”. Powstają tam parki rozrywki, kawiarnie tematyczne, sieci sklepów z zabawkami i inne zwariowane miejsca inspirowane naszą marką. Niedawno w tamtejszych kinach królował kolejny pełnometrażowy film z serii, czyli Baranek Shaun Film. Farmageddon (2019, W. Becher, R. Phelan). To klasyczna animacja z plastelinowymi modelami wzbogacona o elementy CGI i inne cyfrowe efekty specjalne. Słowem: tradycyjny Aardman, którego ludzie kochają najbardziej.
Skąd się wziął fenomen 20-centymetrowej owcy zrobionej z włókna szklanego, filcu i plasteliny? Seria jest obecna w 180 krajach świata.
Prawdopodobnie to zasługa tego, że Baranek Shaun bazuje na nieartykułowanych dźwiękach – bohaterowie nie wymawiają ani jednego słowa, co najwyżej pobekują, chrumkają, wydają różne dziwne odgłosy. Konwencja kina niemego jest doskonale czytelna w każdym zakątku świata. Poza tym to kwestia tego, że nasza praca w Aardmanie opiera się na trzech filarach zaproponowanych przed laty przez Nicka Parka: zabawnej historii dającej możliwość komunikacji z widzami z różnych kręgów kulturowych; charakterystycznych bohaterach, którzy gwarantują przychylność widowni; wreszcie – rzemiośle dążącym do perfekcji. To się sprawdza nieprzerwanie od 30 lat.
Skoro stara tradycja ma się dobrze, moglibyście bazować jedynie na sprawdzonej marce i w ten sposób generować pokaźne zyski.
Całkiem możliwe, ale nie jest tak, że odcinamy kupony od sławy i świętości naszych flagowych serii. Wpływy z nich pozwalają nam na inwestycję w kapitał intelektualny – w nowe twarze, kreatywne pomysły i autorskie historie. Przykładowo od kilku lat mocniej stawialiśmy na rozwój młodych reżyserek i reżyserów z całego świata. Ostatnią animacją, która powstała w ramach naszych działań komercyjnych, jest klip do utworu Daddy zespołu Coldplay (2019). Nasi animatorzy wykorzystali w nim ręcznie robione kukiełki animowane, utrwalane klatka po klatce, elementy tradycyjnej scenografii 2D i technikę digital painting.
Mówiąc o poszukiwaniach nowego narybku, dotknąłeś poniekąd tematu założonej w 2003 roku Akademii Aardmana – projektu edukacyjnego, który rozwijacie we współpracy z National Film and Television School w Beaconsfield.
Animacja poklatkowa to bardzo wąska specjalizacja, która wymaga odpowiednich warunków produkcyjnych i wyspecjalizowanej opieki merytorycznej. Stąd też wzięła się Akademia Aardmana, gdzie staramy się zaspokajać rosnące zapotrzebowanie na animatorów w Wielkiej Brytanii. To trochę jak z naszym futbolem – największe drużyny piłkarskie inwestują w młode talenty. Nasi założyciele, Peter Lord i David Sproxton, to ludzie, którym przyświeca również idea edukacyjna. Zawsze zależało im na wspieraniu utalentowanych, ambitnych i pełnych entuzjazmu animatorów. W Akademii Aardmana stale opracowujemy nowe typy szkoleń, kursów i warsztatów skierowanych do różnorodnych środowisk – począwszy od uczniów szkół podstawowych, przez studentów animacji, a skończywszy na profesjonalistach i wykładowcach akademickich. Jednocześnie uczymy czegoś kluczowego dla kariery zawodowej, czyli jak pracować i komunikować się z zespołem.
Myślenie w kontekście rozwoju i przyszłości wyjaśnia także twoją obecność w Aardmanie. Od lat odpowiadasz tam bowiem za innowacyjny dział, który skupia się na rozwoju projektów interaktywnych.
Animacja poklatkowa sama w sobie nie ewoluowała jakoś znacząco na przestrzeni ostatnich lat, tymczasem przemysł nowych technologii zmienił się nie do poznania – pojawiły się nowe narzędzia komunikacji, rodzaje doświadczenia odbiorczego i prowadzenia historii. Kilka lat temu w Aardmanie postawiliśmy więc na rozwój interaktywnych treści, które stają się coraz bardziej spersonalizowane i angażujące. Wykorzystujemy doświadczenie naszych reżyserów, projektantów i programistów pracujących dotychczas przy klasycznych filmach do tworzenia projektów, które w dużej mierze łączą się ze współczesnym zachwytem nad możliwością przeniesienia się w wirtualną rzeczywistość. W naszym portfolio znajdują się obecnie również aplikacje mobilne, gry przeznaczone na konsole oraz z myślą o VR, które w żaden sposób nie przypominają plastelinowych animacji w stylu Nicka Parka.
Na czym polega różnica?
Weźmy dla przykładu 11-11 Memories Retold, czyli naszą pierwszą grę na konsole. To gra przygodowa rozgrywająca się w czasach I wojny światowej, która powstała we współpracy ze studiem DigixArt. Najważniejszym elementem tego projektu była innowacyjna strona wizualna, przypominająca obrazy Moneta czy Turnera. Poruszając się po naszym wirtualnym świecie, gracz ma wrażenie, jakby wszedł do wnętrza sceny namalowanej farbą olejną na płótnie. Jakby każda kolejna lokacja i klatka były tworzone w czasie rzeczywistym za pomocą drobnych pociągnięć pędzla. Innymi słowy, poszczególne plany przypominają ręcznie malowany i żywy obraz – zanikający, zmieniający się, powstający na naszych oczach.
Z perspektywy czasu uważamy, że było to szaleństwo graniczące z cudem, ale na szczęście dotrzymaliśmy wszelkich zobowiązań i terminów. Gra ukazała się 11 listopada 2018 roku, czyli dokładnie 100 lat po zakończeniu I wojny światowej. Jesteśmy dodatkowo dumni, ponieważ udało nam się zaproponować odejście od konwencji klasycznego FPS-a (first-person shooter), dzięki czemu powstała intymna i antywojenna opowieść rozgrywająca się w wirtualnej rzeczywistości.
Tym samym zabieracie głos w dyskusji na temat możliwości społecznego zaangażowania sztuki.
Twórcy 11-11 zostali w tym roku zaproszeni na nowojorską konferencję Games for Change poświęconą nowoczesnym technologiom, które przyczyniają się do upowszechniania postaw obywatelskich, poszerzają granice ludzkich możliwości, wspierają pozytywne zmiany i po prostu dążą do tego, żeby uczynić świat lepszym miejscem. Mamy świadomość, że prowadzimy dochodowy biznes i zarabiamy na nim pieniądze, ale jednocześnie wciąż myślimy, jak wytworzyć wartość dodaną do naszych projektów. Współpracujemy z organizacją Alzheimer’s Research UK przy tworzeniu spotów do popularnej kampanii społecznej #ShareTheOrange, która zachęca do dyskusji na temat demencji starczej i obalania mitów narosłych wokół tej choroby. Innym przykładem tego typu jest nasza pierwsza produkcja VR, powstała we współpracy z departamentem BBC odpowiedzialnym za badanie i rozwój zaawansowanych technologii. We Wait (2016, D. Dubicki) opowiada o autentycznych historiach syryjskich uchodźców, którzy podjęli próbę przepłynięcia przez Morze Egejskie i przedostania się do Grecji.
To jest temat, o którym współcześnie dużo się mówi na polu sztuk audiowizualnych. Na przestrzeni ostatnich kilku lat powstało wiele filmów próbujących odpowiedzieć na pytania, jak patrzy emigrant i czym charakteryzuje się doświadczenie ucieczki z kraju ogarniętego wojną. Jakie były wasze założenia przy tym projekcie?
Fabuła powstała na podstawie wywiadów przeprowadzonych przez reporterów BBC News, natomiast nasi pracownicy byli odpowiedzialni przede wszystkim za zbudowanie interaktywnego doświadczenia, które przeniesie widzów w samo serce kryzysu migracyjnego. Na początku prowadziliśmy próby na różnych wersjach We Wait, także tych przeznaczonych na komputery stacjonarne. Okazało się jednak, że największy stopień empatii, współodczuwania i zaangażowania w rozgrywkę wykazywali gracze, którzy mieli do czynienia z wariantem interaktywnym. Mówi się coraz częściej o VR jako najlepszym medium do osiągnięcia tak intensywnego poczucia zanurzenia w historii i pobudzenia naszej wyobraźni. W kinie zachowujemy bezpieczny dystans i doświadczamy opowieści niejako z zewnątrz, zaś VR zupełnie oszałamia, zniekształca naturalną percepcję, a jednocześnie daje nam złudzenie rzeczywistej obecności i bezpośredniego obcowania z postaciami.
Przywoływałeś projekty Aardmana, które nie pozostają obojętne na sygnały dochodzące ze współczesnego świata, ale wydaje mi się, że wciąż nie wspomniałeś o tym najważniejszym. Mam na myśli StorySign, czyli waszą aplikację mobilną, która pomaga 32 milionom niesłyszących dzieci w nauce czytania. Jak to się zaczęło?
Punktem wyjścia było spotkanie z jednym z naszych klientów, który zasygnalizował nam skalę tego problemu. Na początku nie wiedzieliśmy, z czym wiąże się nauka czytania, kiedy dziecko niedosłyszy lub nie słyszy w ogóle. Nasze badania zaczęliśmy od prześledzenia dostępnych na rynku podręczników, aplikacji mobilnych i wizyt w szkołach dla dzieci niesłyszących. Tam dowiedzieliśmy się, że dzieciaki te nie potrafią ani wypowiedzieć, ani interpretować słów zapisanych w książkach, co stanowi ogromną barierę komunikacyjną. Pomyśleliśmy, żeby stworzyć technologię, która pozwoli to zmienić. Efekt, który chcieliśmy osiągnąć, miał polegać na możliwości zeskanowania tradycyjnej książki za pomocą aplikacji mobilnej, automatycznie tłumaczącej słowa na język migowy. Tak powstała pierwsza, bardzo podstawowa wersja StorySign, którą przez długi czas testowaliśmy wraz z uczniami z różnych roczników, a także z ich rodzicami. Zależało nam na tym, by korzystanie z aplikacji łączyło walor edukacyjny z zabawą i wspólnym spędzaniem czasu.
A jak to wygląda w praktyce? Jakich narzędzi użyliście?
Wystarczy zeskanować tekst konkretnej książki, a na ekranie telefonu pojawia się przyjazny kreskówkowy awatar używający języka migowego. To wynik zastosowania zaawansowanej techniki motion capture. Całość powstała przy użyciu specjalistycznego sprzętu w postaci noszonego przez aktora kombinezonu z umieszczonymi na nim czujnikami, a także zestawu kilkudziesięciu kamer, dzięki czemu istniała możliwość cyfrowej rekonstrukcji mimiki oraz precyzyjnych ruchów dłoni, z których składa się język migowy. Na początku zaczynaliśmy od jednej książki w języku angielskim, dziś StorySign działa w 14 różnych językach migowych na całym świecie. Na każdy z nich przypada około pięciu popularnych książek dla dzieci. Staramy się oczywiście uzupełniać tę bazę o kolejne tytuły, ale motion capture to kosztowny i skomplikowany proces.
Rozmawialiśmy o różnych obszarach waszej działalności: animacji poklatkowej, wirtualnej rzeczywistości oraz innych projektach multimedialnych. Jakie macie plany na nadchodzące lata?
Póki co pracujemy nad kontynuacją Uciekających kurczaków – 20 lat po premierze pierwszej części. Mamy gotowy scenariusz, obecnie jesteśmy na etapie preprodukcji i staramy się pozyskać partnerów, którzy pomogą sfinansować i doprowadzić ten projekt do końca. Przygotowujemy też szósty sezon Baranka Shauna, w którym spróbujemy pobawić się kilkoma popularnymi gatunkami filmowymi, łącznie z horrorem o ataku zombie. Poza tym będziemy wciąż skupiać się na naszych projektach interaktywnych – nowych grach na konsole i urządzenia przenośne, a także wykorzystaniu technologii VR. Zobaczymy, w jakim kierunku to pójdzie. I jakie możliwości zaoferuje nam jeszcze technika.
Komentuj