Na początku października miałem okazję przybliżyć wam tematykę doliny niesamowitości. Opowiedziałem o tym, jak trudno stworzyć roboty idealnie imitujące człowieka. Pozwoliłem sobie popuścić nieco wodzy fantazji i zasugerowałem, że w przyszłości zmarli aktorzy mogą powrócić na ekrany za sprawą hiperrealistycznych animacji komputerowych. Dziś wracam do tego tematu zainspirowany newsem, w którym Adam opisał wykorzystanie technologii Deep Learning do przeniesienia Harrisona Forda do filmu Han Solo: Gwiezdne wojny – historie. Na naszych oczach powoli tworzy się nowa historia kinematografii.

W świecie deepfake’ów

Zanim przejdziemy do demolowania branży filmowej i porozmawiamy o animowanych aktorach, musimy na chwilę zanurzyć się w świecie nowych technologii. Pod koniec minionego roku w sieci wybuchł spory skandal. Na Reddicie użytkownik o pseudonimie Deepfake zaczął upubliczniać filmy pornograficzne ze znanymi aktorami, wywołując tym samym ogólnoświatową burzę. Ta rozpętała się jednak nie z powodu samych filmów, a tego, jak powstały. Okazało się bowiem, że autor nie wykradł ich celebrytom, a wykorzystał sztuczną inteligencję do podmieniania twarzy aktorek porno na twarze m.in. Daisy Ridley, Emma Watson, Gal Gadot czy Scarlett Johansson. Na pierwszy rzut oka nieuważny widz mógł nie zorientować się, że ma do czynienia ze zmyślnym oszustwem. Zwłaszcza że wiele materiałów publikowano w niskiej jakości, co pozwoliło zamaskować wszelkie niedoskonałości takiej przeróbki. Reddit zamknął wątek z deepfake’ami pod naciskiem krytyki płynącej z mediów oraz pokrzywdzonych aktorek, ale było już zbyt późno, aby zatrzymać tę falę. W styczniu w sieci pojawił się program FakeApp, który pozwalał każdemu podmieniać twarze osób na dowolnych filmach. W sieci zaroiło się od portali gromadzących fakeporno i prawdopodobnie już nigdy nie uda się z nimi wygrać. Ale technologia ta ma także inną, nieco mniej mroczną stronę. Dzięki niej będziemy mogli kręcić filmy, o jakich do niedawna mogliśmy tylko pomarzyć.

Dostroić rzeczywistość

Za technologią pozwalającą podmieniać twarze ludzi w filmach stoi oczywiście sztuczna inteligencja wykorzystująca metodę uczenia maszynowego. Co ciekawe, twórcy FakeApp sięgnęli po bibliotekę programistyczną TensorFlow opracowaną przez zespół Google Brain Team. Największą zaletą FakeApp jest fakt, że do stworzenia w miarę przyzwoitego efektu potrzeba kilkuset zdjęć, co w przypadku celebrytów nie jest zbyt dużym problemem. Wystarczy wykorzystać fotografie dostępne w sieci, aby podmienić twarze aktorów w nagraniu. Harrison Ford nie był pierwszym deepfakiem ze świata filmów, jeden z najsłynniejszych materiałów prezentuje Nicolas Cage: Technologia ta nie jest doskonała i większość filmów tworzy się metodą chałupniczą. Ale łatwo wyobrazić sobie, że w przyszłości powstaną firmy wyspecjalizowane w tworzeniu profesjonalnych deepfake'ów. Mogłyby one posłużyć np. do umieszczania w filmach zmarłych aktorów. Dotychczas wykorzystywano w tym celu grafikę komputerową. W filmie Rogue One: A Star Wars Story mogliśmy podziwiać cyfrową wersję Petera Cushinga w roli wielkiego moffa, którego zanimowali pracownicy z Industrial Light & Magic. Ale na dłużą metę taki sposób przywracania na ekran zmarłych postaci może okazać się nieefektywny, gdyż znacznie lepsze efekty można uzyskać za pomocą deepfake'ów. Oto jak prezentuje się materiał przygotowany przez profesjonalistów: Jeśli uważasz, że bez problemu odróżnisz fałszywe twarze od tych prawdziwych, odwiedź stronę przygotowaną przez redaktorów ABC, na której znajdziesz prosty test. Twoim zadaniem będzie wskazanie, które z filmów przedstawiają prawdziwe osoby, a które są wytworem sztucznej inteligencji. Wybór nie zawsze będzie oczywisty.

Nowa era filmów

Teraz czas zastanowić się nad tym, jak rozwój tej technologii wpłynie na branżę filmową. Za kilka lat może okazać się, że aktorzy wcale nie muszą być wszechstronni, a postaci filmowe będzie można komponować z kilku różnych osób. Reżyser zatrudni w roli "ciała" superbohatera uzdolnionego i umięśnionego kaskadera, nałoży mu twarz Robert Downey Jr. i nada mu głos Johnny Depp. A widz nawet nie zorientuje się, że doszło do jakiejś manipulacji na ekranie. W końcu materiał wygenerowany przez SI pokroju FakeApp zawsze będzie można podkręcić. Być może nigdy nie doczekamy się tak daleko idących zmian w kinematografii, ale mam wrażenie, że rozwiązania z pogranicza deepfake'ów znacząco wpłyną na sposób realizacji filmów. Przyjrzyjmy się tej technologii od kuchni. Szacuje się, że potrzeba kilku tysięcy fotografii aktora, aby stworzyć wierne, hiperrealistyczne odwzorowanie twarzy za pośrednictwem deepfake'ów. Nic nie stoi na przeszkodzie, aby przed wejściem na plan aktorzy zostali dokładnie sfotografowani i przeniesieni do cyfrowej bazy danych sztucznej inteligencji. Dzięki temu mogliby grać twarzą w scenach z udziałem dublerów. Scenarzyści planują nakręcić sceny seksu z Arnold Schwarzenegger, ale wiedzą, że jego ciało nie prezentuje się tak dobrze, jak przed laty? Nie ma sprawy, zatrudnijmy aktora porno i nałóżmy na niego twarz Arnolda. Aktor nie radzi sobie ze scenami walki? Niech zastąpi go zawodowy sportowiec. Filmowcy nie będą musieli maskować scen z kaskaderami, gdyż w każdym ujęciu widoczna będzie twarz aktora, niezależnie, czy zagra w niej on, czy jego dubler. Deepfake pozwoli także dograć materiał, jeśli aktor ulegnie wypadkowi, ciężko zachoruje albo umrze przed dokończeniem zdjęć. Takie wykorzystanie jego wizerunku wymagałoby oczywiście odpowiednich zmian w umowach zawieranych z wytwórnią, ale z tym nie powinno być żadnego problemu. Branża wypracuje rozwiązania, które zadowolą obie strony. Te zmiany dzieją się na naszych oczach. Wspomniał o tym Ben Morris w wywiadzie z  Inverse. Specjalista odpowiedzialny za efekty wizualne w Star Wars: The Last Jedi przyznał, że już dziś skanuje się wizerunki najważniejszych postaci z uniwersum Gwiezdnych wojen.
Zawsze digitalizujemy wizerunki wszystkich głównych aktorów w naszych filmach. Nigdy nie wiemy, kiedy będziemy ich potrzebować.
Krok w daleką przyszłość A to dopiero początek zmian, jakie w najbliższych dziesięcioleciach mogą czekać branżę filmową. Kto wie, może za kilka dekad niektórzy aktorzy będą tylko i wyłącznie animować twarze, a modele i modelki sprzedawać swój wizerunek producentom filmów? Dzięki sztucznej inteligencji możliwe będzie także syntezowanie głosów znanych aktorów. Firma Lyrebird napisała oprogramowanie, któremu wystarczy krótka, minutowa próbka głosu, do stworzenia jego cyfrowego odwzorowania. Tak wyglądają efekty jej działania: Nie mam pojęcia, jaką drogę wybierze branża filmowa, ale już dziś na rynku istnieją narzędzia, które pozwolą unieśmiertelnić zarówno wizerunek, jak i głos. Nie zdziwię się, jeśli za kilkadziesiąt lat na ekranie wciąż będziemy mogli podziwiać aktorów, których dziś podziwiamy na filmowym ekranie. Pozostaje tylko zastanowić się nad losem przyszłego pokolenia aktorów. Czy uda im się wybić wśród deepfake'owych gwiazd z początku XXI wieku? Czy może ich rola sprowadzi się wyłącznie do nośników znanych twarzy sprzed lat?
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj