Najpierw powinny powstać nośniki danych nowej generacji czy może sprzęt, który umożliwi ich popularyzację? Branża technologiczna nie znalazła uniwersalnego rozwiązania tego problemu i chwyta się najróżniejszych, często karkołomnych metod, aby popchnąć świat do przodu. I nie zawsze udaje się uzyskać planowany efekt.
Dylemat przyczynowo-skutkowy od lat rozgrzewa dyskusje na rynku technologicznym. Aby poprawić jakość przekazywanych informacji, potrzebujemy dwóch elementów: nośnika oraz treści, która spopularyzuje nową formę przekazu. Filmy w wysokiej rozdzielczości, serwisy streamingowe czy wierne odwzorowanie dynamiki światła w grach – aby wdrożyć każdy z tych elementów, należy zainwestować zarówno w rozwój sprzętu, jak dzieł wykorzystujących jego potencjał.
Problem tkwi w tym, że ktoś musi podjąć ryzyko. Albo projektanci urządzeń, którzy liczą na to, że zainspirują twórców do sięgnięcia po nowe formy wyrazu, albo twórcy, którzy przy pomocy niszowych narzędzi postarają się wypromować nietypowe standardy. Ale nie ma jednej prawidłowej odpowiedzi na odwieczne pytanie o to, co w tym przypadku powinno być pierwsze, jajko czy kura; gdzie w roli jajka osadzimy treści, a w roli kury – samą technologię.
Historia najnowsza zna kilka przykładów tego, w jaki sposób próbowano rozwiązać ten dylemat i popchnąć branżę na nowe tory. Lada moment z tym wyzwaniem zmierzy się film
Bliźniak, który ma podnieść jakoś wizualną filmów i sprawić, że będą wyglądały jak żywe. Niestety, wiele wskazuje na to, że poniesie klęskę - na kilka tygodni przed oficjalną premierą okazało się, że żadne kino w Stanach Zjednoczonych nie będzie w stanie zaprezentować go w takiej wersji, jak życzyłby sobie tego Ang Lee.
Bliźniaka nakręcono w 4K i przystosowano do wyświetlania w 3D oraz w 120 klatkach na sekundę. Taki zabieg miał sprawić, że widz odniesie wrażenie, że znajduje się w samym sercu akcji.
Piękny zamysł, który brutalnie zderzył się z rzeczywistością. Bo choć istnieją w USA kina, które wyświetlają filmy w 3D i przy 120 klatkach, to wyposażono je jedynie w projektory 2K. A jeśli już jakaś sala korzysta z projektorów 4K, to te nie są w stanie aż tak często odświeżać ekranu i pracują np. przy 60 klatkach. Z tego powodu dzieło Anga Lee będzie wyglądało perfekcyjnie wyłącznie na ekranach studyjnych, na których je przygotowywano. W tym przypadku nośnik prześcignął technologię i raczej nie ma szans na to, aby
Bliźniak rozpoczął kinową rewolucję, która doprowadzi do wymiany projektorów kinowych na takie, które będą zdolne spełnić wyśrubowane wymagania reżysera.
Ale kinematografia zna przypadki wykreowania trendu technologicznego przez jedno, dobrze zrealizowane dzieło. Cofnijmy się do roku 2009, kiedy do kin wszedł
Avatar. Być może film Jamesa Camerona nie zachwycał fabularnie, ale wywarł tak ogromne wrażenie na opinii publicznej, że rozpoczął boom na rynku telewizorów 3D. W 2010 roku masowo zaczęły pojawiać się odbiorniki przystosowane do oglądania trójwymiarowych treści, a technologią tą zainteresowali się zarówno ludzie kina, jak i nadawcy telewizyjni, głównie ci związani ze światem sportu.
Szał na domowe 3D nie trwał co prawda zbyt długo, ale
Avatarowi udało się przekonać korporacje do zainwestowania w nową, potencjalnie intratną branżę. I prawdopodobnie dziś nadal byłoby głośno o telewizorach 3D, gdyby producenci sprzętu sprzedawali okulary 3D w niższej cenie oraz wprowadzili tę technologię do niższych modeli swoich urządzeń. Twórcy treści też mają swoje za uszami, gdyż bali się w pełni wykorzystać potencjału trzeciego wymiaru. Nie tylko nie realizowali filmów 3D w taki sposób, aby spotęgować wrażenie trójwymiarowości, świadomie spłycali także ich głębię. Nieco szerzej o tym problemie pisałem w artykule poświęconym
wadom kina 3D.
Film Camerona wywołał chwilowy szum w branży, nie był jednak w stanie na dobre zmienić podejścia do tworzenia filmów. Ale nie można wykluczyć, że
kolejny Avatar, który będzie zrealizowany w bezokularowym 3D, będzie miał więcej szczęścia i doprowadzi do upowszechnienia się nowej kategorii trójwymiarowych filmów.
Innowacja za wszelką cenę
Odmienną taktykę obrali z kolei projektanci pierwszych komercyjnych telewizorów pracujących w wysokich rozdzielczościach. Stwierdzili, że filmowcy nie mają wystarczającej siły przebicia, aby przekonać nas do przeskoku na nowszą technologię. I wystarczy spojrzeć na ofertę polskich nadawców telewizyjnych, aby przyznać im rację. Choć czołowe stacje telewizyjne mają w swojej ofercie kanały w FullHD, ich jakość nie jest rewelacyjna, a wiele kanałów nadal ma problem z wdrożeniem rozdzielczości 1080p, o 4K nawet nie wspominając. I co ciekawe, nawet taki gigant streamingowy jak HBO GO wciąż w dużej mierze polega na filmach i serialach w 720p.
Pierwsze konsumenckie telewizory 4K pokazywane na targach CES w Las Vegas i IFA w Berlinie na początku drugiej dekady XXI wieku były drogie i nie pozwalały w pełni wykorzystać potencjału wysokich rozdzielczości. W pierwszych miesiącach pełniły jedynie rolę wizytówki korporacji, mimo to nie zrezygnowano z inwestowania w ich rozwój. Liczono na to, że prędzej czy później pojawią się treści, które wykorzystają każdy piksel matrycy. I nie przeliczono się – Netflix rozpoczął nadawanie w 4K w 2014 roku i od tamtego czasu sukcesywnie popularyzuje tę rozdzielczość, podobnie jak inne firmy z branży kinowej i telewizyjnej, które chcą być postrzegane jako innowacyjne marki.
Na dobrą sprawę od pojawienia się telewizorów 4K do upowszechnienia filmów 4K minęło mniej więcej tyle samo czasu, co od premiery
Avatara do załamania się rynku domowego kina 3D. Dlaczego ta pierwsza technologia poniosła klęskę, a druga przyjęła się do tego stopnia, że dziś telewizory FullHD niemal zniknęły ze sprzedaży?
Możemy pomyśleć, że klienci po prostu zechcieli oglądać treści w wyższej rozdzielczości, kiedy telewizory 4K stały się przystępne cenowo. Problem w tym, że do niedawna nie funkcjonowały na rynku powszechne algorytmy skalujące, które dobrze radzą sobie z wyostrzaniem obrazu, a materiałów w natywnym 4K było jak na lekarstwo. I aż do dziś sytuacja nie uległa znaczącej poprawie, w końcu telewizja linearna nadal tkwi w świecie FullHD. Producentom udało się po prostu przekonać opinię publiczną, że telewizory 4K wprowadzają nie tylko lepszą rozdzielczość, ale także ogólnie pojętą lepszą jakość obrazu. Przekonano nas, że są przyszłość rynku i zainwestowali w promocję nowych sprzętów ogromne pieniądze.
Na tym jednak nie kończy się ta historia. W zeszłym roku okazało się, że korporacje pokroju Samsunga są gotowe na kolejny przeskok i wypuszczenie komercyjnych telewizorów 8K. Pomimo tego, że filmy i seriale w tak wysokiej rozdzielczości nie trafią do powszechnego użytku jeszcze przez pięć, może i dziesięć lat, a czołowi innowatorzy pokroju Netflixa nie bardzo interesują się tą technologią.
Korporacje poszły o krok dalej i w ogóle nie zawracały sobie głowy tym, czy filmy 8K będą dostępne. Firmy stwierdziły, że widz potrzebuje technologii wysokich rozdzielczości, a jeśli nadawcy nie będą w stanie dostarczyć takich treści – to korporacja sama zajmie się rozwiązaniem tego problemu. I tak zrodziły się m.in. QLED-y wyposażone w procesor Quantum 8K wykorzystujący sztuczną inteligencję do skalowania obrazu w oparciu o algorytmy uczenia maszynowego. Samsung wyszedł poza rolę producenta sprzętu i przejął funkcję innowatora w zakresie dostarczania filmów wysokiej jakości.
I o dziwo nie jest to wyłącznie chwyt marketingowych -
podczas targów IFA w Berlinie korporacja w bardzo obrazowy sposób pokazała, jak sztuczna inteligencja może realnie wpłynąć na jakość wyświetlanych materiałów i sprawić, żeby treści SD zyskają na jakości dzięki przeskalowaniu ich do 8K.
Gamingowy wyścig zbrojeń
Nieco odmiennie wygląda sytuacja na rynku gamingowym, który rządzi się zgoła odmiennymi zasadami. Już od pierwszych lat istnienia branży mamy do czynienia z nieustanną, pośrednią rywalizacją pomiędzy twórcami gier a producentami sprzętu. Ci pierwsi starają się wykorzystać do cna moc obliczeniową najnowszych podzespołów oraz zoptymalizować działanie silników graficznych, drudzy z roku na rok podnoszą poprzeczkę i wypuszczają kolejne karty graficzne czy procesory, które mają zwiększyć płynność rozgrywki. Wydawałoby się, że mamy tu do czynienia z sytuacją idealną, w której synergia pomiędzy treścią a technologią napędza rozwój całego segmentu rynku. I jest w tym sporo racji, choć historia pamięta kilka zawirowań w świecie gamingu.
Warto w tym miejscu wspomnieć m.in. o zarzutach wysuwanych w stronę konsol, które mają hamować rozwój branży gamingowej. Nowe karty graficzne czy procesory wychodzą co roku, a generacje konsol zmieniają się raz na 6-7 lat. W tym czasie, zgodnie z prawem Moore’a moc obliczeniowa pecetów zdąży się potroić. Mimo to rozwój grafiki w grach od czasu do czasu zdaje się wyhamowywać.
W idealnej sytuacji gry konsolowe powinny stanowić odrębną kategorię produktów, które przez cały okres żywotności prezentują jednakowo wysoki poziom wizualny, zaś gry komputerowe powinny nieustannie przekraczać kolejne granice jakości wyświetlanego obrazu. I po części ten scenariusz jest realizowany. Jeśli jakiś tytuł wydaje się na wielu platformach, na konsolach odpalimy go w niższej rozdzielczości, przy mniejszej liczbie klatek na sekundę, a na pecetach będziemy mogli uruchomić tryb Ultra, który upiększy grę do granic możliwości karty graficznej.
Szkoda tylko, że to rynek konsolowy jest tym bardziej dochodowym i gry tworzy się głównie z myślą o tym, żeby sprzedać jak najwięcej kopii na PlayStation czyXboxa. W związku z tym wielu twórców woli zrezygnować z maksymalnego żyłowania podzespołów pecetowych w obawie, że stworzą tytuł, który będzie dobrze chodził wyłącznie na pecetach, a na konsoli nawet nie uda się go uruchomić
Idealną ilustracją hamulcowej roli konsol jest technologia ray tracingu wprowadzona w zeszłorocznych kartach z linii RTX od Nvidii. Dotychczas pojawiło się zaledwie kilka gier, które wykorzystują śledzenie promieni, a do końca przyszłego roku ich liczba wzrośnie do niespełna dwudziestu. Mizernie jak na rozwiązanie, które pozwala na wprowadzenie fotorealistycznej grafiki.
Cofnijmy się na chwilę do roku 1996, kiedy gry 3D dopiero raczkowały, a wszystkie obliczenia związane z renderowaniem trójwymiarowego obrazu były generowane przez procesor. To wtedy pojawił się akcelerator 3Dfx Voodoo, który szturmem podbił serca graczy i szybko stał się niezbędnym elementem każdego gamingowego komputera. Każdy pecetowiec chciał go mieć, a twórcy chętnie korzystali z jego możliwości. Wówczas konsole nie miały jednak aż tak silnej pozycji, jaką mogą pochwalić się obecnie.
Paradoksalnie karty graficzne RTX od Nvidii mogą zyskać na znaczeniu dzięki premierze PS5 oraz nowego Xboxa, gdyż w obu sprzętach znajdziemy karty graficzne przystosowane do obsługi ray tracingu. A osoby odpowiedzialne za projektowanie nowych konsol otwarcie mówią o tym, że będzie to jedno z kluczowych rozwiązań, które zadecydują o sile nowej generacji. I choć już dziś dysponujemy technologią, która pozwala wiernie odwzorowywać oświetlenie, to wejdzie ona do mainstreamu dopiero wtedy, kiedy twórcy nie będą bali się z niej skorzystać i zaczną wprowadzać ją masowo właśnie dzięki temu, że zadebiutuje na konsolach.
Na koniec zostawmy wisienkę na torcie, czyli coś, co dotyczy zarówno świata gamingu, jak i filmów – 5G. Mimo iż nadal nie powstała infrastruktura telekomunikacyjna, która pozwoli korzystać z 5G, już teraz powstają rozwiązania, które będą bazować na nowym standardzie bezprzewodowego przesyłu informacji. Mamy tu do czynienia z dobrą immersją twórców sprzętu oraz treści – właściciele platform streamingowych inwestują w aplikacje mobilne, giganci pokroju Apple i Google uruchamiają własne gamingowe usługi subskrypcyjne, a Huawei, LG, OnePlus, Samsung i Xiaomi wypuszczają telefony z modułami 5G, które pozwolą w pełni wykorzystać potencjał nowej infrastruktury, kiedy ta w końcu zyska na popularności.
Przykład sieci 5G odstaje jednak od pozostałych przypadków, gdyż o konieczności wdrożenia tej infrastruktury wiedzieliśmy od dawna, gdyż obecne rozwiązania powoli stają się anachroniczne. Gdyby branża nie zainwestowała w 5G, za kilka lat aglomeracje zaczęłyby się zmagać z problemem masowego blackoutu komunikacyjnego. To z tego powodu przedstawiciele wielu branż, od dłuższego czasu solidarnie przygotowują się na nadejście nowego standardu.
Wspomniane wcześniej technologie nie były wprowadzane w takiej kooperatywie. Pojawienie się telewizorów 4K, 3D, ray tracingu na żywo czy idea nagrania filmu
Bliźniak łączącego technologię 4K, 3D i 120Hz to pomysły wysunięte przez jeden sektor rynku. Niekoniecznie spójny z potrzebami innych uczestników branży filmowej bądź gamingowej.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
⇓
⇓
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h