Nim rozpocznę wyliczankę, powinienem wyjaśnić kryteria, którymi kierowałem się przy doborze gier. Po pierwsze nie będzie to lista produkcji o obiektywnie najwyższych wymaganiach sprzętowych, bo objęłaby maksymalnie ten i poprzedni rok. Aktualnie mamy bowiem gon ku rozdzielczości 4K i więcej, co wymusza odpowiednio potężne urządzenia. A przecież na przestrzeni ostatnich dekad powstawały gry, które wymagały do uruchomienia ich - przy najwyższych ustawieniach jakości obrazu – sprzętu z najwyższej wówczas półki. Sprzętu, który dziś wydaje się prymitywną zabawką. Niemożliwym wydaje mi się też perfekcyjne wyliczenie stosunku maksymalnych wymagań gry do średniej mocy sprzętu obecnego na rynku w momencie jej powstania. Dlatego będzie to przegląd historyczny, od pierwszego (moim zdaniem) przypadku do aktualnej sytuacji. Ma to też o tyle sens, że pozwoli mi w pełni wykorzystać moje doświadczenie, bo z każdą z tych produkcji zaznajamiałem się blisko premiery i zwykle sam doświadczyłem traumy posiadacza złomu. Tak jak wspomniałem, dziś powodem śrubowania wymagań jest rozdzielczość obrazu, co jest pośrednio związane z tworzeniem oprogramowania dla technologii VR. Ludzie w firmach produkujących sprzęt zawsze starają się wygenerować jakiś trend, przekonać graczy, że ta czy inna rzecz jest konieczna, by mogli cieszyć się rozrywką najwyższej klasy. Da to się sprowadzić do prostej procedury. Najpierw wizjonerzy technologiczni zatrudnieni przez czołowych producentów podzespołów wymyślają nowe rozwiązania. Potem ich mocodawcy konstruują odpowiednie urządzenia i wysyłają ich wczesne wersje studiom tworzącym gry. Zakochani w nowych możliwościach programiści szaleją i tworzą produkcje, które wyglądają biedne bez danej technologii. Następnie oni sami (lub ich koledzy) kompilują kod tak, by gra zadziałała na słabszym sprzęcie, bo przecież zależy im na szerokiej sprzedaży. W tym samym czasie producenci sprzętu implementują nowe podzespoły i wypuszczają swoje nowe zabawki na rynek. W momencie premiery gry jej nabywcy widzą, jak wiele ich pecetom brakuje do tego, by mogli zobaczyć wszystko w pełnej krasie. Nabywają więc nowe zabawki albo płaczą na forach internetowych – z punktu widzenia marketingu obie grupy oddolnie napędzają popyt – pierwsi chwaląc się obrazkami i filmikami, drudzy niosąc szerzej wiedzę, że do danej gry potrzeba danej technologii. Na przestrzeni ostatniego ćwierćwiecza takich przełomowych technologii było bardzo wiele. Pierwszą była implementacja grafiki 3D i związane z tym dodatkowe akceleratory montowane obok kart graficznych. Niezłym ciosem dla mocy przerobowych GPU okazały się pionierskie wdrożenia emulacji fizycznych właściwości obiektów. Były też ślepe uliczki, przede wszystkim wymuszona przez producentów matryc do monitorów i telewizorów technologia umożliwiająca oglądanie obrazu za pomocą okularów 3D. Część z nich wyłamywała się z przedstawionego w poprzednim akapicie schematu, bo motorem ich wdrożenia nie byli twórcy podzespołów, tylko korporacja Microsoft chcąca przekonać klientów do nabycia ich najnowszego systemu operacyjnego. Zawsze wtedy szło o możliwości kolejnej generacji ich interfejsu programistycznego aplikacji (API), czyli DirectX. Poza tą drobną zmianą reszta przebiegała analogicznie, po prostu dochodził dodatkowy pierwszy krok w procedurze. Nie zawsze jednak problemy z uruchomieniem gry w najwyższej jakości wynikały z pełzającego gdzieś w tle postępu technologicznego. Przez bardzo długi czas pecetowców gnębiła plaga nieudanych adaptacji konsolowych przebojów. Sedno problemu ukrywało się w odmiennej specyfice kodowania na każdej z trzech platform. Plaga swoje apogeum osiągnęła mniej więcej w połowie okresu obecności na rynku konsol poprzedniej generacji. O ile pomiędzy Xboksem 360 a pecetem nie było kosmicznych różnic, bo bazowały na tym samym API, czyli DirectX (mimo wszystko PC to w większości maszyny pracujące pod Windows), to już PlayStation 3 była z innej bajki. Kodowanie na konsoli Sony wymagało zupełnie innego podejścia do alokacji danych w zasobach urządzenia. Wygodna jest tu analogia do różnicy w trudności przekładu literackiego na język polski. Xboks 360 był językiem angielski, PlayStation 3 zaś japońskim. W większości przypadków studia programujące na daną platformę nie potrzebowały ludzi znających specyfikę kodowania na pozostałe. A nawet jeśli, to poziom ich doświadczenia często się różnił. Korporacje wydające gry zatrudniały więc inne, mniejsze studia do “portowania”, czyli właśnie adaptacji na inne platformy. Efekty bywały opłakane, bo nie będąc obecnymi przy tworzeniu oryginalnego kodu, podwykonawcy gubili się i wykorzystywali bardzo mało wydajne techniki obejściowe. Aktualna generacja konsol to w zasadzie pecety zaprojektowane w ramach konkretnej, zamkniętej architektury. Przepaść programistyczna jest mniejsza niż kiedykolwiek. Ponieważ problem w zasadzie nie istnieje, a i kiedyś w małym stopniu dotyczył mocy pecetów, takich przypadków nie będzie na liście. Wspominam o nich teraz, by nikt nie zarzucił mi braku na liście niektórych tytułów, które mając konsolowy rodowód, wymagały od PC chorym mocy obliczeniowych. Tak samo nie umieszczę na liście gier, które były po prostu źle napisane. Prawie półtorej dekady temu w pewnej produkcji strategicznej, która działała zdumiewająco źle na moim komputerze, w ramach ćwiczeń (wciąż nie wiedziałem, czy nie wrócę do informatyki, czy jednak zostanę jedynie branżowym dziennikarzem)  rozpakowałem pakiety plików i - ponieważ była napisana prosto - przejrzałem szybko kod. W kodzie były wciąż “didaskalia” czyli korespondencja między programistami. W plikach było zdjęcie kaktusa (sądząc po danych EXIF całkiem prywatne, z okresu tworzenia gry). Jak tacy bałaganiarze mieli dostarczyć graczom działający płynnie program? Podsumowując: nie zawsze gra działa nam słabo, bo jest jaskółka nowego w technologii. Bywa, że to po prostu spartaczona robota przy kodzie. W pozostałych przypadkach jest jednakże tak, że problemy z uruchomieniem jakiejś gry w satysfakcjonującej nas jakości oznaczają, że wkrótce czeka nas więcej łez, bo zaraz pojawią się kolejne pozycje  wykorzystującej konkretne nowe rozwiązanie. Wtedy mamy do wyboru wymianę sprzętu, a w wypadku laptopa raczej całości, albo powrót do przebojów z młodości. Ewentualnie opuścić krainę zamieszkaną przez “PC Master Race” i dołączyć do graczy konsolowych…  Przy zakupie nowego peceta, stacjonarnego czy przenośnego, należy zaś koniecznie zastanowić się, gdzie przebiega nowa granica technologiczna i nabyć coś z pewnym zapasem względem niej. Tak, by sprzęt służył nam przez sensowny czas, a nie wymagał za chwilę wymiany. Tyle w ramach tego już przydługiego wstępu, zapraszam na scenę dziesiątkę pogromców pecetów z minionego ćwierćwiecza. Myst Rok wydania: 1993 Studio: Cyan Wolds Wydawca: Brøderbund Pierwszy przypadek jest zarazem chyba najbardziej rewolucyjnym dla komputerowego sprzętu. Gra powstała w czasach, gdy nie istniała jeszcze cała machina napędzająca produkcję kart graficznych. Sporo ówczesnych gier dawało się zamknąć na iluś tam dyskietkach. Jeśli już pojawiała się konieczność wykorzystania płyty CD, to ze względu na filmowe wstawki nagrane z udziałem aktorów. Niespodziewanie pojawili się bracia-wizjonerzy Rand i Robyn Miller. W swojej przygodówce – tak, nie była to gra akcji z animacjami walki, jak większość z tej listy – postanowili postawić na grafikę 3D. Był to bardzo pionierski krok w tych czasach. Nie było pecetów zdolnych to zrobić o własnych siłach, dlatego wygenerowane na potężnych macintoshach obiekty musiały być dogrywane z płytki CD. Ponieważ gry przygodowe są raczej statyczne, czas potrzebny na załadowanie grafiki do pamięci w niczym nie przeszkadzał, nie zagrażał zdrowiu i życiu postaci. Efekt wizualny był zaś tak niesamowity, że krótki czas oczekiwania był tego warty. Kluczowe jednak jest to, że ten śmiały krok zapoczątkował na dobre erę gier, wymagających płyty w napędzie CD-ROM. Z tej drogi już nie było odwrotu. Realms of the Haunting Rok wydania: 1996 Studio: Gremlin Interactive Wydawca: Interplay Najmniej znany tytuł na mojej liście. Nie bez powodu. W tym konkretnym wypadku po prostu gra nie trafiła w swój czas, nie wpisała się w nową falę ulepszania sprzętu. Znają ją więc głównie smakosze, którzy albo należeli do absolutnej elity, jeśli idzie o parametry ich pecetów, albo widzieli ją w akcji u kogoś i sięgnęli po nią ileś lat później. Rok 1996 to data premiery gry Quake. Wiele osób postarało się, by ich pecet sprostał wymaganiom tej produkcji id Software – a nie były to wymagania małe, bo przecież w tej strzelance mieliśmy chociażby tak pionierskie pomysły, jak przeciwników tworzonych jako modele 3D. Ponieważ w tym wypadku możliwe były kompromisy, byleby dało się grać ze znajomymi na imprezach LAN, gracze czynili oszczędności. Centusie nie dość, że nie docenili pełnej krasy Quake, to na dodatek odbili się boleśnie od ROTH. Gra Realms of the Haunting powstała bowiem na silniku użyczonym przez id Software, ale twórcy nie przewidywali kompromisów. Ze względu na strukturę gry (strzelanka przechodząca momentami w horror detektywistyczny), mapy zawierały o wiele więcej detali i elementów potrzebnych do rozwiązywania zagadek. Dorzucono też filmowe przerywniki, w których żywi aktorzy zostali nałożenie na maksymalnie podrasowane scenerie z gry. Ponieważ już w tych czasach czułem, że jestem zbyt ubogi, by oszczędzać na sprzęcie, moja maszyna miała zapas mocy. Mnóstwo znajomych przychodziło do mnie tylko po to, by na własne oczy zobaczyć grę, o której z wypiekami opowiadałem, a której oni nie mieli szans uruchomić bez poważnych inwestycji… World of Warcraft (2004) Rok wydania: 2004 Studio: Blizzard Entertainment Wydawca: Blizzard Entertainment Zapewne dziś, gdy WoW jest grą, którą można uruchomić na niemalże każdym dowolnym pececie, obecność tej gry na mojej liście może wydać się co najmniej dziwna. Uwierzcie mi jednak, że w momencie premiery odpalenie tego pierwszego “nowożytnego” MMORPG w najwyższych detalach było przywilejem nielicznych. Rozległe jak na te czasy mapy, mnogość elementów, animacje - to wszystko kosztowało wiele mocy przerobowej komputera. Co ważne, po grzbiecie dostawała nie tylko karta graficzna, ale i procesor. O problemach z łączami sieciowymi nie wspomnę. Dlatego większość z nas grała na ustawieniach minimalnych i tylko podczas wizyt u znajomych z krwawiącymi sercami widzieliśmy, na co stać silnik tego MMORPG. Dużo szacunku należy się ekipie z Blizzard Entertainment za to, że była świadoma problemu już na etapie kodowania. Stąd nieco komiksowa grafika, dużo przyjaźniejsza dla sprzętu. Po latach prac konieczna była szybka kapitalizacja, więc starano się, by w takich czy innych ustawieniach gra uruchamiała się na jak największej ilości komputerów. Udało się, miliony graczy wkręciły się, choć większość z nich nie zobaczyła przez długi czas, jak dobrze WoW może wyglądać przy odpowiedniej mocy peceta. Far Cry Rok wydania: 2004 Studio: Crytek Wydawca: Ubisoft Ta gra ma bardzo ważne miejsce w historii branży. Wyznaczyła nowy trend. Chodzi o produkowanie potwornie wymagających dla sprzętu gier, będących tak naprawdę pełną demonstracją możliwości stworzonego przez studio silnika. Bracia Yerli nie byli co prawda pierwszymi twórcami, którzy za pomocą gry starali się sprzedać swój uniwersalny kod (Epic Games i ich Unreal Tournament robili to wcześniej), ale pioniersko zdecydowali się na drastyczne ograniczenie kompromisów. Far Cry w momencie premiery stał się benchmarkiem dla pecetów. Jasne, gra chodziła i na ciut słabszych maszynach, ale do uzyskania najwyższej jakości potrzebne były prawdziwe technologiczne potwory. Znałem może dwie osoby, które w momencie premiery tej gry mogły ją uruchomić z wszystkimi suwakami przesuniętymi na prawo. Choć niemieccy turcy z Crytek polowali głównie na inne studia, upolowali mnóstwo graczy. W tym mnie, bo naprawdę czułem niesmak, patrząc na swój monitor w porównaniu z tym, co widziałem na ekranach owej dwójki wybrańców. W pewnym sensie mam dług wdzięczności względem braci Yerli, bo ulepszenie sprzętu być może pozwoliło mi uniknąć traumy rok później...
Strony:
  • 1 (current)
  • 2
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj