Nie tak dawno recenzowałem, na łamach portalu, książkę Wojny konsolowe, a już za kilka dni będzie można przeczytać moją rozmowę z autorem tej wyjątkowej powieści. Podczas jej lektury naszła mnie myśl. Kiedyś Sega wojowała z Nintendo o pierwszeństwo na rynku konsol. Teraz Sony konkuruje, na tym samym poletku, z Microsoftem (a trzeba przyznać, że walka to wyrównana). Wielkie N, choć zachowuje rzeszę wiernych fanów, to z roku na rok traktowane jest coraz bardziej jako jedynie ciekawostka. A jak wygląda sprawa rynku PC? Z wierzchu wygląda to bardzo prosto, o prym w kwestii mikroprocesorów walkę toczy Intel i AMD, zaś jeśli chodzi o układy graficzne to drugi wspomniany potentat, po wchłonięciu ATI, siłuje się z nVidią. To jednak tylko pozory. Wystarczy bowiem nieco głębiej zanurzyć się w temat, by zobaczyć, że wojna ta ma więcej niż trzy strony grające nieraz do więcej niż jednej bramki, zaś liczbę frontów, na jakiej się toczy, próżno policzyć. Zanim jednak przejdziemy do zagłębienia się w ten konflikt, ustalmy, czym właściwie jest PC i od kiedy liczyć jego początki. Protoplasta tego, co znamy obecnie pod tą nazwą, został wypuszczony 12 sierpnia 1981 roku przez firmę IBM, pod nazwą IBM PC. Co takiego wprowadził na rynek ten model, na zawsze zmieniający oblicze komputerów domowych? Kluczowa okazała się standaryzacja. Wprowadzenie serii portów, wewnętrznych jak i zewnętrznych, umożliwiających nie dość, ze łatwe kopiowanie, to jeszcze produkcję zgodnych peryferiów firmom trzecim, było prawdziwą rewolucją. Wkrótce kompatybilność z komputerami IBM stała się wyznacznikiem sukcesu, a jedynie komputery Apple mogły próbować walczyć z ofensywą IBM PC i jego klonów. Biorąc pod uwagę różnice zarówno w architekturze, jak i zastosowaniu, wykreślam jednak Macintosha i jego potomków z reszty tekstu. Porównywanie Maca i PC ma wszak tyle sensu, co bombowca z jumbo-jetem. Niby i to, i to lata, ale startuje z trochę innym założeniem.
fot. Boffy
Pierwsza fala wojny między Intelem a AMD, do dziś największym jego konkurentem, rozpoczęła się już w 1975 roku. Wtedy to, dzięki inżynierii wstecznej, został stworzony klon procesora Intel 8080. Potem poszło już lawinowo, pierwsze procesory zresztą korzystały z tych samych gniazd co ich odpowiedniki Intela, nie wymagała więc nawet wyspecjalizowanej płyty głównej. Kolejny przełom nastąpił w roku 1997, kiedy to ukazały się CPU AMD K6, które, choć miały inną architekturę, pasowały do używanego wówczas intelowskiego złącza Socket 7. W dodatku jednostki te były sporo tańsze, co spowodowało znaczny ogólny spadek cen komputerów osobistych. Procesory z linii K6 były ostatnimi, jakie AMD wypuściło w zgodności z socketami Intela, potem już obie firmy poszły osobnymi drogami. I tak oto przez przeszło 20 lat obie firmy toczą ze sobą boje, wspólnie stanowiąc do niedawna 99.1% całego rynku mikroprocesorów, z dużą przewagą Intela, którą jednak mogą zachwiać nowe procesory AMD, Ryzen. Kwestia kart graficznych jest nieco bardziej zagmatwana. O ile bowiem AMD (po przejęciu ATI) i nVidia tworzą w miarę równe chipsety graficzne, zaś druga z wymienionych firm posiada nie tak wielką przewagę w udziałach na rynku, to jednak wkraczamy tutaj w szarą strefę peryferiów komputerowych. Mowa oczywiście o tzw. kartach niereferencyjnych. Jak to działa? Ano tak, że producenci chipsetów dostarczają firmom jak MSI czy Gigabyte oraz wielu innym, mniej lub bardziej znanym, swoje procesory, wraz z ogólnym projektem referencyjnym, zaś owe kompanie tworzą wokół nich obudowy, które potem wędrują do naszych blaszaków. Czasem jednak zdarza się, że taki producent nie do końca trzyma się oryginalnych założeń i rozwiązań. Dzięki temu czasem otrzymujemy nieco mniej wydajne, tańsze zamienniki, a czasem droższe, ale mocniejsze o kilka-kilkanaście procent od materiału źródłowego. To samo zresztą tyczy się płyt głównych, które z reguły działają lepiej z układami graficznymi, a nawet pamięciami RAM danego producenta. Do niedawna proceder ten stosował też Intel i AMD. Procesory tego pierwszego lepiej współpracowały z nVidią, zaś tego drugiego, z ich własnymi kartami graficznymi. Teraz jednak ma to ulec zmianie, przynajmniej wedle zapewnień AMD.
fot. nVidia
Kolejnym, i nie mniej istotnym z frontów w tej wojnie jest ten, na którym bitwa toczy się o... konsole. Jak?- spytacie. Ano tak, że przecież i te maszyny muszą być czymś napędzane. Tutaj ścieżka rozwoju toczyła się dwojako Microsoft w swoim Xbox zastosował zmodyfikowany mikroprocesor bazujący na infrastrukturze Intel Pentium III, podczas gry Sony zdecydowało się na rozwiązanie, stosując, przeznaczony głównie do serwerów i stacji roboczych, procesor MIPS III. Jeśli chodzi o grafikę, MS zatrudnił do współpracy nVidię, zaś Sony zdecydowało się na własne GPU. Przy następnej generacji robi się jeszcze zabawniej. Otóż zarówno PlayStation 3 jak i Xbox 360 opierają się o mikroprocesory stworzone wspólnie z IBM, oba oparte o architekturę PowerPC, jednak kompletnie inaczej wykorzystaną. Namieszało się też nieco jeśli chodzi o układy graficzne. Microsoft tym razem wybrał układy ATI, zaś nVidię pod swoje skrzydła wzięło Sony. Wyraźna przegrana PS3 względem X360 została spowodowana przez kilka czynników. Jednak bebechy konsoli Sony nie były jednym z nich, przynajmniej nie w pełni. Zastosowany tam procesor był o niebo wydajniejszy od konkurencyjnego. Niestety jednak, programowanie pod jego architekturę było niczym droga przez mękę i wielu developerów nie podjęło się jej. W odstawkę poszły więc  GPU nVidii i wymyślne, skomplikowane mikroprocesory, zaś w obecnej generacji, zarówno XOne jak o PS4, tryumfy świętują CPU i GPU, czy też raczej ich połączenie w APU, od AMD. Jedynie Nintento w swoim Switchu zastosowało układy twórców GeForce, konkretnie zespolony moduł procesowo-graficzny Tegra, znany ze smartfonów i tabletów. CPU, GPU, APU, RAM, płyty główne, dyski SSD, HDD... To wszystko narzędzia w wiecznej wojnie producentów sprzętu. Wojnie, na której zyskujemy my, cywile. Bo po co innego powstawałby takie cuda jak Core X, Ryzen, dyski M.2, czy też nawet klawiatury występujące w kilkunastu wariantach przełączników klawiszy. Wybór podzespołów, jaki jest obecny na rynku, powoduje, że każdy znajdzie coś dla siebie. Od gracza, po grafika czy też entuzjastę overclockingu. Jeśli tak mają wyglądać efekty, to niech ta wojna trwa w najlepsze, a my cieszmy się swobodą i The Witcher 3: Wild Hunt w 16k na 4 monitorach.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj