Miesięczne archiwum: Luty 2014

Test Thief 4

Ustawienia graficzne:

  • Internal – rozdzielczość 1366×768
  • external – rozdzielczość 1920×1080

thief ustawienia 1 thief ustawienia 2 thief ustawienia 3

Benchmark:

Cały Prolog aż do rozpoczęcia Rozdziału 1. 2 cutscenki pomiędzy rozdziałami.

thief benchmark

Wyniki:

  • internal – wykres czerwony
  • external – wykres zielony

thief egpu wyniki

Wnioski i spostrzeżenia:

  • na wstępie zaznaczę, że nie mogłem przeprowadzić testu na teksturach „normal” bądź „high” ponieważ skutkowało to bardzo częstymi i irytującymi lagami. Analiza logów wykazała, że karty graficzne posiadające 1GB pamięci dedykowanej mogą sobie pozwolić co najwyżej na tekstury „low” (są jeszcze „very low”). Na szczęście nawet tekstury na „low” nie wyglądają tu tak tragicznie jak w innych grach.
  • dwa olbrzymie spadki do 10fpsów widoczne na końcu wykresu to 2 cutscenki kończące Prolog. Nowy Thief cierpi więc na ten sam problem co Batman Arkham Origins. Niestety, rozwiązanie tego problemu znalezione przez bjorma tutaj chyba nie działa, ponieważ w pliku konfiguracyjnym nie znalazłem możliwości przełączenia DX11 na DX10.
  • bardzo dziwnym zjawiskiem jest także znaczny spadek użycia GPU na internalu. Jest to tym bardziej zastanawiające gdyż wcześniejsze testy gier wykazały, że w przypadku problemów z szyną (co na internalu zdarza się często) wykorzystanie GPU natychmiast skacze do 99%. Tutaj jest inaczej.

Pomijając problemy z cutscenkami (które miejmy nadzieję w niedługim czasie uda się jakoś rozwiązać) nowy Thief wydaje się być bezproblemowo grywalny na externalu. Szczęśliwi posiadacze kart graficznych od GTX660 wzwyż z 2GB pamięci mogą spokojnie grać na jeszcze wyższych detalach i teksturach. Na internalu jest już niestety znacznie gorzej ale nadal grywalnie – nie doświadczyłem spadków większych niż do 25-30fps.

FAQ: Czy można mieć podłączony monitor zarówno do eGPU jak i laptopa ?

Tak. W moim przypadku monitor Benq G2220HD posiadający wejście DVI i DSUB mam podłączony:

  • kablem DVI->HDMI do eGPU
  • kablem DSUB->DSUB do laptopa (karty zintegrowanej)

Przy pierwszym podłączeniu eGPU w takiej konfiguracji w opcjach „Rozdzielczość ekranu” pojawiły się 3 ekrany (matryca laptopa, monitor eGPU, monitor iGPU). Aby sygnał pochodzący z iGPU nie kolidował wówczas z tym z eGPU ustawiłem dla ekranu „monitor iGPU” opcję „odłącz ten ekran”.

monitor egpu

Dzięki temu zabiegowi przy podłączonym eGPU skrót Win+P i opcja „Tylko projektor” puści obraz przez eGPU a przy odłączonym eGPU ten sam skrót puści obraz przez iGPU. Dzięki temu również oszczędzam sporo czasu nie musząc ciągle przełączać i odłączać kabel w zależności od tego czy chcę korzystać z eGPU czy nie.

Test Call of Duty: Ghosts

Ustawienia graficzne:

  • Internal – rozdzielczość 1366×768
  • external – rozdzielczość 1920×1080

cod ghosts ustawienia 1 cod ghosts ustawienia 2 cod ghosts ustawienia 3

Benchmark:

Team deatchmatch 6 graczy vs 6 graczy na mapie Sovereign. cod ghosts benchmark

Wyniki:

  • internal – wykres czerwony
  • external – wykres zielony

cod ghosts wyniki

Wnioski i spostrzeżenia:

  • ustawienia graficzne użyte do testu są praktycznie najniższe z możliwych. Zmiana parametru „Image Quality” oraz „Texture Quality” na jeszcze niższy preset „low” powoduje że gra wygląda gorzej niż wiele gier sprzed 10 lat także te opcje zostawiłem na „normal”.
  • jak widać na wykresach wskaźnik GPU Video Bus Load sygnalizuje wysokie użycie szyny zarówno na externalu jak i internalu. Efektem tego jest beznadziejnie niski poziom fps w przedziale 30-40.
  • proszę zwrócić uwagę na to, że external nie daje w zasadzie żadnych korzyści dla poziomu fps.
  • testy dotyczyły wyłącznie trybu multiplayer. Być może w przyszłości zaktualizuję test o tryb singlowy choć biorąc pod uwagę fakt, że występuje tam znacznie więcej oskryptowanej akcji nie spodziewałbym się tam lepszych wyników.

W mojej ocenie, Call of Duty: Ghosts jest całkowicie niegrywalny na eGPU. W przeciwieństwie do Call of Duty: Modern Warfare 2, który również działał na silniku IW engine oraz także miał spory problem ze skróconą szyną, tutaj sytuacja jest beznadziejna. Granie w tak dynamicznego shootera na 30-40 klatkach jest przynajmniej dla mnie mocno męczące.

Komu eGPU opłaca się najbardziej ?

Nawiązując do tego co pisałem już w FAQ w temacie pt. „Komu tak naprawdę opłaca się inwestować w eGPU ?”, chciałbym dziś napisać o jeszcze jednej grupie odbiorców, którym inwestycja w eGPU opłaca się bodaj najbardziej.

Konkretnie mam na myśli właścicieli starych laptopów ze złączem ExpressCard. Tak – dobrze przeczytaliście – uważam, że posiadacze Thinkpad-ów Tx10/X201s, Elitebook-ów 8x40p/2540p, Dell Latitude E6x10 (za x wstawić rozmiar-model) jak również niektórych laptopów z segmentu multimedialnego jak np. Lenovo Y460 (kiedyś nawet tam montowano złącze EC) są w świetnej sytuacji. Dlaczego ? Już wyjaśniam.

Każdego z nas prędzej czy później dopada myśl żeby w swoim laptopie coś ulepszyć, poprawić, zmodernizować. „Bo wydajność już nie tak dobra jak kiedyś, bo mam trochę kasy i nie wiem na co ją wydać, bo chcę poeksperymentować” – powodów jest mnóstwo. Więc się zaczyna – od dołożenia kolejnej kości RAM, przez wymianę procesora na lepszy aż po… wymianę karty graficznej. I tu pojawia się zgrzyt, ponieważ w laptopach ta ostatnia operacja jest niezwykle rzadko możliwa – w zasadzie ogranicza się do laptopów gamingowych ze slotem MXM. Efekt jest taki, że 99% użytkowników laptopów postępuje według tej samej ścieżki – co 2 lata wydaje kolejne 3tys zł na kolejny laptop z kolejną dedykowaną kartą graficzną (dGPU) ze średniej półki która starczy na kolejne 2 lata. Ale bohaterowie tego tekstu (czyli posiadacze starych biznesówek) są w lepszej sytuacji… i mogą sporo zaoszczędzić bowiem…

2540p egpu

Tutaj właśnie pojawia się zbawienny ExpressCard i możliwość podłączenia eGPU. Policzmy więc jakim najtańszym kosztem właściciel wymienionych wcześniej starych biznesówek może poprawić wydajność swojego laptopa:

RAZEM: 622zł

Czyli za jedyne 622zł można ulepszyć swojego starego, pewnie 3 lub 4 letniego, poczciwego „staruszka” do wydajności (przynajmniej w testach syntetycznych) dzisiejszych laptopów multimedialnych za 2,5-3tys zł. Oszczędność ? I to jaka…

Ale to nie wszystko – jeśli w przyszłości zdecydujemy się jednak wymienić laptopa na nowszy, wystarczy zakupić coś z serii biznesówek na Sandy Bridge/Ivy Bridge również ze złączem EC i nasze eGPU dalej będzie działać i to z lepszą wydajnością bo na 1.2Opt (adapter PE4L może pracować zarówno na 1.1Opt jak i 1.2Opt). Podwójna oszczędność.

Test Titanfall BETA

Ustawienia graficzne:

  • Internal – rozdzielczość 1366×768
  • external – rozdzielczość 1920×1080

titanfall_ustawienia

Benchmark:

Tryb: Hardpoint (utrzymanie 3 flag). 6 graczy vs 6 graczy + miniony (komputerowi przeciwnicy). Mapa: Angel City.

titanfall_screen

Wyniki:

  • internal – wykres czerwony
  • external – wykres zielony

titanfall wyniki

Wnioski i spostrzeżenia:

  • zacznę od tego, że zmiana tekstur w opcjach na „medium” bądź „high” powoduje drastyczne lagi. Analiza logów użycia pamięci w GPU wskazuje, że wyższej jakości tekstury potrzebują znacznie więcej niż 1GB pamięci którą posiada moja karta graficzna.
  • zmiana pozostałych ustawień graficznych na wyższe powoduje już „normalne” spadki fps bez zjawiska lagowania.
  • w grze zastosowano nietypowy sposób „blokady fps”. Pomimo wyłączonej synchronizacji pionowej maksymalny fps uzyskany podczas gry wynosił 60 ponieważ posiadam „tylko” 60Hz monitor. Niemożliwe było uzyskanie wyższej wartości (do tego zapewne trzeba mieć monitor 120Hz lub 144Hz).
  • w związku z powyższym różnica fps między internalem a externalem się mocno zatarła (nie widać maksymalnych wartości) a karta graficzna w wielu miejscach nie pracowała na 100%.

W mojej ocenie Titanfall jest całkowicie grywalny zarówno na internalu jak i externalu. Co prawda nie da się wykluczyć lekkiego ograniczenia przez szynę, ale uzyskane 40-60fpsów jest całkowicie zadowalające. Osoby bardziej kompromisowe ode mnie zawsze mogą jeszcze podnieść kilka opcji graficznych, co na pewno dostarczy lepsze doznania wizualne kosztem 5-10fpsów. Dotyczy to zwłaszcza właścicieli eGPU z kartami o pamięci >1GB ponieważ tekstury na „low” są tu wyjątkowo brzydkie.