30

News des 29./30. November 2008

Die PC Games Hardware hat sich in drei Artikeln geradezu liebevoll um den Zombie-Shooter Left 4 Dead gekümmert: Erst einmal zeigt man die diversen Bildqualitäten im Vergleich, dann gibt es einen kleinen Tuning-Guide für die Bildqualität und letztlich noch einen Grafikkarten- und CPU-Vergleich. Generell ist das Spiel aufgrund der verwendeten Source-Engine kein besonderer Hardware-Fresser, sondern benötigt in aller Regel nur heutige Mainstream-Hardware, um in bestmöglicher Qualität auf aktuellen Monitorgrößen zu erstrahlen. Mit Verzicht auf Anti-Aliasing ist das Spiel beispielsweise auch mit einfachen Athlon 64 X2 Prozessoren und einer GeForce 7900 GTX unter 1280x1024 mit Frameraten knapp über 30 fps spielbar.

Gerade bei den CPUs scheint das Spiel eher genügsam – allerdings sollte es mindestens ein DualCore-Modell sein, die Leistungen der SingleCore-Modelle fallen doch schon erheblich ab. Dies bedeutet bei AMD alles ab einem Athlon 64 X2, bei Intel alles ab einem Core-2-basierten Prozessor (nicht gerade unbedingt ein DualCore Celeron, aber ein gut getakteter Pentium E macht es schon), sofern man nur über 30 fps kommen will. Für Leistungen ab 50 fps stehen dann bei AMD die Athlon 64 X2 Prozessoren ab ungefähr einem 5800+ (sowie natürlich alles was sich Phenom nennt) und bei Intel die Core 2 Duo Prozessoren ab ungefähr einem Core 2 Duo E6420 (sowie alles besseres) zur Verfügung. Wie gesagt sollte man bei der CPU eher weniger in Probleme kommen, sofern man halbwegs ein modernes Modell sein eigen nennt.

Bei den Grafikkarten wird es dagegen dann kritisch, wenn man moderne Auflöungen wie 1680x1050 samt Anti-Aliasing betreiben will: Für 30 fps steht hier von den aktuellen Grafikkarten noch eine Radeon HD 3850, bei den älteren Grafikkarten kann eine Radeon X1900 XTX erstaunlicherweise exzellent mithalten und bietet dieselbe Performance. Auffallend ist jedoch der enorme Leistungssprung, welcher sich ab einer GeForce 8800 GT bzw. Radeon HD 4850 ergibt: Diese Grafikkarten stehen dann allesamt für 50 fps und mehr. Und sie halten dann eben auch viel länger durch und garantieren selbst unter 1920x1200 mit Anti-Aliasing noch für exzellente Frameraten. Unter dieser Auflösung leistet von den Mainstream-Lösungen dann nur noch die Radeon HD 3870 ihre 30 fps ab, wobei wiederum die Radeon X1900 XTX mit 25 fps der Spielbarkeit erstaunlich nahe kommt.

Generell läßt sich sagen, daß man eingedenk der ebenfalls veröffentlichten Tuning-Tips das Spiel wohl mit jeder passablen Hardware vernünftig spielbar bekommen dürfte, ohne all zu viel Optik einzubüssen. Eingedenk der sehr guten Leistungen der Radeon X1950 XTX und der ebenfalls nicht wirklich schlechten Performance der GeForce 7900 GTX dürfte Left 4 Dead sogar bis hinter zu Performance-Modellen der letzten DirectX9-Generation (ergo Radeon X1950 Pro bzw. GeForce 7900 GS) zum Laufen zu bringen sein. Nutzer heutiger Mainstream-Modelle wie Radeon HD 4670 oder GeForce 9600 GT/GSO dürften sogar recht gut wegkommen: Denn obwohl diese Grafikkarten nicht mit vermessen wurden, kann man dies aus den verschiedenen vorliegenden Ergebnissen mit einiger Sicherheit interpolieren. Die Leistungsmessungen der PCGH konzentrieren sich hier eventuell zu stark auf den HighEnd-Bereich und dort Frameraten überhalb von 50 fps – obwohl es sicherlich wesentlich wichtiger ist zu wissen, welche Hardware alles die 30-fps-Grenze erreicht oder zumindest in deren Nähe liegt.

Ein Thread unseres Forums beschäftigt sich mit dem Phenom-Tuning, sprich der Frage, mit welchen Overclocking-Optionen man noch etwas mehr Performance aus dem AMD-Prozessor herausholen kann. Dabei kam erstaunlicherweise heraus, daß der Phenom nicht mehr so gut auf bessere Speichertimings reagiert wie alle anderen derzeit marktüblichen CPUs – angesichts des integrierten Speicherinterfaces und der Verwandschaft zum Athlon 64 /X2 ist das schon erstaunlich. Höhere Taktraten der HyperTransport-Anbindung brachten ebenfalls nicht viel ein, allerdings war dies bei den AMD-Prozessoren im Desktop-Einsatz schon bekannt – diese großvolumige Anbindung ist eher im Server-Einsatz relevant. Demzufolge bleibt als bestes Tuningmittel die Steigerung der Speicherbandbreite übrig, was sich dann insbesondere bei den DDR3-unterstützenden Prozessoren im Sockel AM3 sehr einfach wird realisieren lassen können.

Einen viel größeren Performanceeffekt hat aber nach wie vor das Stromspar-Feature Cool 'n' Quiet, welches einen damit laufenden Prozessor in der reinen Praxis durchaus einmal um die 15 Prozent Performance kosten kann. Leider scheint das Feature selbst in Szenarien, wo eigentlich dauerhaft der Nominaltakt der CPU benötigt wird, ständig ins Geschehen einzugreifen und somit die Ausnutzung des eigentlichen Leistungspotential der CPU zu verhindern. Sofern diese 15 Prozent Leistungsdifferenz wirklich benötigt werden, kann man hier als Hotfix auf die kurzzeitige Deaktivierung von Cool 'n' Quiet zum Spielen zurückgreifen (die entsprechenden Befehle kann man sich als Shortcuts auf den Desktop legen) – allerdings ist es eigentlich der Job von AMD, ein solches Verhalten des CnQ-Treibers zu verhindern.

In unserem Forum wird derzeit auch darüber diskutiert, ob der XDR2-Speicher seitens Rambus nicht eine Alternative zum derzeit und zukünftig stark auf Grafikkarten benutztem GDDR5-Speicher sein könnte. Als Anhaltspunkt für diese These wird eine Rambus-Roadmap gezeigt, nach welcher XDR2 zukünftig deutlich mehr mehr Speicherbandbreite bieten soll als GDDR5. Allerdings muß hierbei mit eingerechnet werden, daß Rambus kein Speicherchipfertiger wie Quimonda, Hynix oder Samsung ist und demzufolge immer eher nur theoretische Ausblicke gibt. Ob die Lizenznehmer von Rambus die XDR2-Speicher dann wirklich auch in diesen Freuquenzen fertigen können, wo es sinnvoll wird, ist also nicht gesagt – und Rambus ist in seinen Ausblicken zu jeder Zeit sehr optimistisch.

Denn theoretisch war schon der originale XDR-Speicher eine denkbare Option zum Grafikkarten-Einsatz: Durch die Übertragung von gleich acht Datenpaketen pro Takt (im Gegensatz zu zwei bei DDR-Speicher und seinen Abkömmlingen DDR2, DDR3, GDDR2, GDDR3, GDDR4 und GDDR5) wurde eine deutlich niedrigere Taktfrequenz benötigt. Problematisch für Rambus war es allerdings, daß man die zuerst versprochenen Taktfrequenzen bis 800 MHz bislang nicht hat liefern können, sondern erst Ende 2007 sich von der schon im Jahr 2003 verkündeten Ursprungs-Taktfrequenz 400 MHz auf 600 MHz steigern konnte. Damit war zwar eine Speicherbandbreite von exzellenten 154 GB/sec möglich (an einem 256 Bit Speicherinterface), aber dies ist inzwischen durch GDDR5-Speicher längst ebenfalls erreicht: Auf schon des längerem lieferbaren 2500 MHz erreicht man 160 GB/sec, auf der neuen Taktfrequenz 3500 MHz gar 224 GB/sec.

Das Problem von Rambus liegt eher darin, daß sich die Technologie über größere Zeiträume nur langsam weiterentwickelt – was den Anforderungen der Grafikkarten-Industrie überhaupt nicht entgegenkommt, wo man zumeist kurzfristig nach der jeweils besten verfügbaren Lösung schaut. Immerhin müssten die Grafikchip-Entwickler für einen XDR/XDR2-Support ihre Speicherinterfaces umgestalten – und dann hoffen, nicht für Ewigkeiten auf einer bestimmten Taktfrequenz festzusitzen. Auch im Fall von XDR2 mit gleich 16 Datenpaketen pro Takt muß Rambus erst einmal beweisen, daß man die Einstiegstaktfrequenz von 400 MHz (205 GB/sec.) und dann vor allem die nächste Taktfrequenz von 600 MHz (307 GB/sec) auch liefern kann – und zwar möglichst nicht wieder erst in ein paar Jahren. Gegenüber der deutlich dynamischeren Entwicklung von DDR/GDDR-Speicher wird das XDR-Konzept erst einmal seine Leistungsfähigkeit in der Praxis beweisen müssen, ehe dieses für die Grafikchip-Industrie zu einer diskussionswürdigen Alternative werden kann.