5

News des 5. März 2008

Wie Hard Tecs 4U berichten, hat ATI auf der CeBIT eine schnellere Versionen der Radeon HD 3870 dementiert. Damit dürfte das kommende A12-Stepping des RV670-Chips wohl für mehr Taktspielraum sorgen, es aber offiziellen taktverbesserten Versionen der Radeon HD 3850/3870 Serie geben. Einzig allein bei der kommenden GDDR4-Version der Radeon HD 3870 X2 könnte es noch einen gewissen Taktsprung beim Speichertakt geben – allerdings bezieht sich diese Taktänderung natürlich nicht auf den RV670-Chip und dessen verschiedene Steppings, sondern allein auf den jeweils verbauten Speicher. Zudem gibt AMD den Grafikkarten-Hersteller sowieso relativ freie Hand bei der Festlegung des Speichertaktes, insofern könnten die GDDR4-Versionen auch schlicht als "ab Werk übertaktet" laufen – ohne dass AMD hierfür eine extra Spezifikation herausgibt bzw. eine offizielle GDDR4-Ausführung mit mehr Takt ankündigt.

Auf der CeBIT gibt es ja nun auch erste Mainboards mit den kommenden integrierten Direct3D10-Grafiklösungen von ATI und nVidia zu sehen. Beide Grafikchip-Entwickler setzen dabei auf direkte Abwandlungen ihrer Desktop-Lösungen namens Radeon HD 3200 (780G Mainboard-Chipsatz) und GeForce 8200 (gleichnamiger Mainboard-Chipsatz). In beiden Fällen handelt es sich faktisch um LowEnd-Desktoplösungen mit neuem Namen – Hardware-technisch entspricht die Radeon HD 3200 der Radeon HD 3450/3470 und die GeForce 8200 der GeForce 8400 GS, allerdings natürlich mit etwas niedrigeren Taktraten. Die Nähe zu eben jenen Desktop-Lösungen garantiert für die Hersteller eine unkomplizierte Entwicklung und Herstellung und für die Anwender, dass viele der Kompatibiliäts-Verbesserungen der Desktop-Treiber auch automatisch für die integrierten Grafikchips mit gelten. Die Vorab-Tests waren dabei durchaus hoffnungsvoll, die Performance gegenüber den früheren integrieren DirectX9-Grafiklösungen klar höher liegend.

Aber es interessiert hierbei natürlich in erster Linie das Abschneiden gegenüber den günstigsten Desktop-Grafikkarten in Form von Radeon HD 3450 und GeForce 8400 GS – wobei zumindest im Fall von ATIs neuer Lösung hierauf mittels der ersten offiziellen Tests Antwort gegeben werden kann. Hierbei liegt die Radeon HD 3200 integrierte Grafiklösung im 780G Mainboard-Chipsatz gegenüber einer Radeon HD 3450 zwar weiterhin um runde 30 Prozent zurück – dies ist aber gegenüber früheren integrierten Lösungen doch ein gewaltiger Schritt, da diese oftmals hoffnungslos hinter absoluten LowEnd-Lösungen zurücklagen. Eine vernünftige Spieleleistung sieht natürlich immer noch weit anders aus (zu mehr als 800x600mit Low- oder Medium-Details reicht es für die Radeon HD 3200 nicht aus), aber rein für die billig erworbene Möglichkeit zum Gaming mag dies wohl in Ordnung gehen.

Allerdings setzt sich ATI mit dieser Performance natürlich auch wieder selber unter Druck: Denn für 30 Prozent mehr Leistung lohnt eine extra Radeon HD 3450 dann überhaupt nicht – diese kostet auch immer noch über 40 Euro und die Grafikfähigkeiten des 780G-Chipsatzes bekommt man mehr oder weniger kostenlos obendraufgelegt. Wenn die integrierten Grafiklösungen nicht nur in diesem Einzelfall, sondern auch langfristig solch passablen Leistungen hinlegen, dann können sich ATI und nVidia die absoluten LowEnd-Grafikkarten sicherlich sparen und die Performance der günstigsten Einsteiger-Grafikkarten deutlich steigern – was sicherlich im Interesse der Käufer wäre, denn diese können von einer extra Grafikkarte auch des Einsteigerfeldes immer erwarten, dass diese doch um eine Dimension besser als integrierte Grafiklösungen sind.

Der Heise Newsticker berichtet über die neuesten Hardware-Entwicklungen bei Trusted Platform Modules (TPMs), welche für die Trusted Computing Fähigkeiten in einigen von Intels Mainboard-Chipsätzen eingesetzt werden. Prinzipiell bleibt es derzeit bei dem bekannten System, dass mehr oder weniger nur die Chipsätze der Q-Serie für den Business-Einsatz standardmäßig mit TPMs konzipiert werden und auch erst einmal nur ein Einsatz in eben diesem Business-Umfeld vorgesehen ist. Wie es bei Trusted Computing auf dem Desktop-Umfeld weitergeht, ist dagegen unklar, weil es derzeit diesbezüglich keine weiteren erkennbaren Initiativen gibt. Dabei gibt es inzwischen ja positive Anwendungsmöglichkeiten von Trusted Computing im privaten Bereich: So erscheint die aus dem Business-Bereich stammende Idee eines zweiten Admininstration-Betriebssystems auf demselben Computer nach wie vor auch auf den privaten Bereich übertragbar und könnte dort erheblich die Computer-Sicherheit verbessern helfen.

Schließlich könnte jenes zweite Betriebssystem, welches vom ersten (Haupt-)Betriebssystem aus unsichbar ist, die Netzwerk-Aktivitäten auf Angriffsversuche scannen, einen weiteren, unabhängigen Virenscanner betreiben und auch sonst zur Systemwartung auch bei Ausfall des Haupt-Betriebssystems eingesetzt werden. Ob man dies jemals so hinbekommt, dass ein solches System auch für die breite Masse benutzbar wird, ist zwar unklar, aber die erfahrenen PC-Nutzer dürften dies sicherlich einsetzen können. Insofern ist es durchaus zu rechtfertigen, wenn diese Meldung bei uns inzwischen unter der Sparte "IT-Sicherheit" verlinkt wird – vor Jahren hätte man über weitere TC-Entwicklungen sicherlich noch deutlich anders gedacht, wie auch das unserseits seit 2002 geflegte News-Archiv zum Themenkomplex Trusted Computing beweist ;).

Natürlich kann man heutzutage rätseln, ob es der Druck der seinerzeitigen Mißfallenserklärungen war oder die seinerzeitigen Vorantreiber von Trusted Computing einfach zu hoch gegriffen haben, aber inzwischen stellt sich das Thema doch (glücklicherweise) deutlich entspannter dar. Was allerdings nicht zur Leichtfertigkeit verführen soll: Trusted Computing ist per se nur eine machtvolle Technologie, es kommt immer auf den konkreten Einsatz an. Geht dieser in die Richtung, dem Besitzer des Systems mehr Möglichkeiten bzw. mehr Kontrolle zu geben, ist alles in Butter. Doch genauso ist auch der gegenteilige Weg – der Entzug der Kontrolle des Systems zugunsten der Industrie – jederzeit möglich, sind die Möglichkeiten von Trusted Computing niemals zu unterschätzen und auch weiterhin jede neue Entwicklung gegenzuprüfen, in welche Richtung sie geht bzw. wem sie die Kontrolle über das System gibt oder vorenthält.