HD5450 (oben) und 4550
(*klick* zum Vergrößern)
(*klick* zum Vergrößern)
Die Wahl fiel wie beim Vorgängermodell auf eine Gigabyte. Aus dem Grund, weil die Gigabyte-Grafikkarten augenscheinlich über den größten passiven Kühlkörper verfügen, was mir in einem Gehäuse mit annähernd Windstille äußerst wichtig erscheint. Die beiden Karten gleichen sich wie ein Ei dem anderen, nur bei genauerem Hinsehen sind Unterschiede am Kühlkörper und bei der Bestückung erkennbar.
GV-R54SC-1GI (5450) | GV-R455D3-512I (4550) | |
Schnittstelle | PCI Express 2.1 | PCI Express 2.0 |
GPU | RV810 (Cedar) | RV710 |
Fertigung | 40nm | 55nm |
Leistungsaufnahme (TDP) | 15W* (19.1W) | 21W* (25W) |
DirectX (Shader Modell) | 11 (5.0) | 10.1 (4.1) |
OpenGL | 3.2 | 3.2 |
Streamprozessoren | 80 | 80 |
GPU-Takt | 650 MHz | 600 MHz |
VRAM | 1GB DDR3 | 512MB DDR3 |
VRAM-Takt | 800 MHz | 800 MHz |
Anschlüsse | 1xVGA, 1xHDMI, 1xDVI | 1xVGA, 1xHDMI, 1xDVI |
Max Auflösung digital | 2560 x 1600 x 60Hz | 2560 x 1600 x 60Hz |
Max Auflösung analog | 2048 x 1536 x 66Hz | 2048 x 1536 x 66Hz |
*Messung HT4U Furmark |
Interessanterweise hat AMD bei der HD5450 den GPU-, nicht aber den Speichertakt angehoben. Beide GPUs unterstützen DDR2 und DDR3 bis 200MHz, was bei DDR2 in 400MHz (6.4GB/s) und bei DDR3 in 800MHz (12.8GB/s) effektivem Datenverkehr resultiert. Und noch interessanter: Gigabyte spendierte der GV-R455D3-512I (4550) Samsung-Speicher mit 1.07ns (bis 933Mhz), bei der GV-R54SC-1GI (5450) hingegen die 1.2ns-Variante (800MHz) des selben Herstellers.
Nachfolgend ein Vergleich der beiden Karten in der Praxis (Sys: C2D 7300, 8GB RAM):
3DMark Vantage 1.1.0 | ||||||
| ||||||
0 1000 500 | Graphic Score | |||||
Zehn Prozent Leistungssteigerung mögen nach wenig klingen, verbunden aber mit einer Verbrauchssenkung von 20 Prozent ist es aber beachtlich, denn zusammen macht das Pi mal Daumen eine um 33 bzw. 50 Prozent bessere Effizienz (je nachdem, welche Karte man als Bezugswert nimmt). Auf die Temperatur scheint die Sparsamkeit der HD5450 indes einen eher geringen Einfluss zu haben, beide erreichten im normalen Betrieb 68°C und stiegen um 5-10 Kelvin nach dem 3D-Mark-Durchlauf. Bei solchen Vergleichen ist allerdings die Fehlertoleranz naturgemäß sehr gross : Weder können die Temperatursensoren als auf das Grad genau verlässlich angesehen werden, noch ist die Umgebungstemperatur stabil, noch sind die Leistungsmessungen unserer Kollegen von HT4U 100-prozentig (auch unsere nicht) zuverlässig und zu guter Letzt kommen noch Unterschiede zwischen den Karten-Herstellern und die Serienstreuung hinzu.
Temperaturen der beiden Karten: 1. 4550 idle, 2. 5450 idle, 3. 4550 nach 3DM-Test, 4. 5450 nach 3DM-Test
(*klick* zum Vergrößern)
(*klick* zum Vergrößern)
Letztendlich bleibt noch eine Frage: Wozu das Ganze? Wieso nicht die Onboard-Grafik verwenden? Nun, bisher war es so, dass die schwächste, halbwegs aktuelle diskrete Grafikkarte immer noch um einen Faktor schneller war als jede Onboard-Grafik, was sich allerdings je nach Entwicklung der Leistungsfähigkeit von in die CPU-Chip integrierten Grafikkernen noch ändern kann, insbesondere AMD leistet hierbei gewaltigen Vorschub. Für ein gelegentliches Spiel reichen die Karten (und damit künftig auch die integrierten GPUs) immer noch aus, bei den meisten Spielen lässt sich irgendwo zwischen Grafikmatsch und Dia-Show ein gangbarer Kompromiss finden. Beispiel: Duke Nukem Forever. Das Spiel lässt sich auf einem UXGA-Monitor durchaus spielen. Bei eingeschalteter vertikaler Synchronisation (die ich persönlich gerade bei niederer Bildfrequenz als sinnvoll erachte, da Bildwechsel mitten im Bild hier am meisten stören, da die inhaltlichen Unterschieden zwischen Bildern größer sind als bei höherer Bildfrequenz) sind bei maximaler Texturqualität und etwas reduzierter Schatteneinstellung 15 bis 20 fps drin. In besonders anspruchsvollen Szenen kann die Bildrate mit diesen Einstellungen auch einmal auf 10 fps oder knapp darunter sinken, wer Wert auf konstant flüssige Wiedergabe legt, müsste somit die Qualitätseinstellungen noch etwas weiter reduzieren oder halt doch die Auflösung etwas verringern.
(*klick* zum Vergrößern)
Die Integration von brauchbaren GPUs in die CPUs ist aber auch ein Sargnagel für die Hoffnung, dass es in den nächsten Jahren einmal wieder sparsame diskrete Grafikkarten geben wird: Wer braucht eine Grafikkarte, die nicht schneller ist als die Onboard-Lösung?