Etwa 30W war zu AGP-Zeiten das Maximum, was eine Grafikkarte ziehen durfte (und meiner Meinung nach hätte man es dabei belassen sollen). Findige Ingenieure bei ATI und Nvidia umgingen diese Schranke, indem sie Buchsen für Laufwerk-Stromkabel auf die Karten löteten, um den Stromhunger ihrer Pixelschleudern zu stillen. PCI-Express sollte diesem Gebastel ein Ende bereiten und mit 75W genügend Reserven bieten. Bald wurde diese Limit mit einem speziellen, sechspoligen Stecker für Grafikkarten auf 150W angehoben, später mit einem achtpoligen auf 300W. Mittlerweile scheint ein taiwanischer Hersteller die Branche gewechselt zu haben und produziert nun Staubsauger mit Monitoranschluss. Ernsthaft, ein halbes Kilowatt an Leistungsaufnahme legen den Verdacht nahe, die Asus-Entwickler hätten da was missverstanden und halten die Klimaerwärmung nicht für eine Gefahr, sondern für das Ziel der Menschheit. Gut möglich, dass das Geschütz eigentlich ein Nebenprodukt der Terra-Forming-Forschung ist, vielleicht deswegen auch der Name "Mars".
Sieht so die Zukunft des PCs aus? Bild: Nissan. (klick führt zum Youtube-Video mit der Auto-Werbung).
Ein anderer Aspekt: Früher einmal gab es lediglich zwei Arten von Grafikkarten: Alte und neue. Irgendwann, zur Zeit des Millenniumbugs, führte Nvidia mit der TNT2 M64 erstmals eine deutlich langsamere Variante neben dem Flaggschiff ein. Seither erleben wir eine Inflation an Performance-Klassen bei Pixelbeschleunigern: Von Low-Cost über unteres und oberes Mainstream- und unteres und oberes Performance-Segment bis zum Enthusiasten- und High-End-Segment gibt es mittlerweile alles - nur eines nicht: zeitgemäße, sparsame Karten.
Es ist etwas mehr als zwei Jahre her, als ich mich in einem lichten Moment dazu entschied, einen durchwegs auf Sparsamkeit hin optimierten Rechner zu bauen. Das Ziel war eine zeitgemäße Leistung bei passiver oder zumindest unhörbarer Kühlung (und diese Kühlung sollte selbstverständlich nicht aus Tonnen von Kupfer und Kilometern von Heatpipes bestehen). Es stellte sich heraus, dass dieses Ziel durchaus erreichbar war, mit einer Einschränkung: Der GPU. Ich setzte als derzeit sparsamste Lösung auf eine HD4550. Gedacht als Zwischenlösung, wollte ich diese Karte so schnell als möglich durch eine performantere ersetzen - tatsächlich blieb sie bis vor wenigen Tagen in meinem Rechner. Der gemäß Namenslogik direkte Nachfolger der HD4550, die HD5550, hatte eine wesentliche höhere Verlustleistung von 40W(TDP) gegenüber 25W. Die HD5450 hingegen bot lediglich 10% Mehrperformance. Beim Nachfolger der HD5450, der HD6450 liegt wiederum die Verlustleistung höher (27W typisch). Nvidia hatte während der ganzen Zeit gleich gar nichts konkurrenzfähiges zustande gebracht. Vor zwei Jahren hatten sie im Lowcostbereich lediglich die steinzeitlichen 8400er im Programm. Die Nachfolger, 9300/9400 war nur Onboard oder für OEMs erhältlich, die 9400 GT hingegen fungierte mit 50W(TDP) bereits wieder eine Leistungs-(aufnahme)-Klasse darüber. Die Geforce 100er Serie wurde wieder nur an OEMs geliefert und die Geforce 2xx startete erst ab 30.5W TDP...
Lange Rede, kurzer Sinn: in den letzten Jahren gab es in der Tat nur zwei brauchbare Grafikkarten mit einer TDP bis 25W, die HD4550 und die HD5450. Die HD6450 scheint auf den ersten Blick zwar ebenfalls sehr attraktiv, allerdings stellen die deklarierten 27W den typischen Verbrauch dar, Messungen von HT4U mit Furmark zeigen, dass die Karte durchaus die 30W-Schallmauer durchbrechen kann, während die HD5450 sich mit rund der Hälfte begnügt.