Autor Thema: Tipps zur Grafikkartenwahl  (Gelesen 4744 mal)

Offline Faust

  • T3D Mitarbeiter
  • Technic3D Insider
  • *
  • Beiträge: 6890
  • Ich bin der Geist der stets verneint
    • Profil anzeigen
Tipps zur Grafikkartenwahl
« am: Dienstag Januar 25, 2005, 16:32:18 »
Hallo zusammen!

Da immer wieder Fragen auftauchen, welche Grafikkarte man denn kaufen soll, habe ich hier mal eine kleine Orientierungshilfe zusammengestellt.

A Grundlagen

Dieser Thread bezieht sich sowohl auf ATI als auch auf nVidia und auch andere Hersteller. Hierzu sei gesagt, dass es zwar einen großen Glaubenskrieg
zw den Anhängern der verschiedenen Marken gibt, sich die Unterschiede aber in engen Grenzen halten :ja:.

Die Pro/Contra-Argumente sind

Pro ATI:   - geringerer Stromverbrauch (X8xx-Serie)   Contra ATI:  - Qualität der Treiber
                - meist Video In/Out                                                  - Bildqualität (bei Analog)
                - Bessere Filterqualität (X1800er-Serie)                         - keine ausgereifte/ breitverfügbare DualGPU-Technik (CrossFire)
                                                                                     

Pro nVidia:  - Bildqualität (bei Analog)              Contra nVidia:  - Stromverbrauch (6800er-Serie)
                 - Innovativität                                                     - Fehlender Video In/Out bzw  ViVo                    - Qualität der Treiber                                              nur über Zusatzchip (6800er-Serie)
                 - Viele Spiele werden auf nVidia optimiert             - schlechtere Filterqualität
                 - meist Video In/Out                                              (7800er- Serie)
                 - bessere DualCore-Optimierung der Treiber
                 - ausgereifte DualGPU-Technik (SLI)
                                                                       
Das Thema "Bildqualität" wird weniger wichtig bei Verwendung des DVI, da es kein "gutes" oder "schlechtes" Digitalsignal gibt.
Nichtsdestotrotz gibt es immer noch Unterschiede: http://www.tomshardware.de/graphic/20050109/index.html

Wie schon bei der PC-Beratung ist das Thema gesperrt. Wer Verbesserungsvorschläge oder Anmerkungen hat, der wendet sich bitte per privater
Nachricht an mich.

Technische Grundlagen

Da ich kein Ingenieur oder so bin, bitte ich meine manchmal etwas...blumige...Ausdrucksweise zu entschuldigen ;)!

Was ist:

  • Antialaising:
    Zitat

    Beim Antialiasing (Abkürzung: AA) durch Grafikkarten wird nicht nur einmal in der Mitte eines Pixel geprüft, welchen Farbwert dieser hat, sondern mehrmals und an verschiedenen Stellen ("mehrere Samples").

    Man stelle sich beispielsweise vor, ein Pixel ist zu 60% von einer Fläche bedeckt. Diese Fläche berührt die Mitte des Pixels. Der Pixel erhält nun die Farbe der Fläche, obwohl sie ihn nicht zu 100% berührt. Um ein besseres Bild zu erzeugen, muss man einen mittleren Farbwert bilden, der sich zu 60% aus der Farbe der Fläche und zu 40% aus der Hintergrundfarbe bildet.

    Prüft man nun mehrmals innerhalb eines Pixels den Farbwert, kommt man dem optimalen Farbwert mit steigender Anzahl der Samples (Prüfungen) pro Pixel immer näher.

    Verschiedene Methoden

    In der Berechnung von 3D-Grafiken wird dieses Verfahren auch verwendet. Zunächst unterstützten nur sehr hochwertige und teure Grafikkarten diese Technik in Grafikschnittstellen wie OpenGL. Doch mit der Einführung des Desktopgrafikchips VSA 100 von 3dfx, verwendet in den Grafikkarten Voodoo 4 4500, Voodoo 5 5500 und der nie offiziell erschienenen Voodoo 5 6000, wurde diese Eigenschaft auch für den normalen Anwender verfügbar. Folgende Techniken des Antialiasing kommen dabei zur Anwendung:

    Supersampling (SSAA)
        Supersampling ist eine Technik, bei der man das Bild in einer höheren Auflösung berechnet und dann herunterrechnet, womit Farbmittelwerte entstehen, beispielsweise: 4-faches AA. Das Bild wird in der Auflösung 800*600 angezeigt, aber in der 4-fachen Auflösung von 1600*1200 berechnet und dann auf 800*600 heruntergerechnet. Dadurch werden also indirekt 4 Samples pro Pixel berechnet. Dieses nennt man auch 2*2 Supersampling. Der Vorteil dieser Technik ist, dass zumindest Ordered Grid Supersampling (siehe unten) nur per Treiber, d.h. eigentlich mit jeder 3D-Grafikkarte, realisierbar ist. Außerdem werden nicht nur die Kanten geglättet, sondern auch die Texturen. (Dies ist möglich, da der Filter von Grafikkarten nicht perfekt ist, allerdings kann der anisotropische Filter bei neueren Grafikkarten aktiviert werden, der ein viel besseres Bild als der sonst übliche trilineare oder gar bilineare Filter bietet. Aber auch dieser Filter ist nicht ganz perfekt.) Der Nachteil dieser Methode ist, dass sie sehr viel Leistung verbraucht.

    Multisampling (MSAA)
        Bei dieser Technik werden nur die Farbwerte an den Kanten mehrmals überprüft und nicht die Texturen. Das kostet weniger Leistung, muss aber durch die Hardware unterstützt werden.

    Fragment Anti-Aliasing (FAA)
        Auch diese Technik glättet nur die Polygonkanten. (Bitte noch Informationen ergänzen) Es ist aber möglich, dass nicht die Kanten an den Polygonenschnittkanten geglättet werden. Diese Technik kostet sehr wenig Leistung, muss aber auch durch die Hardware unterstützt werden.

    OrderedGrid und RotatedGrid Antialiasing (OGAA und RGAA)
        Bei OrderedGrid AA sind die Samples innerhalb des Pixels in geordneter Reihenfolge angeordnet, so wie der Anordnung von mehreren ganzen Pixeln auf einem Bild, wie bei dem angeführten Beispiel von Supersampling. Bei RotatedGrid sind die Samplepositionen gedreht (um eine bestimmte Gradzahl, beispielsweise: 27,5? beim VSA-100). Dies wirkt dem normalen Pixelmuster entgegen und erhöht so die interne Auflösung von innerhalb des Pixels, so dass ein qualitativ deutlich höherwertiges AA entsteht. Beide Methoden sind bei allen drei oben genannten Techniken möglich. Bei Supersampling wird dies mit einer Verzerrung des Pixelmusters herbeigeführt.
    Quelle: Wikipedia

  • Anisotrope Filter:
    Zitat
    Footprint Assembly ist ein Algorithmus zum anisotropen Filtern von Texturen. Er wird häufig auch als anisotropes Filtern bezeichnet. Die Texturverzerrung kann dabei in jeder beliebigen Richtung berechnet werden. Außerdem lässt sich der Algorithmus gut mit Techniken wie MIP-Mapping, bilinearem oder trilinearem Filtern oder auch Summed Area Tables kombinieren.


    Footprint

    Ein Footprint ist die Projektion eines Pixels in das Koordinatensystem der Textur. Es wird angenommen, dass die Textur eine flache Oberfläche bespannt (dies ist bei Polygonen immer der Fall). Der Footprint ist dann ein konvexes Viereck. Je genauer der Farbwert des Footprints berechnet werden kann, desto besser wird das resultierende Bild. Um Rechenaufwand zu sparen, wird der Footprint beim 'Footprint Assembly' nur approximiert.
    Konstruktion eines Footprints

    Bild 1

    Beim Footprint Assembly wird der Footprint vereinfachend als Parallelogramm angenommen. Hierzu wird der Pixelmittelpunkt in die Texturkoordinaten projiziert und gibt den Mittelpunkt des Parallelogramms an. Die Vektoren, die das Pixel entlang der beiden Hauptachsen aufspannen, werden ebenfalls in das Texturkoordinatensystem projiziert. Sie spannen nun das Parallelogramm auf.

    Vielfach wird auch das Parallelogramm als Footprint bezeichnet.


    Algorithmus

    Es wird das Parallelogramm berechnet, das den Footprint approximiert. Der Mittelpunkt heiße p.

    Bild 2

    Der kürzere der beiden Kantenvektoren gibt die Kantenlänge von Quadraten an, aus denen der Footprint berechnet werden soll. Die Quadrate lassen sich mit isotropen Filtern berechnen (meist MIP-Mapping mit bilinearem Filtern). Der längere der beiden Vektoren gibt einen Pfad an, entlang dem die quadratischen Flächen aufsummiert werden sollen.

    /Bild 3

    Die Anzahl N der Quadrate wird durch den Quotienten aus den Vektorlängen des längeren durch den kürzeren Vektor bestimmt und auf die nächste Zweierpotenz gerundet. Die Zweierpotenz ermöglicht ein leichteres dividieren der Summe mittels Rechts-Shifts. Dann wird ein Schrittvektor Δr konstruiert, der sich aus dem längeren Vektor ergibt, wenn man ihn mit \frac{1}{N} skaliert. Die Punkte pn an denen abgetastet werden soll, ergeben sich aus p_n = p + \frac{n}{2} \cdot \Delta r mit n \in \{\pm 1, \pm 3, ..., \pm (N-1)\}. An diesen Punkten als Mittelpunkt wird jeweils der Farbwert eines der Quadrate berechnet. Die Farbwerte werden summiert und durch die Anzahl N geteilt. Das Ergebnis ist die Approximation des Footprint-Farbwertes und der Texturwert für das Pixel.

Quelle: Wikipedia


  • Pixel Shader

    Zitat
    Pixel-Shader (auch Fragment-Shader bzw. Pixelshader) sind Assembler-ähnliche Programme, die vom Grafikprozessor einer 3D-Grafikkarte ausgeführt werden. Sie werden nach den Vertex-Shadern ausgefährt.

    Zusätzliche Informationen zur Verarbeitungskette gibt es im Artikel zu den Shadern.

    Unter einem Pixel-Shader versteht man auch eine programmierbare Einheit aus der Rendering-Pipeline eines Grafikprozessors, die ein Pixelprogramm (auch Fragmentprogramm) ausführt.

    Pixel-Shader berechnen, im Gegensatz zu Vertex-Shadern, die mit Vertizes (Eckpunkte von dreidimensionalen Objekten) rechnen, mit den Pixeln (Bildpunkten), die gerendert werden. Mit Pixel-Shadern werden hauptsächlich Materialeigenschaften und Texturen verändert.

    Beispielsweise kann hiermit Phong Shading realisiert werden, eine Shading-Variante, bei der Objekte, im Gegensatz zu Gouraud- und Flat Shading), sehr realistisch wirkend beleuchtet werden. Andere Effekte sind zum Beispiel Spiegelungen, Schattierung, Falloff, Lensglow und Lens Flares. Ein Pixelprogramm kann auch von HDR profitieren.

    Pixel-Shader werden ab der GeForce 5-Generation unterstützt.

Quelle: Wikipedia

  • HDR

    Zitat
    Unter High Dynamic Range Rendering (HDRR, oft auch fälschlich HDR) versteht man in der Computergrafik eine Technik, die es erlaubt, in Spielen realistische Überblendungseffekte bei grellen Lichtquellen und ein weites Spektrum der zu sehenden Farben zu erzeugen. HDRR findet in der Unreal-Engine 3 sowie einigen weiteren aktuellen Game-Engines Verwendung, so unterstützt der Ego-Shooter FarCry HDRR ab Version 1.3.

    High Dynamic Range Rendering bezeichnet einen größeren Farbraum, da für jeden der 4 Farbkanäle (rot, grün, blau und Alpha bzw. Transparenz) 32 Bit Information, also insgesamt 128 Bit zur Verfügung stehen (z.B. für Blend-Effekte) statt wie bisher 8 Bit, also 256 Farben je Kanal, was insgesamt 32 Bit Information bedeutet. Somit stehen statt wie bisher 4,3 Milliarden verschiedener Farben mit HDRR über 3,4\cdot1038 verschiedene Farben zur Verfügung.

    Einen ersten Ausblick auf das, was mit HDRR-Effekten eventuell möglich sein wird, bietet die Zusatzkarte "The Lost Coast" für den Ego-Shooter Half-Life 2.

    Allerdings handelt es sich hier höchstwahrscheinlich nicht um "echtes" HDRR, da dieses von aktuellen Grafikkartengenerationen noch nicht unterstützt wird. nVidia bietet zwar mit der GeForce 6- und der GeForce 7-Serie schon eine Genauigkeit von 16 Bit pro Kanal, dies erfüllt jedoch nicht die Anforderungen von HDRR, das ja 32 Bit für jeden Kanal vorschreibt. ATI bietet in der aktuellen Radeon-Reihe weiterhin nur 8 Bit pro Kanal, so dass davon auszugehen ist, dass es sich nicht um echte, sondern um simulierte HDRR-Effekte handelt, da Valve eng mit ATI kooperiert und deshalb davon auszugehen ist, dass "The Lost Coast" wohl auch auf Grafikkarten dieses Herstellers lauffähig sein wird.

Quelle: Wikipedia

[/list]

B Empfehlungen

I Verzeichnis empfehlenswerter Hersteller:

Diese Verzeichnis erhebt absolut keinen Anspruch auf Vollständigkeit. Hersteller wie z.B. Mad-Moxx die sich in erster auf
Modding o.ä. spezialisiert haben und daher nur einen kleinen Kundenkreis ansprechen, werde ich ebenfalls wenn ich mehr
Zeit habe extra zusammenstellen.

nVidia: ASUS, Gainward, Gigabyte, MSI, Pine XFX, PNY, etc.
ATI: HIS, MSI, Saphhire, etc.
Sonstige: 3D Labs, Matrox, etc.

II Welche Karte für welchen Zweck

A) Gamer:

Je nach Anspruch genügen für Strategiespiele, o.ä. z.B. die nVidia 6600GT oder die ATI X1600XT. Wenn es etwas
besser von der Qualität sein soll oder auch mal der ein oder andere Ego-Shooter laufen soll, dann ist eher eine Karte wie die
nVidia 7800GT oder die ATI X1800XL angeraten. Alternativ auch eine nVidia 7800 GTX oder eine ATI X1900XT.
Wer sich eher für die Anspruchsvollen Shooter wie F.E.A.R oder CoD 2 begeistert und auch noch hohe Qualität haben möchte,
der wird um einen nVidia 7800GTX 512MB bzw ATI X1900XTX nicht herumkommen. Diese Karten stellen im Moment das Non-Plus-Ultra
dar. Allerdings hat nVidia mit der 7800GTX 512MB eine noch schnellere Karte im Programm. Bei nVidia bieten etliche Herstellern,
so z.B. Gainward und Pine XFX spezielle Versionen der 7800GT/GTX an. Von vielen Karten findet ihr auch Tests auf Technic 3D. Die schnellste Karte im Augeblick ist von ATI die X1900XTX, dicht gefolgt von der nVidia 7800GTX 512MB.

Inwzischen ist es schwer noch Karten der 6800GT/Ultra-Reihe für AGP zu bekommen. Außerdem werden diese im Vergleich zu den neuen Karten
immer teurer. Auch bei PCIe ist ein 6800Ultra praktisch nicht mehr erhältlich, die 6800GT noch vereinzelt.

B) Professionelle User:

Je nach Bedarf stehen hier verschiedene Möglichkeiten zur Wahl. Für den reinen 2D-Bereich empfehlen sich auf Grund ihrer hohen Bildqualität
und der sehr guten Unterstützung von mehreren Bildschirmen die Karten von Matrox, insbesondere die Parhelia 512, die es in zwischen mit bis zu 512MB
Grafikspeicher gibt. Diese Karte stellt in der prof. Anwendung immer noch die Referenz dar, nicht zuletzt wegen der hervoragenden Unterstützung
durch Treiber und Plug-Ins z.B. für Photoshop, AutoCAD, etc..
Im Bereich der 3D-Anwendungen ist die Auswahl etwas größer. Hier sei besonders die Firma 3D Labs genannt. Einen genauen
Überblick über deren Programm zu geben, würde den Rahmen sprengen, außerdem setzte ich voraus, das ein Anwender der bereit ist weit über 1000€ für eine
Grafikkarte zu investieren, sich mit der Materie vertraut gemacht hat. Karten für prof. 3D-Anwendungen gibt es auch mit Chips von ATI und nVidia, diese Karten
sind mit den gleichen GPUs ausgestattet wie die "Consumer-Karten", verfügen aber über ein anderes BIOS.
Generell ist es natürlich auch möglich mit handelsüblichen Grafikkarten 2D/3D-Anwendungen auszuführen, dies ist besonders für den Laien und den hobbymäßig
interessierten sehr interessant, da diese Karten zum einen preiswert und zum andern auch für andere Anwendungen wie Gaming, usw. geeignet sind.

C) Sonstige Anwendungen:

Für alle weiteren Anwendungen, ist es IMO nicht sonderlich entscheidend, welche Grafikkarte in einem Rechner verbaut wird und in erster Linie der Geldbeutel entscheidend
und natürlich auch die vorgesehene Benutzung. Für einen reinen Office-Rechner sind die Karten nVidia FX6200 und ATI Radeon 9200 wohl erste Wahl oder sogar die noch älteren
Karten wie die nVidai GeForce MX400 oder die Radeon 7000. Für den Home-Rechner, auch dem auch hin und wieder spiele laufen sollen, wäre die nVidia 6800 (GS)  oder die ATi Radeon
X800 GTO/GT.

D) Overclocker/Benchmarker:

Da hierfür immer wieder neue Karten auf den Markt kommen, deren Übertaktbarkeit sich von Produktionswoche zu Produktionswoche der GPUs und RAMs ändert, werde ich hierzu
nichts sagen. Allerdings gibt es von Gainward Karten mit nVida GPUs, die breits ab Werk mit einem Wasserkühler ausgestattet sind und HIS hat ATI-Karten mit dem VGA-Silencer
von ArcticCooling im Programm. Solche Karten sind für Käufer, die Wert auf ihre Garantie legen sehr empfehlenswert.

III Cooling

Da die moderen Karten aller Hersteller über zumeist sehr laute Luftkühler verfügen und solche auch gerne mal kaputt gehen, überlegen viele Käufer, ob sie Ihre Karte nicht mit
einem leiseren Kühler ausstatten sollten. Hierfür gibt es verschieden Möglichkeiten: 1.) Kann man die Karte in eine schon bestehende Wasserkühlung einbinden. Hierfür ist ein
passender VGA-Kühler vonnöten, Hersteller sind z.B. Aquacomputer, Innovatek u.a.. 2.) Kann man die Karte mit einem Luftkühler eines Drittherstellers ausrüsten, z.B. von ArcticCooling,
Zalman, AeroCool, etc.. Bei neueren Karten (~ab FX5900XT/9800pro) sollte man wenn möglich keine passive Lösung mehr verwenden, da die momentan verfügbaren nicht
über die nötige Leistung verfügen. Sollte die Karte natürlich ab Werk mit einem passiven Kühlkörper ausgerüstet sein, dann sieht die Sache wieder anders aus - auch wenn auch hier
durchaus Vorsicht geboten ist, um einem Hitzestau zu vermeiden. ACHTUNG: Bei jedwedem Umbau erlischt die Garantie!!.

Da dieser Beitrag sonst die max. erlaubte Länge sprengt, wird er absofort auf zwei Beiträge aufgetrennt --> klick

Grüße, Faust
« Letzte Änderung: Mittwoch März 08, 2006, 23:24:52 von Faust »

Offline Faust

  • T3D Mitarbeiter
  • Technic3D Insider
  • *
  • Beiträge: 6890
  • Ich bin der Geist der stets verneint
    • Profil anzeigen
Re: Tipps zur Grafikkartenwahl
« Antwort #1 am: Donnerstag Dezember 08, 2005, 11:07:22 »
Fortsetzung:

C Schnittstellen

  • AGP

    Zitat
    Der Accelerated Graphics Port (AGP) ist ein Hochgeschwindigkeits-Bussystem, mit dem Computer-Peripherie mit der Hauptplatine eines Computers verbunden werden kann. Sein Haupteinsatzzweck ist die Beschleunigung von 3D-Computergrafik.

        * 1 Sinn und Zweck
        * 2 Entwicklung
        * 3 Neuere Versionen
        * 4 Inkompatibilitäten
        * 5 AGP als Auslaufmodell

    1) Sinn und Zweck

    AGP benutzt den normalen Arbeitsspeicher (RAM) des PCs, um dort das Monitorbild, Texturen, Z-Buffer-, Alpha Blending- und andere Grafikdaten zu hinterlegen. Der Accelerated Graphics Port stellt ein kohärentes Speichermanagement zur Verfügung, das ein schnelles Lesen von im Speicher verteilten Daten in schnellen "Bursts" ermöglicht. AGP reduziert durch die Benutzung von existierendem Systemspeicher die Kosten für High-End Grafiksysteme. AGP erlaubt auch die effizientere Nutzung des Framebuffer-Speichers und hilft so auch bei der Beschleunigung von 2D-Grafik. Außerdem wird der AGP-Slot auch von einigen RAID-Controllern auf Grund seiner höheren Transferrate als Steckplatz anstelle von PCI benutzt, obwohl er eigentlich nicht dafür gebaut worden ist. Streng genommen ist AGP eigentlich kein Bussystem, da Busse im allgemeinen das Anschließen mehrerer Geräte erlauben, wohingegen der AGP eine Punkt-zu-Punkt-Verbindung darstellt. Es gibt einige wenige Hauptplatinen mit mehreren unabhängigen AGP-Steckplätzen (denen dann jeweils ein eigener Controller auf der Hauptplatine zugeordnet sein muss), im Normalfall ist aber nur ein AGP-Slot vorhanden.

    2) Entwicklung

    AGP wurde von Intel entwickelt, die den Bus 1997 erstmals in einen Chipsatz für ihren Pentium II-Prozessor einbauten. AGP-Karten sind etwas länger als PCI-Erweiterungskarten. Ab 1998 tauchte AGP dann in großem Stil in handelsüblichen PCs auf. Die Einrichtungen auf der Hauptplatine bestehen im wesentlichen aus dem AGP-Steckplatz und der AGP-Bridge, die meistens in der Northbridge des Chipsatzes untergebracht ist. Die Grafikkarte ist auf diese Weise auf dem schnellsten Wege mit der CPU und dem Arbeitsspeicher verbunden, die beide für die Grafikperformance von essentieller Bedeutung sind. Um auch Speicherzugriffe an der CPU vorbei zu ermöglichen (und so für Entlastung des Prozessors zu sorgen), bekommt der AGP vom System-BIOS exklusiv einen bestimmten Speicherbereich im RAM zugewiesen. Dieser Speicher wird in der AGP-Spezifikation AGP-Aperture genannt.

    Die erste Version von AGP, AGP 1x, ist ein 32-bit Bus mit einer Taktrate von 66 MHz bei einer Signalspannung von 1,5 oder 3,3 V. Daraus ergibt sich eine maximale Transferrate von 266 Megabyte pro Sekunde. Ein normaler PCI-Bus (33 MHz) schafft im Vergleich genau die Hälfte, 133 MB/s.
    AGP-Karten für 4x und 8x sind an der zusätzlichen Befestigungsnase hinter den Steckkontakten erkennbar
    vergrößern
    AGP-Karten für 4x und 8x sind an der zus?tzlichen Befestigungsnase hinter den Steckkontakten erkennbar

    3) Neuere Versionen

    Neuere Versionen des AGP steigerten die Transferrate u.a. mittels Double-Data-Rate-Verfahren ("DDR") auf das Zwei- bis Achtfache. Entsprechend gibt es heute neben AGP 1x auch AGP 2x (533 MB/s), AGP 4x (1.066 MB/s) und AGP 8x (2.133 MB/s). Zusätzlich existieren noch sog. AGP Pro-Karten. Deren Kontaktleisten sind etwas länger als die normaler AGP-Karten. AGP Pro versorgt Karten mit höheren Stromstärken, da insbesondere professionelle und semi-professionelle Grafiklösungen immer stromdurstiger werden. Die verschiedenen Versionen sind nicht steckerkompatibel. Die Steckkarten besitzen an verschiedenen Stellen einen Schlitz im Stecker in den der entsprechende Steg auf der Hauptplatinenbuchse passen muss. Bei AGP 2x sitzt der Steg weiter Richtung Rückwand, bei AGP 8x dagegen Richtung innen.


    4) Inkompatibilitäten

    Obwohl durch die Zuordnung der Stege zu den Signalspannungen erreicht werden sollte, dass nur Grafikkarten mit der richtigen Signalspannung in die dazu passenden AGP-Steckplätze gesteckt werden können, haben einige Grafikkartenhersteller Karten mit 3,3 V Spannung auf den Markt gebracht, die trotzdem in Hauptplatinen mit 1,5 V Signalspannung passen. Solche 3,3 V-Grafikkarten sind daran zu erkennen, dass die AGP-Anschlussleiste - ähnlich wie in dem Bild oben - 2 Schlitze aufweist (und damit auch in AGP 1,5 V-Steckplätze passt).

    Falls man einen solchermaßen bestückten Computer in Betrieb nimmt, wird mit großer Wahrscheinlichkeit dessen Hauptplatine innerhalb von einigen Sekunden zerstört, da ein oder mehrere Komponenten auf der Platine die erhöhte Spannung nicht verkraften.

    Umgekehrt können AGP-Grafikkarten mit 1,5 V Signalspannung, deren Anschlussleiste ebenfalls 2 Schlitze aufweist, oft noch auf älteren Hauptplatinen arbeiten. Genaue Spezifikationen werden von den Herstellern der Grafikkarten veröffentlicht.

    5) AGP als Auslaufmodell

    Mit der neuesten Version AGP 8x ist diese Technik zu Ende entwickelt, da sich auf Grund von Timing-Problemen bei hohen Taktungen, die durch die parallele Datenübertragung entstehen und dem dadurch zunehmend komplizierter werdenden Platinendesign die Geschwindigkeit nicht weiter steigern lässt. Dazu kommt noch, dass heutige Grafikkarten über so viel eigenen Speicher verfügen, dass sie nur noch verhältnismäßig selten auf System-RAM zugreifen müssen. Im Vergleich zu Video-RAM ist der Arbeitsspeicher des PCs relativ langsam. AGP war als schnelle Punkt-zu-Punkt-Verbindung zum Arbeitsspeicher sinnvoll, so lange schnelles VRAM auf der Grafikkarte übermäßig teuer war, was heute nicht mehr der Fall ist.

    Ab etwa 2005 sollen neue Hauptplatinen keine Unterstützung für AGP mehr haben, und stattdessen PCI-Express verwenden. Entsprechende Chipsätze sind bereits fertig und sind zusammen mit entsprechenden Grafikkarten seit Mitte des Jahres 2004 auf den Markt - Die Grafikkartenhersteller übernehmen hier zurzeit die Führungsrolle.

Quelle: Wikipedia

  • PCIe

    Zitat
    PCI-Express (Abk. PCIe od. PCI-E) ist der Nachfolger von PCI und AGP und bietet eine höhere Datenübertragungsrate.

    PCIe ist im Gegensatz zum PCI-Bus kein paralleler Bus, sondern eine serielle Punkt-zu-Punkt-Verbindung. Die Datenübertragung erfolgt über sogenannte Lanes, wobei jede Lane aus einem Leitungspaar für das Senden und einem zweiten Paar für das Empfangen besteht. Einzelne Komponenten werden über Switches verbunden...

    PCIe ist vollduplexfähig und arbeitet mit einer Taktrate von 1,25GHz DDR. Daraus berechnet sich die Datenrate einer Lane (nach 8B/10B-Kodierung) zu max. 250MByte/s (= 238 MiByte/s) pro Richtung (Zum Vergleich: der Standard-PCI Bus mit 32-Bit Busbreite bei 33 MHz erreicht nur maximal 133 MByte/s). In der Praxis erreicht man Raten von über 240 MByte/s bei langen Datentransfers. Verwendet man nur eine Lane, spricht man von PCIe x1. Durch Koppelung mehrerer Lanes kann man die Datenrate erhöhen, etwa x2 mit 2 Lanes bis zu x32 mit 32 Lanes. Die PCI-SIG (Special Interest Group) plant darüberhinaus zukünftig auch Versionen mit 500 und 1000 MByte/s pro Lane.

    Im Consumerbereich wird PCIe x1 als Ersatz für den PCI-Bus und PCIe x16 zur Anbindung einer Grafikkarte verwendet, was somit auch den AGP überflüssig macht. Im Serverbereich wird es darüberhinaus noch die Varianten x2, x4, x8, x16 und x32 geben. Die Slots sind außerdem abwärts kompatibel, d.h. eine x4 Karte kann z.B. auch in einen x8 Slot gesteckt werden, die überzähligen vier Lanes werden dann nicht genutzt. Umgekehrt ist dies momentan nur bei SLI üblich. Denn obwohl die Slots für die Grafikkarten die Größe von 16x Slots haben, werden beim Einsatz von zwei Grafikkarten die 16 Lanes auf beide Slots verteilt, was dann nur noch 8 Lanes pro Karte ergibt.

    PCIe ist des Weiteren Hot-Plug-fähig, was das Ein- und Ausbauen von (defekten) Erweiterungskarten im laufendem Betrieb ermöglicht - ein Feature, das im Serverbereich gesucht ist.

    Derzeit (2005) erhältliche Mainboards mit PCI-Express unterstützen maximal 20 Lanes - in der Regel aufgeteilt in einen 16x-Slot für die Grafikkarte und vier 1x Slots für Erweiterungskarten. Bei Verwendung von zwei gekoppelten Grafikkarten mit Nvidias SLI-Technologie sind statt des 16x-Slots zwei 8x-Slots auf dem Mainboard nötig. Neu dazu kamen nun 38 bzw. 40 Lanes.

Quelle: Wikipedia

Grüße
« Letzte Änderung: Mittwoch März 08, 2006, 23:12:34 von Faust »

Offline Faust

  • T3D Mitarbeiter
  • Technic3D Insider
  • *
  • Beiträge: 6890
  • Ich bin der Geist der stets verneint
    • Profil anzeigen
Re: Tipps zur Grafikkartenwahl
« Antwort #2 am: Donnerstag Dezember 08, 2005, 11:07:57 »
Ich bedanke mich für neue Anregungen und Verbesserungsvorschläge bei:

  • hungriger hugo
  • Overl0ad
  • cl4w
  • ...


Sollte sich jemand, der mir auch einen Tipp gegeben hat, nicht auf der Liste wiederfinden, dann bitte P.M. ;)...ich bin
auch nur ein Mensch :ja:

Grüße
« Letzte Änderung: Freitag Februar 10, 2006, 22:00:10 von zappa »

Offline Faust

  • T3D Mitarbeiter
  • Technic3D Insider
  • *
  • Beiträge: 6890
  • Ich bin der Geist der stets verneint
    • Profil anzeigen
Re: Tipps zur Grafikkartenwahl
« Antwort #3 am: Donnerstag Dezember 08, 2005, 11:08:23 »
Überarbeitet am 05.01.2006

Grüße
« Letzte Änderung: Freitag Februar 10, 2006, 22:00:33 von zappa »