Meilensteine in der Entwicklung moderner Grafikkarten

Grafikkarten haben in den vergangenen Jahren eine rasante Entwicklung durchlebt. Von der einfachen ISA-Karte mit 64 Kilobyte Speicher bis hin zu modernen 3D-Beschleunigern mit Unterstützung für DirectX 11 war es trotzdem ein weiter Weg. Angesichts großartiger 3D-Grafiken ist es aus heutiger Sicht kaum denkbar, dass die ersten 3D-Karten von den Anwendern nur wenig akzeptiert wurden. Und auch von der Herstellervielfalt der späteren Jahre ist nicht mehr viel übrig geblieben.

Pionierarbeit – die ersten 3D-Grafikkarten

Bevor 3D-Beschleunigung bei den Grafikkarten Einzug erhalten konnte, wurde der Wert vieler Karten anhand der maximal möglichen Auflösung und der darzustellenden Farbvielfalt gemessen. So ging die Entwicklung von Modellen für monochrome Darstellungen wie den einst berühmten Hercules-Grafikkarten über vierfarbige Modelle nach dem CGA-Standard. Eine Weiterenticklung war EGA mit 16 gleichzeitig darstellbaren Farben.

Genoa Spectra EGA Model 4800 von 1985

Genoa Spectra EGA Model 4800 von 1985

Einen Quantensprung machte die PC-Grafik mit den VGA-Grafikkarten – in der für viele Spiele genutzten Auflösung 320×200 stellte eine VGA-Karte ganze 256 Farben aus einer Palette von 262144 Farben. Teilweise wurden Spiele sogar in 640×480 Pixeln dargestellt, dann allerdings mit nur 16 gleichzeitig verfügbaren Farben. Mit Super-VGA wuchs neben der Auflösung auch die Farbpalette, 64000 gleichzeitig dargestellte Farben aus einer Palette von etwa 16 Millionen Farben galten für eine beachtliche Zeit als Krone der Grafiktechnologie. Erste Versuche die von Microsoft beworbene Windows-Oberfläche zu beschleunigen, fanden jedoch auch damals schon Interesse bei den Anwendern. Die ersten Grundlagen für spezielle Hardwarebeschleunigungen legten daher die Windows-Beschleuniger von S3. Das im Jahr 1991 vorgestellte Modell 911 verfügte als eine der ersten Grafikkarten über 2D-Beschleunigungsfunktionen und konnte beispielsweise geometrische Figuren schneller berechnen als andere Modelle.

In vielen Rechnern aus der Zeit um 1996 herum dürften sich ebenfalls Grafikkarten von S3 befunden haben. Eine der seinerzeit am meisten verbauten Karten waren die S3 Trio und ihr Nachfolger S3 Virge. Mit der Virge zog zudem erstmals 3D-Beschleunigung in den Grafikchip ein. Anstelle einer Beschleunigung erlebten die Käufer dieser Karten allerdings eher eine “Entschleunigung”. Der Grafikchip beherrschte zwar nur einige rudimentäre 3D-Funktionen. Dennoch brach die Geschwindigkeit bei aktivierter bilinearer Filterung massiv ein so dass die Berechnung auf der CPU schneller war und kaum schlechter aussah. Dabei war es besonders die bilineare Filterung, die erste 3D-beschleunigte Spiele grafisch von den unbeschleunigten Spielen abhob. Ebenso unbeliebt und vergleichbar langsam rechneten Grafikkarten mit ATIs Rage-Chip. Die 3D-Pioniere hatten es daher nicht einfach. Fachzeitschriften schrieben die 3D-Beschleunigung bereits ab, Käufer der teuren Virge-Grafikkarten wurden belächelt. Doch dann erschien eine Grafikkarte, die 3D-Geschichte schreiben sollte: Das kleine Unternehmen 3dfx stellt mit der Voodoo Graphics den ersten massentauglichen 3D-Beschleuniger vor. Allerdings wurde zusätzlich zur Voodoo Graphics noch zwingend eine 2D-Grafikkarte benötigt, die 3dfx-Karte übernahm die Arbeit ausschließlich bei 3D-Anwendungen. 3dfx Voodoo Banshee Die Leistung der Voodoo-Karten fiel für damalige Verhältnisse sehr beeindruckend aus: Aktuelle Spiele erstrahlten in einem zuvor nie gesehenen Glanz. Da die Beschleunigerkarten der CPU sehr viel Arbeit abnehmen konnten, konnte Spiele sogar mit vergleichsweise schwachen Prozessoren flüssig dargestellt werden. Konkurrierende Karten von ATI oder Matrox konnten mit der Voodoo Graphics weder im Funktionsumfang noch bei der Spieleunterstützung mithalten. Matrox gelang es allerdings, mit der Mystique einen sehr beliebten 2D-Unterbau für die Voodoo-Graphics zu entwickeln – der Mystique fehlte es zwar an wichtigen 3D-Features, dafür war die 2D-Bildqualität und auch -Geschwindigkeit überzeugend. Mit Glide entwickelte 3dfx letztlich eine hardwarenahe Programmierschnittstelle für die hauseigenen Grafikkarten. Der 3dfx-Modus wurde zum Markenzeichen einer ganzen Spiele-Generation. Und Spiele wie Unreal wollte plötzlich niemand mehr ohne Voodoo-Karte spielen.

Rasante Weiterentwicklung nach 1997

Im Jahre 1997 betritt ein Hersteller den Markt für 3D-Grafikkarten, von dem zuvor kaum jemand gehört hatte. Nvidias erster Versuch in diesem Segment Fuß zu fassen war ein Flopp, der NV1 genannte Chip rechnete auf zu exotische Weise. Die Entwicklung des NV2 war ursprünglich zum Einsatz in einer Spielekonsole von Sega begonnen, dann aber wieder erfolglos abgebrochen. Erst der NV3 rückte das amerikanische Unternehmen Nvidia ins Rampenlicht. Unter dem Namen Riva128 erschien eine kombinierte 2D/3D-Grafikkarte mit modernsten Beschleunigungsfunktionen und vollem Support für Microsofts noch neue Grafikschnittstelle DirectX5. Die Dominanz der Voodoo-Karten ließ sich jedoch nicht so schnell brechen. Auch wenn der Riva128 nicht zuletzt seines mit 128 Bit Bandbreite sehr großzügig angelegtem Speicherinterface theoretisch 80 Prozent mehr Leistung bringen könnte wie die Voodoo Graphics – viele Spiele erschienen in einer speziellen Glide-Fassung und wurden nicht für die Nvidia-Karte optimiert. Bei Titeln ohne OpenGL- oder DirectX5-Support lagen die Fähigkeiten der Riva128 daher brach. Ein Jahr später erschien zudem eine neue Voodoo-Karte, die Voodoo 2. 3dfx verdoppelte dabei die Recheneinheiten und den verfügbaren Speicher, auch die Taktrate des Chips wurde von 50 auf 90 MHz erhöht. Zudem integrierten die Techniker von 3dfx eine Funktion namens SLI zum Zusammenschluss zweiter Grafikkarten. Ein SLI-Paar aus zwei Voodoo2-Grafikkarten beherrschte auch die seinerzeit noch ungewöhnlich hohe Auflösung von 1024×768 Bildpunkten. Spiele wie Quake erstrahlten plötzlich in neuem Glanze.

3dfx Vodoo 2

3dfx Vodoo 2

Nvidia konterte mit dem RivaTNT und erhöhte den Speicherausbau auf 16 Megabyte. Allerdings erreichte die TNT weder die Geschwindigkeit noch die Popularität der Voodoo2. Da dennoch viele PC-Nutzer nur eine Grafikkarte mit allen nötigen Funktionen hätten anstatt für 2D und 3D getrennte Karten einsetzen zu müssen, entwickelte 3dfx den Voodoo Banshee. Diese Karten waren allerdings deutlich langsamer als die Voodoo2 und zudem nicht vollkommen kompatibel zu Spielen für die Voodoo Graphics – ein Ladenhüter. Weniger Mühe hatte zu dieser Zeit ATI mit der Vermarktung der hauseigenen Rage-Grafikkarten. Die Rage 128 hatte aufgrund von Treiberproblemen zwar keinen guten Ruf in der PC-Gemeinde, allerdings wurden entsprechende Karten preisgünstig vor allem an OEM-PC-Hersteller verkauft. In Komplettrechnern dieser Zeit fanden sich daher so gut wie nie Voodoo-Grafikkarten sondern eher Modelle mit Rage 128 oder Riva TNT. Die Kombination von schneller 3D-Grafik und einem guten 2D-Part beherrschte die Konkurrenz von 3dfx perfekt. Die Voodoo-Erfinder mussten daher mit einem eigenen Kombichip aufwarten – im Jahre 1999 war es soweit. Die Voodoo 3 3500 brachte die Leistung eines SLI-Verbundes aus zwei Voodoo2-Grafikkarten auf den Bildschirm und benötigte keine separate 2D-Grafikkarte mehr. In der Zwischenzeit ging von Nvidia allerdings eine größere Werbekampagne zur Nutzung des 32-Bit-Farbmodus aus, eine Funktion, die die hauseigenen Riva-Grafikkarten dank schnellem Speicherinterface gut beherrschten. 3dfx bot hingegen keinerlei Unterstützung für diesen Grafikmodus, maximal 22 Bit Farbtiefe waren mit der Voodoo 3 möglich. Neben ATIs neuer Rage 128 Pro und dem weiter überarbeiteten Riva TNT 2 geriet 3dfx daher langsam in Zugzwang. Microsofts DirectX-Schnittstelle setzte sich zudem immer stärker durch, Glide als idealer Partner von 3dfx-Karten wurde kaum noch unterstützt. Eines der letzten großen Spiele mit starker Optimierung für Voodoo-Karten war Ultima IX aus der Hand von Richard Garriott.

Auch S3 entwickelte noch Grafikchips, der S3 Savage 3D erwies sich allerdings als zu langsam. Große Hoffnungen wurden allerdings in den Nachfolger S3 Savage 2000 gesteckt. Dieser Chip sollte als erster Grafikchip überhaupt Funktionen zur Polygontransformation und zur Lichtberechnung fest in Hardware verdrahtet ausführen können und so der CPU weitere Arbeit bei 3D-Grafiken abnehmen. Der Chip erwies sich jedoch als Fehlkonstruktion, die T&L-Funktionen als unbrauchbar langsam.

Diamond MultiMedia ViperII Z200 Savage2000

Diamond MultiMedia ViperII Z200 Savage2000

Die Wende im 3D-Markt brachte letzten Endes Nvidia mit der Geforce 256. Auch diese Karte litt unter einem Manko – der Grafikspeicher war zu langsam für die aufwändigen Funktionen des Grafkchips. Etwas später folgte daher die Geforce 256 DDR mit für damalige Verhältnisse revolutionär schnellem Double-Data-Rate-Speicher.

Bahnbrechend: Transform & Lighting

Hardware T&L läutete eine neue Ära in der 3D-Beschleunigung ein. Zum einen setzte sich mit DirectX7 eine für T&L vorbereitete 3D-Schnittstelle durch. Zum anderen entwickelten sich die Grafikprozessoren immer mehr zum Alleskönner. Nvidia nutzte die Popularität und ließ in schneller Abfolge weitere Karten wie die Geforce 2, Geforce 2 Pro und Geforce 2 Ultra folgen. Der Sprung in den Massenmarkt gelang jedoch mit einem preisgünstig angebotenem Modell – der Geforce 2 MX, einer günstigen Karte, die auf dem Niveau der Geforce 256 DDR rechnete. T&L war plötzlich erschwinglich geworden, die größere Verbreitung entsprechender Grafikkarten sorgte für eine wahre Schwemme interessanter Spiele mit T&L-Support.

NVidia GeForce2 MX400

NVidia GeForce2 MX400

Und auch ATI schloss zur Geforce2-Riege auf, die Radeon 7500 brachte erstaunlich hohe Frameraten auf den Bildschirm, litt aber noch unter einigen Treiberproblemen. Im Jahre 2000 musste nach einigen Verzögerungen bei der Entwicklung eines neuen Grafikchips Nvidias Hauptkonkurrent 3dfx schließen. Die Voodoo 5 6000 mit insgesamt vier Grafikchips hätte selbst mit den Topmodellen der Konkurrenz mithalten können, die Karte kam allerdings nie regulär auf den Markt. Die wenigen ausgelieferten Modelle gelten als begehrte Sammlerstücke. Zudem integrierte 3dfx eine beeindruckende Kantenglättungstechnik. Das Know-How war jedoch nicht verloren, Nvidia kaufte die Reste von 3dfx für eine sehr geringe Summe und übernahm unter anderem die Rechte an SLI. Später wird Nvidia den Begriff SLI selbst nutzen – allerdings hat das Nvidia-SLI mit dem von 3dfx technisch nichts mehr zu tun. Fest verdrahtete T&L-Funktionen ermöglichten zwar bereits optisch recht fortgeschrittene Spiele, die Programmierer wünschten sich allerdings mehr Freiheit bei der Entwicklung. Mit der Geforce 3 erschien die erste Grafikkarte mit flexibel einsetzbaren Shadereinheiten, grob vergleichbar mit den noch heute genutzten Shadern. Auch ATI konnte technisch aufholen, die ATI Radeon 8500 bot viele Features der Geforce 3 und war bei einigen Anwendungsbereichen sogar etwas schneller. Die hochintegrierten All-In-Wonder-Modelle mit ATI-Grafikchips integrierten zudem einen vollwertigen TV-Tuner für analoges Fernsehen und machten aus der Grafikkarte ein Multimedia-Komplettpaket inklusive Fernbedienung. Allerdings gab es immer wieder Spiele wie beispielsweise Dungeon Siege, die der ATI-Hardware nicht lagen – flimmerten mit einer Geforce 3 noch ansehnlich hohe Frameraten über den Röhrenbildschirm, brachen die ATI-Modelle teils dramatisch ein. Um der kanadischen Konkurrenz das Wasser abzugraben, spaltete Nvidia die Geforce3-Serie in weitere Modelle auf – es entstanden die etwas langsamere Geforce 3 TI 200 und die schnellere Geforce 3 TI 500. Das TI-Kürzel nutzte Nvidia auch bei der Nachfolge-Generation, der Geforce 4. Das wohl beliebteste Grafikkartenmodell dieser Ära war die Geforce 4 TI 4200 – ein vergleichsweise niedriger Preis und eine extrem hohe Grafikleistung sprachen für sich. Mit der Geforce 4 TI 4600 und später dem für AGP 8x optimierten Modell Geforce 4 TI 4800 konnte Nvidia zudem die Leistungskrone für eine längere Zeit an sich reißen. Im Hintergrund entwickelte man allerdings bereits an einer komplett neuen GPU-Architektur, der CineFX-Engine für DirectX9. Bei ATI folgte kein direkter Konkurrent zur Geforce 4, allerdings versuchte man die Vorteile der Radeon 8500 herauszustellen. Eine Funktion namens TruForm konnte beispielsweise wenig detailreiche Polygonmodelle hardwareseitig um zusätzliche Polygone erweitern – Grafikkarten mit TruFrom war so in der Lage bei angepassten Spielen die ansonsten sehr eckigen Spielfiguren runder erscheinen zu lassen. Und auch wenn sich TruForm in der damaligen Zeit nicht durchsetzen konnte, in modernen DX11-Grafikkarten findet sich eine ähnlich aufgebaute Funktion namens Tesselation. Doch auch ATIs Ingenieure arbeiteten bereits fieberhaft an neuen Grafikkartenmodellen mit DX9-Support. Was zu dieser Zeit noch niemand ahnte: ATI sollte mit der Radeon 9700 ein Glücksgriff gelingen, wie er bei der GPU-Entwicklung nur selten stattfindet.

Grafikrevolution dank DirectX9

Das Jahr 2002 war für PC-Spieler ein sehr bedeutendes. Microsoft veröffentlichte mit DirectX9 eine aktuelle Version der Multimediaschnittstelle und erweiterte damit die Möglichkeiten des Shadercodes massiv. Nvidia arbeitete noch unter Hochdruck an der fünften Version der Geforce-Grafikkarten und zog mit der Geforce 4 MX den Zorn der Spieler auf sich. War die Geforce 4 TI dank hoher Geschwindigkeit und guter DX8-Unterstützung sehr beliebt bei den Spielern, erwies sich die Geforce 4 MX als Enttäuschung. Im Prinzip stellte die MX nur eine überarbeitete Geforce 2 dar, weder die Geschwindigkeit konnte überzeugen noch waren DX8-Effekte möglich. Und auch Matrox enttäuschte mit einem laut Datenblatt überzeugendem Chip – die Matrox Parhelia hätte laut den technischen Spezifikationen alle damals aktuellen Karten schlagen müssen. Ein 512 Bit breites Speicherinterface, ein beeindruckendes Kantenglättungsverfahren sowie moderne Funktionen wie Displacement Mapping ließen die Fachpresse euphorisch nach Luft schnappen. Nur um dann nach dem Release der Karte enttäuscht auszuatmen: Die Leistung der Parhelia lag nur auf dem Niveau der Geforce 4 TI 4200, viele Sonderfunktionen waren nur für Officeanwendungen vorgesehen. Nach einigen grundsoliden aber nicht überragenden Grafikchips hätte seinerzeit kaum jemand mit einer Grafikrevolution aus dem Hause ATI gerechnet. Mit dem R300 respektive der darauf basierenden Radeon 9700 gelang ATI jedoch das unerwartete – mehr als 100 Millionen Transistoren sorgten für beeindruckende DX9-Performance. Auch der Speicher war dank des 256 Bit breiten Speicherinterfaces kein Flaschenhals, so dass auch Kantenglättung ohne große Performanceverluste zuschaltbar war. Zudem bewarb Valve das sich seinerzeit in Entwicklung befindliche Half Life 2 stark mit den neuen ATI-Karten. Half Life 2 sollte als einer der ersten Titel massiven Gebrauch von DirectX9 machen. Einigen Versionen der Radeon 9700 lag zudem ein Downloadgutschein für die Steam-Version von Half Life 2 bei.

Doch nicht nur die Luxusklasse wurde mit einer schnellen Karte bedacht. Mit der Radeon 9500 erschien zudem ein interessantes Mittelklassemodell: Dank eines Tricks ließen sich einige dieser Karten problemlos in vollwertige Radeon 9700 verwandeln. Erst im Frühjahr des folgenden Jahres präsentierte Nvidia einen Konkurrenten zu ATIs Überfliegern. Die Geforce FX sollte mit einer komplett neu gestalteten Architektur und vielen technischen Neuerungen auftrumpfen. Allerdings ist den meisten Käufern der Geforce 5800 Ultra mitnichten die beeindruckende Grafik im Gedächnis geblieben sondern eher der extrem störende Lärmpegel des Kühlsystems. Begriffe wie “Staubsauger” oder “Fön” machten die Runde und lagen angesichts der Lärmentwicklung erschreckend nahe bei der Wahrheit. Zudem hatte Nvidia die GPU auf eine hohe Genauigkeit (FP32) getrimmt, wohl in der Hoffnung, die technische Entwicklung mit der Karte vorgeben zu können. So gut wie alle verfügbaren Spiele rechneten jedoch mit FP16-Werten, bei denen die Architektur der Geforce FX stark an Leistung verlor. ATI legte zudem mit der Radeon 9800 Pro nach. Beeindruckende Shader-Wasserflächen wie bei The Elder Scrolls: Morrowind sowie aufwändige Tiefenunschärfeeffekte bei Tomb Raider Angel of Darkness sorgten für weitere Verbreitung der modernen Grafikkarten. Zumindest der Karten von ATI – Tomb Raider lief mit der Geforce 5800 Ultra in hohen Details nicht ausreichend schnell während selbst ATIs Mittelklasse das Spiel flüssig beschleunigte.

Erst im Sommer 2003 konnte Nvidia mit der überarbeiteten Geforce 5900 und vor allem der recht preiswert angebotenen Geforce 5900 XT zu ATI aufschließen. Dennoch blieben die GPUs des kanadischen Herstellers bei jedem DX9-Spiel schneller als die der Kalifornier. Nvidia ließ die Techniker in den folgenden Monaten wohl des öfteren Überstunden schieben – mit der Geforce 6×00 erschien jedenfalls ein Jahr später endlich eine zeitgemäße GPU die sich sogar im Funktionsumfang von den ATI-Modellen abheben konnte. Nvidia setzte bei der Geforce 6000 auf die Funktionen des überarbeiteten DirectX9. Neben dem mit DX9 eingeführten Shadermodel 2 kam mit DirectX9c das leistungsfähigere Shadermodel 3 hinzu. Neben den bereits bekannten Shaderbefehlen waren nun auch HDR-Lichteffekte (High Dynamic Range) möglich um die Ausleuchtung in Spielen zu verbessern. Mit The Elder Scrolls: Oblivion erschien ein wundervoll gestaltetes Rollenspiel mit anspruchsvoller DX9c-Grafik. Tritt der Spieler hier aus einer dunklen Höhle heraus in den Sonnenschein, überblenden die Sonnenstrahlen die nächsten Sekunden. Vor allem die Geforce 6800 Ultra erwies sich mit ihren 16 Pixelpipelines und 6 Vertexshadern sowie einem 256 Bit breiten Speicherinterface für modernes GDDR3-RAM als extrem schnelle Highend-Grafikkarte. Solide aber ausreichend schnelle Mittelklasse-Performance lieferte die vergleichsweise preiswerte Geforce 6600 GT, im großen und ganzen eine halbierte 6800 Ultra.

ATI überarbeitete das Design der Radeon 9800 Pro hingegen nur unwesentlich. Die X800-Serie war daher nicht für Shadermodel 3 vorbereitet. Auch wenn die Leistung vor allem der Topmodelle namens X800XT-PE durchaus konkurrenzfähig zu Nvidias 6800 Ultra war, griffen viele Spieler lieber zur technisch fortschrittlicheren Karte. Einzig beim damals anstehenden Wechsel von AGP zu PCI-Express zeigte sich ATI zeitgemäß. Trotz höherer Bandbreiten auf dem Grafiksteckplatz beschleunigte PCIe selbst schnelle Highendkarten nicht. PCIe ermöglichte es den beiden Herstellern allerdings mehrere Steckplätze gleichzeitig mit Grafikkarten zu bestücken um die gekoppelten Karten mit höherer Leistung gekoppelt rechnen zu lassen. Bei Nvidia zog für diesen Zweck das bereits bekannte Kürzel SLI ein, ATI nannte die eigene Implementierung Crossfire. Zeitgleich mit der Crossfire-Technik stellte ATI zudem eine überarbeitete Version der X800 namens X850 vor, allerdings fehlte auch hier das SM3. Mittlerweile war die Unterstützung für SM3 sogar in Spiele wie das einige Zeit zuvor erschienene Far Cry eingezogen und sorgte für beeindruckende Lichtspielereien.

Nvidia konterte mit der erfolgreichen Geforce 7800 GTX und erhöhte die Menge der Pixelpipelines auf 24. Die Leistung der auf der Geforce 6 basierenden 7000er-Karten war aufgrund einiger interner Verbesserungen recht beeindruckend so dass auch ATIs neue X1800 nicht mithalten konnte. Immerhin implementierte ATI bei der X1800 endlich auch das Shadermodel 3.0 und erhöhte den Speicherausbau auf 512 MB. Erst Jahre später zeigten sich die Vorteile von ATIs GPU-Architektur: Moderne shaderlastige Spiele laufen mit einer X1800 deutlich schneller als mit einer Geforce 7800. Vor allem die wiederum überarbeitete X1950 Pro erwies sich als Glücksgriff und fand als leise zu kühlende und trotzdem schnelle Karte Einzug in viele Computer. Doch Nvidia blieb nicht untätig, der Wettstreit um die modernste Grafikkarte war noch lange nicht beendet.

Das DirectX10-Zeitalter

Microsoft veröffentlicht nach vielen Jahren einen Nachfolger zu Windows XP und wirbt mit einer neuen Grafikschnittstelle namens DirectX10. Beeindruckende Spielewelten sollen entsprechende Grafikkarten auf den Bildschirm zaubern. Doch vorerst war von neuen Spielen in Kinoqualität nichts zu sehen. Allerdings erschien mit der Geforce 8 ein komplett neu designtes GPU-Modell von Nvidia und erregte in Fachkreisen großes Aufsehen. Die bisher vorgenommene Trennung von Pixelshadern und Vertexshadern wurde zugunsten einer einheitlichen Shaderarchitektur aufgegeben (Unified Shader), die Einheiten ließen sich nun deutlich effizienter ausnutzen. Zudem bekamen die Shadereinheiten von Nvidia einen eigenen Taktbereich und liefen nun doppelt so schnell wie der Rest der Karte. Glücklicherweise hat man bei Nvidia auch die Geschwindigkeit unter DX9 nicht vergessen, auch ältere Spiele liefen mit einer Geforce 8800 extrem schnell und in einer bislang ungeahnten Bildqualität. Die Vorteile von DirectX10 hingegen blieben, abgesehen von einigen Grafikdemos, vorerst unerschlossen. Das stark verspätet von der XBox auf den PC portierte Halo 2 setzte zwar DX10 und Windows Vista voraus, lief mit einigen Tricks aber auch unter DX9 und mit Windows XP. DX10-Effekte gab es allerdings auch unter Vista keine zu sehen. Zudem erwies sich Windows Vista als unbeliebtes und langsames Betriebssystem, viele Leute blieben ihrem XP treu und konnten somit kein DX10 nutzen. Selbst grafische Blockbuster wie das 2007 erschienene Crysis boten zwar einen DX10-Modus, unter DirectX9 sah das Spiel jedoch kaum schlechter aus, lief aber deutlich schneller. ATI tat sich mit der Konkurrenz durch die Geforce 8800 lange Zeit sehr schwer. Die verspätet erschienene HD2000-Reihe erwies sich als Fehlschlag, vor allem das Topmodell HD2900XT wurde als lauter Stromfresser mit bescheidener Leistung bekannt. Selbst das mit 512 Bit sehr leistungsstarke Speicherinterface sorgte nicht für Leistung, vor allem mit Kantenglättung war an flüssiges Spielen mit diesen Karten nur selten zu denken. Zumindest den Energiehunger und damit auch die hohe Lautstärke konnte ATI mit der HD3000 verbessern, die mangelhafte Leistung vor allem mit Kantenglättung blieb aber weiterhin der größte Kritikpunkt. Nvidia überarbeitete den G90-Chip der Geforce 8800 währenddessen und brachte mit dem G92 eine im Detail verbesserte Version der GPU auf den Markt. Die Geforce 8800GT erwies sich in den folgenden Jahren als absoluter Glücksgriff für Nvidia. So sehr, dass der Hersteller die gleiche GPU sogar zwei komplette Generationen später immer noch nutzte: Der G92 fand sich sowohl auf der Geforce 9800GT als auch auf der 9800GTX und der GTS 250. Mangels Druck durch ATI konnte Nvidia zu dieser Zeit eh relativ ungestört schalten und walten. Erst die Radeon 4000-Reihe erwies sich als ernsthafte Konkurrenz zur bereits mehrfach aufgewärmten und umbenannten Geforce 8800GT. Vor allem die preislich sehr interessante Radeon HD 4850 sorgte für neu gemischte Karten im Grafiksegment. Auch Nvidias neu entwickelte Geforce GTX260 wurde von ATI sehr stark unter Druck gesetzt. Nvidia musste letzten Endes sogar die Zahl der Shadereinheiten dieser Karten von 192 auf 216 erhöhen, um weiterhin mit ATI mithalten zu können. Zudem unterstützten die 4000er-ATIs das etwas modernere DX10.1, allerdings fehlte hier die Unterstützung durch Spielehersteller. Ubisofts Assassins Creed kam zwar ursprünglich mit einem DX10.1-Modus auf den Markt, dieser wurde allerdings schnell wieder entfernt.

Fast schon heimlich und größtenteils unbemerkt schmuggelte ATI zudem mit der Radeon HD 4770 eine in einem neuartigen Fertigungsverfahren hergestellte Karte ins Sortiment. Mittlerweile von AMD geschluckt testet man so das neue 40nm-Fertigungsverfahren und legte wichtige Steine für den Weg zu den ersten Grafikkarten mit DirectX11.

Multitalente mit DirectX11

Bereits mit der Geforce 8 hat Nvidia die Möglichkeit der freien Programmierbarkeit der GPU eingeführt. Unter dem Namen CUDA werden fortan sowohl die Recheneinheiten der Geforce-Karten bezeichnet als auch die Programmierschnittstelle zu den Einheiten. Erstmals sind aufwändige Berechnungen abseits der Grafikerstellung auch auf einem Grafikchip möglich – besonders stark parallelisierbare Aufgaben wie Videokonvertierungen laufen so um ein vielfaches schneller als auf einer CPU. Mit DirectX11 zieht diese Funktionalität in Form von Direct Compute direkt in die Windows-Schnittstelle ein, so dass sich moderne DX11-GPUs bei entsprechender Programmierung deutlich flexibler einsetzen lassen als zuvor. Das Rennen um die erste DirectX11-Grafikkarte gewann AMD/ATI mit den Karten aus der Serie Radeon HD 5000. Die bereits mit der HD 4770 erprobte 40nm-Fertigung sorgte dabei für leicht zu kühlende und schnelle Grafikkarten. Nvidia hingegen schien mit DX11 kein Glück zu haben – eventuell stimmt die Therie ja doch, dass ATI bei ungeraden DX-Versionen punkten kann und NVidia nur bei geraden? Die unter dem Codenamen Fermi entwickelten DX11-Karten von Nvidia verzögerten sich und erwiesen sich nach dem Start als extrem laut und zu energiehungrig. Erinnerungen an die glücklosen Geforce 5800 wurden wach – doch bei Nvidia hatte man hinzu gelernt. Bereits eine Revision später wurde der Energiehunger der Karten gebändigt und mit der Geforce GTX460 erschien eine beeindruckende Mittelklassegrafikkarte mit hohen Leistungsreserven. Übertaktete Modelle schlugen später selbst AMDs dezent überarbeitete Radeon HD6800. Verwirrend war hingegen die Namensgebung der neuen AMD-Karten. Die HD6850 wurde als Gegenspieler zur sehr beliebten Radeon HD5770 platziert, der Name jedoch suggerierte eine Nachfolge der schnelleren Radeon HD 5850. Diese Karte bekam erst mit der HD 6950 einen schnelleren Nachfolger. Interessant: Erst die HD 6950 und HD 6970 nutzten eine neue und effizientere Systemarchitektur, die kleineren Karten der Serie arbeiteten weiterhin mit der alten Architektur.

Seit der Einführung von CUDA, ATI Stream und Direct Compute sind Grafikkarten nicht mehr nur reine Pixelkünstler. Mittlerweile rechnen mehrere hundert Recheneinheiten mit hoher Geschwindigkeit in einer modernen GPU, Leistung die auch für andere Aufgaben bereit steht. Vor allem Nvidia treibt bereits seit einiger Zeit die professionelle Nutzung der hauseigenen Grafikkarten voran – Fermi-Grafikkarten finden sich nicht mehr nur in Zocker-Computern sondern vor allem auch in Serverfarmen für wissenschaftliche Berechnungen. Einige der schnellsten Supercomputer der Welt erreichen ihre beeindruckende Leistung nur durch den Einsatz mehrerer Tausend Geforce-Rechenkerne. Doch auch private Anwender profitieren, sogar Computerspieler. So lassen sich Geforce-Grafikkarten neben der Grafikberechnung im Spiel bei einigen Titeln auch für die Berechnung von Physikeffekten nutzen. Die PhysX-Engine erlaubt dabei sowohl die Berechnung per CPU (mit geringen Physikdetails) als auch per GPU. Und auch das Konvertieren von Videos oder Bilddateien erledigt eine moderne DX11-Grafikkarte schneller als jede CPU. Bei der Auswahl eines passenden Modells aus der Grafikkarten-Rangliste sind diese Zusatzfunktionen stets zu beachten. AMD verfolgte mit der Übernahme von ATI zudem einen lange vorausgedachten Plan: Die Verschmelzung von Prozessor und Grafikeinheit zu einer sogenannten APU. Mittelklassegrafikkarten wie die HD 6550 werden so auf einen Schlag überflüssig. In Zukunft sollen so Anwendungen für parallelisierbare Aufgaben die Grafikeinheit der CPU nutzen. Die Leistung vieler Anwendungen würde sich so selbst auf Mittelklasse-Computer stark steigern lassen.