Anmelden / Registrieren

GeForce GTX 460: Fermi, richtig gemacht

GeForce GTX 460: Fermi, richtig gemacht
Von , Chris Angelini

“Manchmal fragt man sich als Tester, was sich eine Firma bei der Einführung eines Produktes gedacht hat. Die GeForce GTX 465 ist eindeutig so ein Fall. Es ist schwer vorstellbar, dass Nvidias hauseigene Performance-Analysten nicht im Vorweg eine ganze Reihe Tests durchgeführt haben und dabei feststellten, dass die Performance der GTX 465 eher in den Regionen einer Radeon HD 5830 anzusiedeln sein würde. Wie kam man also nur auf die Idee, dass eine offizielle Preisempfehlung von 279 US-Dollar angemessen sei?“

So lautete unser Fazit, nachdem Nvidia Ende Mai die GeForce GTX 465 vorstellte. Bislang hat sich unsere Einschätzung dieser Karte nicht geändert. Im Gegenteil: Durch den Marktstart zweier neuer Karen bestärkt uns Nvidia in dieser Meinung nur noch mehr, denn heute stellt die Firma die GeForce GTX 460 vor, einmal mit 768 MB und einmal mit einem vollen Gigabyte Videospeicher, und beide bieten weit mehr fürs Geld.

Nachdem wir mit der GTX 480, GTX 470 und der GTX 465 nun drei Karten im Labor hatten, die allesamt auf dem GF100-Grafikchip basieren, bringt Nvidia heute endlich ein wirkliches Derivat der Fermi-Architektur, den GF104. Nvidia hätte es sich einfach machen und den GF100 halbieren können. Dann wäre eine GPU mit 256 Shader-Kernen, 32 Textureinheiten und einem 192-Bit-Speicherbus herausgekommen. Eine solche GPU hätte sich wohl auch brauchbar geschlagen und wäre ein evolutionärer Schritt abwärts von der GTX 465 gewesen, die 352 Shader, 44 Textureinheiten und einen 256-Bit-Speicherbus besitzt. Allerdings hätte ein solches Produkt bestenfalls gegen ATIs Radeon HD 5770 antreten können.

Stattdessen haben wir es hier mit einem neu entwickelten Chip zu tun, der zwar auf der Fermi-Architektur basiert, dabei aber eine andere Ressourcenverteilung nutzt und um ein Drittel weniger komplex ausfällt als der GF100. Das Ergebnis ist eine kleinere GPU, die zudem weniger Leistung aufnimmt und dementsprechend kühler bleibt. Darüber hinaus hat der kleinere Chip zusätzliche Funktionen mit in die Wiege gelegt bekommen, denn der GF104 beinhaltet einen überarbeiteten Video-Prozessor, der Dolby TrueHD und DTS-HD Master Audio von Blu-ray-Filmen als Bitream ausgeben kann. Damit ist diese Karte ein zweiter fähigerer und passender Angriff auf die Radeon HD 5830.

Kleiner, breiter, effizienter: Nvidias GF104

Wie die Benchmarks zeigen werden, ist die GeForce GTX 460 in vielen Fällen schneller als die GeForce GTX 465. Doch wie bewerkstelligt eine GPU mit weniger Shader-Cores, die als Mainstream-Derivat des riesigen GF100-Chips mit seinen drei Milliarden Transistoren entwickelt wurde, dieses Kunststück? Der Schlüssel liegt in der Ressourcenverteilung.

Auf einer Makro-Ebene folgt auch der GF104-Chip dem Konzept der Graphics Processing Clusters (GPCs), die jeweils vier Streaming Multiprocessors (SMs) beinhalten.

SMs bem GF100...SMs bem GF100......und beim GF104...und beim GF104

Innerhalb der SMs hat Nvidia allerdings ein wenig Hand angelegt. Verfügt der GF100-Chip pro SM über 32 CUDA-Cores, sind es bei der GF104-GPU derer 48. Diese komplexeren SMs auch immer mit Daten zu versorgen erfordert auch einen höheren Befehlsdurchsatz, was uns zur nächsten Verbesserung bringt: Nvidia erhöht die Zahl der Dispatch Units von zwei (GF100) auf vier (GF104). Im gleichen Zuge wurde auch die Anzahl der Textureinheiten von vier auf acht verdoppelt.

Vereinfacht gesagt ist die GF104-GPU breiter ausgelegt als der GF100-Chip. Deshalb bietet das GF104-Design in den Spielen, die heute am beliebtesten sind, bessere Performance als ein zurechtgestutzter GF100.

So sieht ein vollständiger GF104-Chip aus.So sieht ein vollständiger GF104-Chip aus.

Überschlagen wir also mal, was nach diesem Bauplan an Ressourcen zusammenkommt. Ein vollständiger GF104-Chip, bei dem nichts deaktiviert worden ist, besitzt zwei GPCs. Bei vier SMs pro GPC kommt man also auf acht SMs. Da wir wissen, dass in jedem SM 48 CUDA-Cores stecken, können wir ausrechnen, dass ein GF104 im Vollausbau auf 384 CUDA-Kerne, 64 Textureinheiten und acht PolyMorph-Engines, die Nvidia für die Skalierung der Geometrieleistung nutzt, zurückgreifen kann.

Ein kompletter GF100, der bislang ebenfalls nur auf dem Papier existiert.Ein kompletter GF100, der bislang ebenfalls nur auf dem Papier existiert.

Auch beim Back-End existieren Unterschiede. Ein vollständiger GF100 besitzt sechs von den GPCs unabhängige ROP-Partitionen, die jeweils acht 32-bittige Ganzzahl-Pixel pro Takt ausgeben können (insgesamt also 48). Jeder der sechs Partitionen steht außerdem eine 64 Bit breite Speicheranbindung zur Verfügung, was zusammen genommen einen 384-Bit-Speicherbus ergibt. Der GF104-Chip kommt maximal auf vier Partitionen. Ergo kommt er auf bis zu 32 Pixel pro Takt und einen 256-Bit-Speicherbus.

Für eine GPU, die noch in 40 nm hergestellt wird und aus weniger als zwei Milliarden Transistoren besteht, ist das schon beeindruckend. Andererseits vielleicht auch nicht ganz so beeindruckend wie das, was AMD mit seinem grob zwei Milliarden Transitoren schweren Cypress geschaffen hat. Darauf können erst die Benchmarks eine genauere Antwort geben.

Alle 54 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • I-HaTeD2 , 12. Juli 2010 07:24
    Die 5830 wird wohl dann noch mal ein wenig Fallen (nachdem sie jetzt auch noch mal kurz nach dem Tiefstand wieder etwas hoch ist). Preis / Leistung scheinen langsam aber wirklich wieder zu stimmen.

    Irgendwie würde ein dritter oder vierter großer Hersteller dem ganzen wirklich gut tun - täte sich aber sicherlich schwer sich zu integrieren schon allein weil nVidia als auch ATI doch schon sehr weit sind was die Entwicklung angeht.

    Allgemein wird der GPU Markt wieder etwas interessanter - hoffentlich zeigen die nächsten Generationen nun ob das nicht nur durch den Preis möglich ist.
  • rustyb3nd3r , 12. Juli 2010 07:40
    Wo sind denn bei den Benchmarks die 480 un d die 5870 geblieben?!
    cU
  • FormatC , 12. Juli 2010 07:42
    Als direkte Konkurrenten fallen die eh raus ;) 
  • impaled , 12. Juli 2010 08:20
    Hat Grün die Hausuafgaben aber gut gemacht, vielleicdht ist die 460 doch die Ablöse für die gute alte GTS 8800 512. Wie siehts denn mit der Lautstärke aus ? Find ich nichts drüber ?!?
  • benkraft , 12. Juli 2010 08:26
    impaledWie siehts denn mit der Lautstärke aus ? Find ich nichts drüber ?!?

    Im Abschnitt über die Wärmeentwicklung:
    Die GF104-Karten sind die große Überraschung in dieser Disziplin: Obwohl sie nicht die niedrigste Leistungsaufnahme in diesem Testfeld aufweisen, bleiben sie von den getesteten Karten am kühlsten und schaffen das sogar mit einem erstaunlich niedrigem Lüftergeräusch. Tatsächlich konnten wir zwischen Leerlauf und Volllast fast keinen Lautstärkeunterschied ausmachen. In der Hinsicht ähneln die neuen Karten ATIs Radeon HD 5770, die allerdings unter Last weit wärmer wird.
  • Shini , 12. Juli 2010 08:36
    Hevorragender Test zu einer noch besseren Karte.
    Die GTX 460 schlägt die HD 5830 in allen belangen und ist mit OC fast an der HD 5850.

    Ich denke aber ich werde auf den Vollausbau des GF104 warten, in Form von der GTX 468. Das am besten mit 2 GB VRAM. Der Leistungssprung von der GTX 260 auf die GTX 460 1 GB ist mir zu gering. Ich wollten wennschon eine 2 GB Karte kaufen ^^
  • I-HaTeD2 , 12. Juli 2010 08:46
    Man man ... Habt ihrs so Dicke?

    Ich renn auch noch mitm G92 (wie oben erwähnt die gute alte 8800er) rum und für mich hat sich bisher weder die pure Leistung noch das P/L Verhältnis gelohnt. Ich meine - für ein paar wenige Frames mehr und die wenigen DX11 Titel gut mehr als 200€ hinlegen sehe ich nicht wirklich ein.
  • I-HaTeD2 , 12. Juli 2010 08:49
  • Anonymous , 12. Juli 2010 09:03
    Wo ist denn die Radeon HD 5970, die alle hier gezeigten Geforce deutlich schlägt (siehe Computerbase test) und auch die 5870 fehlt. Sehr seltsamer Nvidia freundlicher Test... Die Realität sieht anders aus.
  • I-HaTeD2 , 12. Juli 2010 09:17
    Hier geht es nicht darum das Karte XY die zig mal so teuer ist diese oder jene Karte schlägt sondern um Vergleichsmodelle.
  • benkraft , 12. Juli 2010 09:23
    Zitat :
    Wo ist denn die Radeon HD 5970, die alle hier gezeigten Geforce deutlich schlägt (siehe Computerbase test) und auch die 5870 fehlt. Sehr seltsamer Nvidia freundlicher Test... Die Realität sieht anders aus.

    Um mal den beliebten Auto-Vergleich heranzuziehen:
    Würdest du in einem Testfeld, in dem ein Golf GTI und ein Opel Astra GSI als Hauptkonkurrenten antreten auch noch einen Phaeton W12 und einen Lamborghini sehen wollen? Wenn ja - warum? Die spielen nun mal in anderen Klassen. Dass sie schneller sind, ist klar.
    Ist dir aufgefallen, dass auch die GTX 480 nicht mit im Testfeld ist? ;) 
  • Techniker Freak , 12. Juli 2010 10:02
    Schön das Nvidia nun doch eine vernüftige Karte auf den Markt gebracht hat die am Preisgefüge ein wenig zu rütteln vermag.
    Schauen wir mal wie die Karten sich gegen den passenden Southern Island Ableger von ATI schlagen. Die sollten ja dieses Jahr noch auf den Markt kommen.
  • bitti1 , 12. Juli 2010 10:06
    Zitat :
    Mit dem GF104-Chip hat Nvidia viele, wenn nicht sogar alle Schwachpunkte aus der Welt geschafft

    Ein Kritikpunkt bleibt: Die Leistungsaufnahme unter Last liegt immer noch über der einer (schnelleren) ATI 5850. Da ist also immer noch Verbesserungsbedarf. Die ATI 5830 kann man in dieser Disziplin nur bedingt vergleichen, da dort die weniger guten Chips/GPUs verbaut werden für die eine höhere Versorgungsspannung notwendig ist.
  • Gudi , 12. Juli 2010 10:07
    Die erste gute Nachricht auf dem Grafikkartenmarkt seit dem Erscheinen der HD 5770. Die HD5830 halte ich für die schlechteste Karte aus der HD5000er Serie, dabei bedient sie ein so wichtiges Marktsegment. Zwischen 1680*1050 und 1920*12** dürften sich doch 99% aller Zocker beim Monitor-Neukauf entscheiden. Und gerade da patzte AMD bisher. NVIDIA scheint da ja sehr schön in die Lücke gestoßen zu sein. Wenn, um einen holländischen "Showmoderator" zu zitieren, der Preis stimmt.

    Da sollte es doch mit dem Teufel zugehen, wenn das nicht auch den Preis für die "großen" 5800er ins Rollen bringt.
  • I-HaTeD2 , 12. Juli 2010 10:10
    Ich glaube viel interessanter als irgendwelche viel teureren / schnelleren Karten wären Vergleiche mit bewährten Karten aus den letzten 2 Generationen die in etwa im selben Bereich lagen um einen direkten Leistungsvergleich zu haben.
  • impaled , 12. Juli 2010 10:51
    @ I HaTeD2: die 8800 GTS 512 würde ja auch reichen, nur bei Metro 2033 selbst in "nur" 1280 x 1024 siehts übel aus, und das ist mein Hauptanliegen für eine neue Karte.

    Ausserdem muss ATI ja jetzt vielleicht seine groß geredete 6000er Serie früher kommen lassen, um wieder mit "im Boot" zu sein, also alles nur Vorteile für uns,die User.Das könnte einen Preisverfall der GTX 460 (oder auch eier vielleicht kommenden GTX 468)nachsichzieehen, der auch wieder den Usern zu Gute kommt. Warum dauert das so lange ??? Motz,Mecker
  • bitti1 , 12. Juli 2010 10:57
    Wieso das so lange dauert? Ganz einfach: Weil die Nachfrage das Angebot übersteigt. Das sichert stabile Preise und gibt ATI momentan keinen Anlass irgendwelche halbfertigen, momentan nur als Gerücht kursierende Produkte, auf dem Markt zu werfen.
  • SolidSnake001 , 12. Juli 2010 11:02
    Endlich mal ne gescheite Karte für das Mittlere Preissegment, die GTX460 füllt die Lücke zwischen GTS250 und GTX470 gut aus.
  • I-HaTeD2 , 12. Juli 2010 11:09
    Wieso wieder im Boot? AMD ist nach wie vor gut dabei und bis auf einen eventuellen Preiskampf (wenn es der Chiphersteller zulässt) sehe ich da wenig Sinn einen drauf zu legen.

    Einzelne Spiele die eine bessere Karte erfordern (oder 2) gibt es immer mal wieder - das ist meiner Meinung nach aber kein Grund zum aufrüsten da die meisten Spiele dieser Art nach 2-5 Stunden durch sind und danach nicht mehr angerührt werden. Trotzdem merkt man das die 8800er langsam an ihre Grenzen kommen obwohl ich nach wie vor viele Titel (oder besser die meisten) noch mit maximalen Settings und oft auch zusätzlichem AA / AF laufen lassen kann.
  • avaka , 12. Juli 2010 11:14
    Hmm. Kleine kurze Kampfkarten zu fairen Preisen? Da könnte man ja glatt schwach werden und sein GTX260 SLi gegen 460SLi tauschen. Wenn ihr den SLi-Artikel bringt wäre es da irgendwie möglich die alte Dualkarte GTX295 ein letztes Mal antreten zu lassen?
    Warum muss ich ja nicht speziell erleutern oder? ;) 
Alle Kommentare anzeigen