Dampfhammer Junior: Geforce 8800 GTS

Zum Vergrößern anklicken

Auch der schwächere und kleinere Geforce 8 setzt sich in der Gesamtleistung vor den einzelnen Radeon X1900 XTX oder X1950 XTX. Was die Crossfire-Konfigurationen von ATI beim GTX nicht schaffen, ist beim GTS passiert. Die beiden schnellsten Radeon-Chips setzten sich als Doppelpack-Konfiguration vor den 8800 GTS.

Das Nvidia gute Arbeit leistet, ist beim Vergleich des gesamten Testfeldes zu sehen. Keine SLI-Lösung, bis zum Geforce 7 oder kleiner, kann den Geforce 8800 GTX oder GTS überholen. Damit zeigt sich erneut, die nächst höhere Chip-Generation schlägt immer wieder das SLI-Doppelpack der vorherigen Generation.

Der Geforce 8800 GTS ist mit 23 cm deutlich kürzer als der GTX (27 cm).

Der Kühlkörper bedeckt fast die ganze Karte und ist mit Heatpipe-Technik optimiert.


Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
32 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • SickThought
    Zitat:
    Immer noch schneller als X1900 und X1950

    Wäre ja auch verdammt traurig wenn dem nicht so wäre, bei immerhin 100€ (X1950XTX) bzw. >200€ (X1900XT) Mehr-Preis.
    Und ehrlich gesagt find ich den Leistungssprung gegenüber einer X1900XT erschreckend gering, bedenkt man das die Karte etwa das doppelte Kostet.
    Siehe zB
    5 FPS mehr.

    Schätze das ist einer der Kandidaten der wenn die ersten richtigen DX10 Spiele raus kommen schon wieder zu langsam ist.
    0
  • Felux
    bei den ersten Spielen vielleicht nicht, aba die zweite generation wird dann auch zu anspruchsvoll sein für die ersten Karten, war doch immer so, siehe 9500/9700, erste dx9 karten, anfangs brauchbar, später musste man dann schon deutlich runter mit den einstellungen.

    5 fps sind in dem gebiet immernoch ca 25%. ganz brauchbar, aber nicht umbedingt sinnvoll oder?
    0
  • realsmasher
    im schnitt liegt die karte aber geringer vorne als hier in dem beispiel.

    auf jedenfall ist der preis überzogen.
    0
  • 3D Mann
    Hallo,
    ich sehe das positiver. Im Vergleich zur Geforce 7200-7800 ist das Ding auf jeden Fall besser und leiser. Natürlich nicht gegen 7900 GTX vergleichen. Der Preis fällt recht schnell, hab schon Ankündigungen vom Hersteller mit 449. Entscheidend ist, jeder der jetzt weniger als GTS vorstellt, macht sich einfach lächerlich. Also kann man sich auf AMD/ATI freuen. Schaun wir mal wann ein 8600er oder sowas rauskommt und was der kann und kostet.
    Grüße Tino Kreiß
    0
  • realsmasher
    ja die frage ist doch nur wie sinnvoll es ist eine solche karte zu dem preis zu kaufen, wenn man auch ausreichend leistung um die 200€ bekommt.

    Wie siehst du das ? nur wegen dx-10 das doppelte bezahlen ? macht das wirklich sinn ?

    klar ist es nett das es diese karten gibt, nur irgentwie sehe ich keinen kaufgrund. oder gibts doch einen ?
    0
  • gloin
    am ende ist es eh das selbe wie mit den ersten dx 9 grakas..

    wenn die ersten dx10 titel draußen sind. sind diese karten schon viel zu low
    0
  • grimm
    Wie schnell im Moment die nächste Generation neuer Hardware auf den Markt geworfen wird, macht mich schon eine ganze Weile stutzig. Undd heute auf Gamestar.de kam dann auch die Meldung: NVIDIA verbietet allen Herstellern den G80-Chip übertaktet anzubieten - nicht mal mit Wasserkühlung. Kein Wunder bei dem Stromverbrauch! Als Grund dürfte wohl die Wärmeentwicklung des Chips auszumachen sein.
    Da bringen die eine niegelnagelneue Technologie auf den Markt, die von Anfang an komplett ausgereizt ist, oder was? Zu dem Preis und mit einer doch eher dürftigen Mehrleistung.
    Wieso eigentlich können alte Karten nicht auf DirectX10 "gepatcht" werden?
    Da warte ich lieber auf die folgende 9xxxer Generation!
    0
  • Felux
    @grimm, "gepatcht" können die nicht werden weil die meisten Effekte schaltungstechnisch realisiert werden müssen

    Es gab mal Ausnahmen z.b. die 5000er serie von Nvidia welche direkt x9 teilweise softwareemuliert hat, was natürlich enormst leistung gekostet hat.

    ich schätze das mit dem Unübertaktet verkaufen liegt nur daran das Nvidia nicht will das die Hersteller schnelleren karten verkaufen dabei größere Gewinne einfahren und nvidia leer ausgeht :wink:
    0
  • 3D Mann
    Hi,
    Felux, Realmasher und Gloin,
    beim Radeon 9x00 habe ich zu DirectX 9 genau das selbe geschrieben, warum - wo doch keine Spiele da sind, zu teuer und bis DX9 und Spiele da sind - zu langsam. Man o man, hab ich mir da was von einigen Lesern (nicht THG) anhören müssen. Wie kann ich nur so eine gute Karte . und dann hat die ja auch noch DX9 schon enthalten und außerdem ist jede Karte schnell genug für alle Spiele.
    Meine Meinung hat sich bestätigt, bis Splinter Cell und Co da waren, hat kein Schw. mehr über 9x00 gesprochen, weil zu langsam.
    Jetzt haben wir das gleiche mit Nvidia, einziger Unterschied, der Chip hat 681 Mill. Transistoren. Die müssen ja irgendwas machen. Ich glaube die Überraschung wird nicht die Performance sein, sondern wieder irgendeine Inkompatibilität oder ein fehlendes Feature wie AA und HDR-R beim Geforce 6-7.
    Das Nvidia nicht übertakten will ist klar. Der nächste Chip wird, Achtung reine Spekulation!, 80nm gefertigt und DDR4 haben. Da der Speed dadurch nicht viel mehr sein wird, darf niemand übertakten, weil sonst kein Unterschied zum 8900 oder 8950 zu sehen ist.
    Hitzeprobleme sind es sicher nicht. Bei 90nm und doppelter Transistoren-Anzahl sind die Temps okay, niedriger als bei ATI X19x0.
    Und ob sich DX10 lohnt, klar. Schaut euch mal Crysis, Parabellum, Hellgate London, Inferno und UT2007 an. Sind sicher nicht alle 100% DX10, aber jetzt wird endlich jeder DX9-Effekte voll einbauen.
    Dieser HDR-R mit Half Life 2 oder Dark Messiah auf PS 2.0 oder Bloom bei Gothic 3 und Neverwinter Nights 2 ist ja wohl echt ein Witz. Bei Splinter Cell gings doch auch, PS 1.1 oder 3.0. Da wird wieder zu viel auf XBock360 und Playstadion Rücksicht genommen.
    Hat jemand NFS Most Wanted und Carbon schon gespielt?
    Grüße Tino
    0
  • tatwanasi
    Moin!

    Bei der Übersicht der Grafikchips hat sich n kleiner Fehler eingeschlichen. Da steht XFX Geforce 8800 GTX - G80 . das sollte wohl GTS heißen, weil is ja niedriger getaktet und hat "nur" 640MB.

    Zitat:
    Wieso eigentlich können alte Karten nicht auf DirectX10 "gepatcht" werden?

    Tjoa also generell ist die GPU ja in viele kleine Recheneinheiten unterteilt. Einige sind optimiert auf Geometrie, die nächsten Einheiten machen die Beleuchtung. Dann gibts noch Texturierungspipelines. Das hat sich halt nach und nach immer weiter entwickelt und die einzelnen Unterteile wurden weiter auf ihre Arbeit optimiert.

    Mit DirectX 8.0 kamen dann die Shader dazu. Die machten dann realistische Wasser-, Wetter-, Oberflächeneffekte möglich. Am Anfang war das allerdings nur eingeschränkt möglich diese Algorythmen einzubinden. Die Verarbeitungstiefe und die breite Ausführbarkeit wurden nach und nach aber immer verbessert, so dass wir jetzt bei PixelShader 4.0 sind, der erst ab DX10 unterstützt wird. Pixel und Vertexshader dürfen aber nicht als seperate Recheneinheiten verstanden werden, sondern sind vielmehr programmierbare T&L Einheiten, die es schon seit dem Geforce 1 gab, aber halt erst mit dem Geforce 3 programmierbar gemacht wurden.

    Einzig die programmierbarkeit - also Aspekte wie die max. Größe eines Datensatzes, welche rekursive Tiefe eine Berechnung haben darf . etc. entscheiden über die Konfirmität mit der DX Version. Und das ist leider von der Hardware vorgegeben und kann nicht nachträglich gepimpt werden.

    Ist sicherlich etwas vereinfacht beschrieben und die 3D Engine Entwickler liegen grad lachend aufm Boden, aber wenn dich das näher interessiert schau einfach bei Wikipedia unter Shadern nach =)

    Lieben Gruß

    /edit
    Achja, noch was zum Artikel - endlich is EINE Graka schnell genug um DX9 Content in guter Qualli darzustellen. Wenn der nächste 3D Mark kommt und die DX9er Karten nur einen Test darstellen können, mangels unterstützten Effekten. Dann werdet ihr auf der der 600 Euro DX10 Karte eine nette Diashow sehen, die mal wieder noch ein Stückchen realer scheint als alle bisherigen Grafikdemos. Achja . und nächstes Jahr zu Weihnachten - the same procedure as every year James. Prosit und frohes neues!
    0
  • Albatroner
    0
  • Felux
    Zitat:
    Vielleicht intressierts euch ja xD: http://www.forumdeluxx.de/forum/showthread.php?t=292496


    jap ist tatsache, nur liegt das nicht direkt an thg sondern ist eher eine auwandsersparnis (denk ich mal, nur spekulation)

    wenn eine neue Graka rauskommt, wird diese mit den üblichen Benchmarks getestet, und dann in die Benchmarks der alten karten eingefügt, ich glaub nicht das die wegen jeder Karte alles neu testen zumals zum teil nur Pressemuster sind die dann zurückgeschickt werden.

    Die fps der x1900xtx wurden also mit dem damals aktuellsten Treiber gemacht.

    Zitat:

    /edit
    Achja, noch was zum Artikel - endlich is EINE Graka schnell genug um DX9 Content in guter Qualli darzustellen.
    ´

    bis auf Oblivion, bei dem man auf höchsten einstellungen ein bissle an den Filtern sparen muss ist mir kein Spiel bekannt was nicht auf "guter Quali" läuft
    0
  • Felux
    edit: doppelpost, bitte löschen
    0
  • sherifx
    Dazu würde ich noch erwähnen, dass bei dem was ATI als "Treiber" verkauft sowieso kaum Leistungsunterschiede zu spüren sind.

    Ich hab bei meiner 9800pro und der X800 XT neulich einige Versionen durchprobiert. Bieten alle die selbe Leistung. Richtig gut, besonders in Anbetracht der Unterstützung des TV-Out, sind nur die Omega Treiber.
    0
  • realsmasher
    bei den aktuellen karten bringen die neuen treiber teilweise bis zu 20% mehr leistung für die x1900er karten.

    vorallem bei openGL hat sich einiges getan.

    ist klar das sich bei den "alten" modellen nicht mehr viel ändert.
    0
  • Albatroner
    ja, so ist es, dem unter meinem link habe ich nichts mehr hinzuzufügen
    0
  • 3D Mann
    Hi,
    die Treiber werden immer in den ersten Monaten optimiert. Erste Treiber sind stabil, danach kommt Performance-Optimierung (Open GL für ID-Spiele). Alte Chips fallen raus oder sind für den Hersteller schon im Speed optimal (die neue Chips müssen ja schneller bleiben :wink: ).
    Neue Tests erkennt ihr an neuen Benchmarks. Momentan planen wir mit CPU und Betriebssystem (Vista) umzusteigen. Natürlich gibt es dann neue Benchmarks und es werden alle Karten mit altuellem Treiber durchgetestet. Bei ATI immer schwer, die machen jeden Monat eine neue Version. In diesem Jahr gab es auch sehr viele Chip-Updates, die immer um ein paar Wochen versetzt kamen. Da hätte ein Neutest kaum gelohnt (mittlerweile über 80 Kartensets).
    Grüße Tino
    0
  • PheonX
    Also, ich finde den Artikel trotzdem gut, obwohl ich ein SLI Gespann der GTS vermisse :(

    Aber ein ist mir aufgefallen: Ich habe meine GTS auf dem selben Board aber halt nen C2D 6700, kann in Oblivion Outdoor alles auf max haben bei ner 1600er Auflösung und es ruckelt kein bisschen.

    Ich denke mal, dass es an der CPU und dem jeweiligen Rumlaufen von den THG Redaktueren in Oblivion liegt.
    0
  • 3D Mann
    Hi,
    der Link ist echt lustig. Ich kann noch nicht mal darauf antworten, da das Thema closed ist und man nix mehr dazu schreiben darf :shock: .
    Unernst-Modus an: Sollte ich Uwe vorschlagen, nicht die User sperren, sondern das Thema :twisted: - so kann mans auch machen.
    Naja, für alle die es interessiert und die mal reine Zahlen lesen wollen: Vorwurf, THG testet zu gunsten von Nvidia, weil ATI mit alten Treibern getestet. Neuer Catalyst 6.10/11 soll 20% schneller sein.

    Hardwareluxx
    8800 GTX___ 8800 GTS___ X1950 XTX___ X1900 XTX___ X1900 XT
    4265.3 fps___ 3308.9 fps___ 2897.5 fps___ 2795.7 fps___ 2600.9 fps
    100 %_______ 78 %_______ 68 %_______ 66 %_______ 61 %
    THG
    8800 GTX___ 8800 GTS___ X1950 XTX___ X1900 XTX___ X1900 XT___
    2255.8 fps___ 2068.3 fps___ 1885.8 fps___ 1837 fps___ 1747.6 fps
    100 %_______ 92 %_______ 84 %_______ 81 %_______ 77 %


    Habe mal alle fps aus den Benchmarks zusammengenommen und daraus den Prozentabstand berechnet. Ups, danach wäre ja ATI bei uns besser weggekommen. Also nicht verunsichern lassen, die Treiber sind nur ein kleiner Teil. Spiele, Auflösungen und Testsystem haben eben auch Einfluss.
    Fazit: Die Kritik ist völlig unbegründet und durch Zahlen wiederlegt.
    (Übrigends: Für die Upgrade-Prozenttabelle in den VGA Charts nehme ich jeden Benchmark als 100%, damit die unterschiedlichen fps-Zahlen keine Gewichtung erzeugen).
    Liebe Grüße an Alle
    Tino Kreiß
    0
  • 3D Mann
    Hi PheonX,
    das mit Oblivion und der CPU haben wir dank Felux im VGA-Chart-Forum schon bestätigt. SLI und GTS gibt es sobald ein paar Testsamples kommen, die Werte werden dann nachgeliefert.
    Grüße Tino
    0