Nvidia GeForce GTX 275 Preview: Gut getimter Gegenschlag?

Leistungsaufnahme

Beim Stromverbrauch erhalten wir ein paar interessante Ergebnisse. Nvidia besteht darauf, dass die GPU der GeForce GTX 275 schon im kleineren 55-nm-Verfahren hergestellt wird. Das wird von GPU-Z und den beiden 6-Pin-Stromanschlüssen an sich auch weiter bestätigt. Dennoch ziehen sowohl die GTX 260 Core 216 als auch die GTX 275 im Leerlauf mehr Strom aus der Dose als die GeForce GTX 285. Unter Volllast ordnen sie sich dann aber wieder in der Reihenfolge ein, die man anhand des Modellschemas erwarten würde.

Auf Anfrage erklärte Nvidia, dass ein solches Verhalten aufgrund der Streuung bei der Chipfertigung nicht unüblich sei, und die Werte von GPU zu GPU variieren können. Verglichen mit der Radeon HD 4890 legt die GTX 275 im Leerlauf eine ähnliche Leistungsaufnahme an den Tag, verbraucht dann aber unter Volllast weit weniger Energie.

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
18 Kommentare
    Dein Kommentar
  • Aliencow
    Woohoo, gut gemacht nVidia *flagge schwenk*

    Meine 8800GTS hat nach 2 Jahren treuen Dienstes leider das Zeitliche gesegnet, jetzt war ich schon am überlegen eine 285er zu holen, aber mit 330,- EUR war mir dann doch zuviel.

    Die GTX 275 kommt da mit 250,- genau richtig, das ist auch meine Schmerzgrenze für Grafikkarten.
    0
  • Aliencow
    Nachtrag zum Fazit:

    Gibt es eigentlich irgendwo eine Statistik, welche Auflösung (in Spielen) am häufigsten verwendet wird. THG schreibt hin, dass 1680er und 1920er unter Spielern noch nicht so verbreitet sind.

    Gut, ich hab seit fast 3 Jahren zwei 22er mit 1680er Auflösung daheim, aber mittlerweile geht bei uns bei den Displays 20" und 22" (mit 1680er, nicht mit dieser besch....eidenen HD-Ready Auflösung) am häufigsten über die Ladentheke.

    Ich hätte fast glauben können, dass neben 1280 die 1680er ziemlich verbreitet ist.
    -1
  • benkraft
    AliencowNachtrag zum Fazit:Gibt es eigentlich irgendwo eine Statistik, welche Auflösung (in Spielen) am häufigsten verwendet wird. THG schreibt hin, dass 1680er und 1920er unter Spielern noch nicht so verbreitet sind.


    Valve ermittelt durch Steam zumindest regelmäßig, welche Hardware im Einsatz ist - ich bin aber nicht sicher, ob dabei auch die genutzte Auflösung berücksichtigt wird. Ansonsten existieren afaik nur die üblichen Umfragen von Hardwareseiten unter der Leserschaft. Da kann man dann aber eher ein verzerrtes Ergebnis erwarten, weil die meisten Zocker und Poster zu den Leuten mit gehobener Ausstattung gehören. Wo will man also abgrenzen? Außerdem: Welche Spiele, welche Quali-Features, usw. Das muss man vorher klar umreissen. Sonst hast du die Extreme "zocke für maximale Framerate in Crysis auf einer GTX 280 bei 1024 x 768" und "alles schön, Quake 3 läuft auch bei 2560 x 1600 auf Dual-Monitor noch flüssig auf meiner 9600 GT" (übertrieben gesagt ;).

    Wir haben aber (zumindest in diesen beiden Launch-Artikeln) meines Wissens nirgendwo geschrieben, dass 1680 und 1920 von Spielern weniger genutzt werden - oder hab ich dich falsch verstanden?

    EDIT: Kann es sein, dass du diesen Satz falsch gelesen hast?

    "...findet man spielbare Frameraten ohnehin meist in den Auflösungen 1680 x 1050 und 1920 x 1200 - also dort, wo Speicher noch keine so große Rolle spielt. "

    Also nicht "was für Spieler keine Rolle spielt" ;)
    0
  • DHAmoKK
    Moin

    Mal wieder Ungereimtheiten auf Seite 1 ;)
    Zitat:
    Denn heute geht nicht nur ATIs Radeon HD 4890 1 GB zum Preis von 249 US-Dollar an den Start. Auch Nvidia hat es sich nicht nehmen lassen, uns mit einer Neuvorstellung zu beglücken, und das zum gleichen Preis.

    dagegen
    Zitat:
    Dieses Mal hüllt sich Nvidia was die Preisgestaltung anbelangt in tiefstes Schweigen. (...) Für uns wird es dadurch aber auch schwieriger, eine klare Aussage zum Preis-Leistungs-Verhältnis zu machen.

    Also was nun?

    In der Tabelle auf Seite 2 steht auch ein Preis, also kann das Geheimnis ja gar nicht so groß sein ;)

    @benkraft
    Valve ermittelt auch die Auflösungen, demnach liegt die 1280x1024 Auflösung mit 24% auf Platz 1, gefolgt von 1024x786 mit 20% und 1680x1050 mit gut 17,5% auf den Plätzen 2 und 3.
    1680x1050 hat allerdings mit Abstand den größten Zuwachs (1,12%; 1920x1200: 0,3%, 1440x900: 0,39%).

    Hochinteressant dagegen finde ich die Verteilung der Grafikchips: Auf Platz 1 liegt mit 12,53% die 8800er Serie, danach kommt die 8600er Serie mit 7,17% und auf Platz 3 der erste Chip von ATI mit der HD4800er Serie. Dann kommt eine Weile gar nichts (bzw GF9800, GF9600, GF7600 usw) bis schließlich weit abgeschlagen auf Platz 17 (!) die X1950er Serie von ATI erscheint. Und davor auf Platz 16 (!!) liegt noch Intels Mobile 965 Express.
    0
  • Aliencow
    Ich glaube aber, dass sich die Statistik von Valve vorallem auf die Amerikaner bezieht, die ja standardmäßig im (Spiele)PC-Sektor etwas dem europäischen Standard hinterher hinken.

    @Benkraft: AHHH, Speicher/Spieler... man, ohne Kaffe ist schlecht Artikel lesen! *gg*
    0
  • benkraft
    DHAmoKKMoinMal wieder Ungereimtheiten auf Seite 1 dagegenAlso was nun?In der Tabelle auf Seite 2 steht auch ein Preis, also kann das Geheimnis ja gar nicht so groß sein


    Auf eben dieser Seite steht aber auch, dass es sich zu dem Zeitpunkt, als der Test geschrieben wurde (also noch Dienstag/Mittwoch) um ein Gerücht handelte - aber von irgendwas muss man ja auch ausgehen. Und dann schreiben wir den vermuteten Preis (wenn sich Nvidia nicht klar äußern will) natürlich auch in die Tabelle.
    Leider darf ich nicht viel mehr verraten, als dass es bei den Preisen schon im Vorfeld drunter und drüber ging...
    0
  • Taigabaer
    Ich frag mich warum Ihr Crysis nicht mehr auf "very high details" testet. Werden die Grafikkarten schlechter?

    Bisher ists immer noch die Meßlatte für alles. Wenn Crysis auf "very high" flüssig läuft laufen alle anderen Spiele sowieso flüssig (von CPU-abhängigen Spielen wie Vanguard mal abgesehen).
    0
  • Taigabaer
    Ich frag mich warum Ihr Crysis nicht mehr auf "very high details" testet. Werden die Grafikkarten schlechter?

    Bisher ists immer noch die Meßlatte für alles. Wenn Crysis auf "very high" flüssig läuft laufen alle anderen Spiele sowieso flüssig (von CPU-abhängigen Spielen wie Vanguard mal abgesehen).
    0
  • DHAmoKK
    Moin

    @Aliencow
    Valve fragt weltweit, aber natürlich wird die schiere Masse der Amerikaner die Steam nutzen das Ergebnis verzerren ^^

    @benkraft
    Dann wäre ich doch konsequent gewesen und hätte in der Tabelle 3 Fragezeichen geschrieben, statt den Gerüchten nachzugehen ;)
    0
  • benkraft
    DHAmoKK
    @benkraftDann wäre ich doch konsequent gewesen und hätte in der Tabelle 3 Fragezeichen geschrieben, statt den Gerüchten nachzugehen


    Hehe, das ist ein klassischer Fall von "Im Prinzip ja, aber..."
    OFFIZIELL hat Nvidia sich nicht festlegen wollen, weil man sich die Möglichkeit offen halten wollte, die HD 4890 im "Notfall" preislich noch unterbieten zu können.
    Natürlich nutzt die Firma aber inoffizielle Kontakte, um im Vorfeld schon Preisvorstellungen zu streuen. Insofern sind die Gerüchte eben inoffizielle offizielle Aussagen, wenn du so willst.
    Wenn man aber schreibt, "Nvidia setzt den Preis auf XXX an", wird man das im Zweifelsfall dementieren. Oder man steht dumm da, wenn der Preis dann in letzter Minute noch geändert wird (wie bei ATI und der HD 4890 geschehen).
    0
  • DHAmoKK
    Moin

    OK, also marketingtechnische Dinge die ich eigentlich gar nicht so genau wissen will *g*
    0
  • Anonymous
    Wie schauts denn bei eurer GTX 275 mit dem "Spulenfiepen" aus? So schlimm wie bei der GTX 285?
    0
  • Aliencow
    THG: "...Energie in CUDA und PhysX, zwei Technologien, die aus unserer Sicht derzeit noch in den Kinderschuhen stecken."

    Das sehe ich etwas anders. Beide Technologie funktionieren bereits fehlerfrei, einfach Treibereinbindung und auch spür- und messbare Ergebnisse! (Zweite Graka ohne SLI via Treiber zur Physikberechne => 3 Mausklicks... PhysiX der zweite Karte bzw. auch von einer Karte berechnet => mehr Frames als wenn die Physik ober CPU berechnet wird).

    Viel nerviger finde ich die Tatsache das ATI und Intel mal wieder ihr eigenes Süppchen kochen wollen (Was mich schon bei SLI und Crossfire gestört hat, zum Glück gibts ja hier mittlerweile MBs die beides können).
    0
  • FormatC
    Zitat:
    Wie schauts denn bei eurer GTX 275 mit dem "Spulenfiepen" aus? So schlimm wie bei der GTX 285?
    Eigenartigerweise fiept bei meiner nichts mehr. Es war am Anfang in den Menüs der Spiele bei fps-Raten jenseits der 200, aber mittlerweile fiept nichts mehr. Waum auch immer. Und soooo extrem war auch nicht. Da sind die Lüfter manch anderer Karten lauter.
    0
  • DHAmoKK
    Moin
    Zitat:
    Wie schauts denn bei eurer GTX 275 mit dem "Spulenfiepen" aus? So schlimm wie bei der GTX 285?


    Bei meiner fiept nur etwas, wenn der Ladebildschirm von 3DMark06 ein- bzw ausgeblendet (fading) wird. Interessanterweise auch nur, wenn wirklich ein Bild dargestellt wird; Wenn der Monitor erst auf 1280x1024 umschalten muss und entsprechend spät das Bild anzeigt, kommt das Fiepen auch nur ganz kurz beim Einblenden und komplett beim Ausblenden.
    0
  • phobos
    Ja das schafft auch nur Nvidia.
    Günstigere Klasse soll her und am schluss kicken sie sich selbst dem 285 aus dem Rennen.
    also hätte ich eine 285 würde ich mich schon verascht fühlen ;)
    0
  • Jamodimel
    Hallo! Wo bleiben die Benchmarks vom FSX? Ich bin ein Leidenschaflicher FSX spieler und mich würden dort die ergebnisse der GTX 275, GTX 285 und der GTX 295 brennend intreressieren.
    0
  • fruechtetee
    1920er Tests bitte :(
    Wer heute noch unter 1680 ist, ist nicht der Zeit Herr!
    Und die Spreu vom Weizen trennt sich erst mit AA und hohen Auflösungen!
    -2