Anmelden mit
Registrieren | Anmelden

Erste Bilder: GeForce GTX 295 mit 55 nm

Von - Quelle: VR-Zone | B 19 kommentare

NVIDIA GeForce GTX 295NVIDIA GeForce GTX 295In punkto Strukturbreiten will Nvidia wieder mit ATi gleichziehen. Die Kollegen von VR-Zone durften einen Blick auf die GeForce GTX 295 werfen, welche in 55 Nanometern gefertigt ist.

Wie man auf dem Bild erkennen kann, beansprucht die GTX 295 zwei Slots, ähnelt also dem Konzept her der GeForce 9800 GX2. Auf der oberen Kartenhälfte sind die beiden DVI-Ausgänge untergebracht, während man unten die HDMI-Buchse sieht. Die SLI-ähnliche Kabelverbindung rechts verbindet beide Leiterplatten. Das Modell besitzt zwei GT200b-GPUs, wobei der kleine Suffix "b" andeutet, dass die Architektur dieser Chips im wesentlichen mit dem älteren GT200 übereinstimmen und keine bahnbrechenden Neufunktionen zu erwarten sind. Stattdessen eröffnet der Die-Shrink von 65 auf 55 Nanometer mehr Ausbeute, höhere Taktraten und geringeren Energiebedarf - sofern bei der Produktion alles klappt. Dennoch kann man auf die Hilfsspannungsversorgung (8 Pin bzw. 6 Pin) nicht verzichten.

Verbaut werden auf der GTX 295 insgesamt 1. 792 MByte Grafikspeicher, wobei jeder GPU 896 MByte zur Verfügung steht. Offiziell soll die GTX 295 auf der CES vorgestellt werden, die in der zweiten Januarwoche 2009 stattfindet. Zu diesem Zeitpunkt dürfte auch die GeForce GTX 285 erscheinen, welche die GTX 280 ersetzen soll.

Aufgrund der Namensgebung gibt es einige Spekulationen, denn eine "GTX 290" mit 65 Nanometern als Vorlage gibt es nicht. So gibt es keine eindeutigen Hinweise, ob die GTX 295 mit 216 oder 240 ALUs ausgestattet ist.

Kommentarbereich
Experten im Forum befragen

Zu diesem Thema einen neuen Thread im Forum News erstellen.

Beispiel: Notebook, Festplatte, Speicher

Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • leanproduction , 10. Dezember 2008 11:50
    Naja wer sowas braucht...
  • impaled , 10. Dezember 2008 12:01
    Wenn ich noch jemals eine Grafikkarte dieser Art finden würde, die genauso leise ist wie meine 8800 GTS 512 von Sparkle, würde ich mir die jederzeit neu kaufen...aber ich kann mir nicht vorstellen, das solche Karten Flüsterleise gestaltet werden können...
  • Shini , 10. Dezember 2008 12:06
    Und wieder eine sinnlose Konstruktion..
    Wie wollen die das Ding kühlen? Etwa genauso effektiv wie die 7950 GX2 oder die 9800 GX2?
    Da bin ich mal gespannt.. ATi schafft es doch auch auf einem PCB 2 Chips unterzubringen. Wieso nicht auch NVidia.
  • Alle 19 Kommentare anzeigen.
  • Anonymous , 10. Dezember 2008 12:24
    Platzsparend zu Arbeiten ist halt nicht NVidia's Stil... :D 
  • XX-treme , 10. Dezember 2008 12:29
    Klingt für mich eher wie ne GTX260 GX2. Einfach mal 2 GTX260 Chips nehmen und ne Graka draus basteln. Einziger Unterschied: 55nm
  • Weltenspinner , 10. Dezember 2008 12:38
    Aha? :heink: 

    Das Teil kann man sich ja selbst bauen.
    Wieso bringt nVidia das auf dem Markt?
    Bastelanleitung hätte gereicht. :lol: 


    (Ich weiß schon warum: Die Leistungskrone
    wirkt absatzfördernd und schwanzvergrößernd.)
  • Sn0opY , 10. Dezember 2008 13:16
    Davon 2 kaufen dann mit SLI laufen lassen :p  juhuuuu 5000fps in cs 1.5...

    Wers braucht...
  • f1delity , 10. Dezember 2008 13:37
    @Sn0opy
    CS ist die GPU mal so ziemlich egal, ein P4 mit 8301MHz wär da sinniger ;) 

    @Topic
    2 GTX 216, auf dem Raum, bestimmte brachiale Kühlung, Stromaufnahme mit ~300Watt mal nebensächlich, was man nicht alles für die Leistungskrone tut.
  • Anonymous , 10. Dezember 2008 14:16
    du brauchst die karte für:
    24" und grösser bei AA AF und HDR

  • Morado , 10. Dezember 2008 18:36
    sajkdaksdjkdu brauchst die karte für:24" und grösser bei AA AF und HDR


    Danke, wenigstens ein sinnvoller Beitrag zum Thema.
    WER so eine Karte braucht ist ja nicht die Frage, sondern WOZU!!!

    Nachdem 24" Monitore erschwinglich sind, und man eben gerne auf nativer Auflösung spielt, muss man eben schauen, wie man die Leistung dafür bekommt.
  • Defragg , 10. Dezember 2008 19:15
    Genau, ich frage mich sowieso wie ich nur jemals auf einem 15" Monitor etwas erkennen konnte... unter 24" geht da nix mehr!
    Und dazu muss ich unbedingt diese Dingens da Karte haben.
    Lechz sabber gier...

    Spass beiseite, ernst komm´ mal her!

    Relativ unsinnige Konstruktion, da man soetwas - wie schon geschrieben wurde - selbst "bauen" kann und nicht sofort auf dem Schlauch steht, falls mit dem guten Stück mal was ist. Eine Karte wird immer überleben... hoffe ich :-)
  • avaka , 10. Dezember 2008 21:29
    Ohne Wasser wird die Karte wohl nicht erträglich sein. Es gibt mittlerweile Karten im Tripleslotformat und Nvidia verbackt da mal grade 2 GTX260 Chips auf 2 Slots. 55nm hin oder her, ne einzelne GTX260 ist ja schon laut genug.
  • borizb , 10. Dezember 2008 22:15
    Ich hab diese Karte hier und betreibe sie passiv, mit 2 Gehäuselüftern bei 55 Grad. Sie hat 120€ gekostet und reicht für alle aktuellen Spiele in 1280x1024 + alle Details. Sobald eine Karte dieses Preis/Leistung/Lautstärle/Stromverbrauch-Verhältnis unterbieten kann, greife ich zu. Außer bei der Leistung kann die oben präsentierte Karte NIRGENDS mithalten. Es gibt also außer für Performance-Süchtige keinen Grund, diese Karte zu erwerben. Dann lieber eine Single Slot GTX240 mit 1GB und 6 Pin Anschluss mit 50% mehr Leistung als eine 9800GT. Sowas käme mir für 200€ gerne ins Haus.
  • Techniker Freak , 11. Dezember 2008 02:11
    Juhuu, eine Möglichkeit mehr völlig sinnlos Strom zu verbraten und den PC zu grillen :D 
    ShiniUnd wieder eine sinnlose Konstruktion..Wie wollen die das Ding kühlen? Etwa genauso effektiv wie die 7950 GX2 oder die 9800 GX2?Da bin ich mal gespannt.. ATi schafft es doch auch auf einem PCB 2 Chips unterzubringen. Wieso nicht auch NVidia.

    Vermutlich weil die Verbindung der GPU's mit Crossfire vom technischen Aufwand her einfacher ist als bei Nvidia, die müssen da einfach viel mehr Müll mit drauf löten. Ne mal im Ernst, erinnert sich jemand an das 3D1 Bundle von Gigabyte, das war eine modifizierte Platine mit NForce Chipsatz und einer Dual 6600GT, nur ein PCB und zwei Chips drauf, sollte es auch als 6800GT Ausführung geben, hat den europäischen Markt allerdings nie erreicht. Dann gab es von ASUS nach dem erscheinen der Geforce 7 eine Dual GPU Karte mit dem 7800GT, ebenfalls nur ein PCB allerdings mit externen Netzteil für die Karte...
    Dann gab es den Refresh der Geforce 7 und Nvidia entwickelt tatsächliche eine Dual GPU Karte und schafft nicht was zwei Hersteller bereits vorher geschafft haben und zwar eine Dual GPU Karte auf ein PCB zu bringen und das ganze mit einer vernüftigen Kühlung auszustatten.
    Nun sind die schon bei der vierten Dual GPU Karte und haben das immer noch nicht begriffen das man solche Karten nicht unbedingt als Sandwich bauen sollte, lieber etwas mehr gequetscht auf einem PCB und dafür einen Kühler mit dem die Karte 3 Slots belegt.

    Auf das die Computer brennen...
  • Saddy , 11. Dezember 2008 10:38
    @borizb
    also es gibt sicherlich eine Menge leute die wollen mehr als 1280x1024. Dafür braucht man eben etwas mehr Leistung. Sicherlich sind die Ansätze dies zu erreichen bei ATI und NVIDIA unterschiedlich und immer dem passenden Geldbeutel anzupassen, aber ich würde nur bei wenigen Karten sagen die braucht kein Mensch.Du kaufst Preisbewußt ok, andere wollen einfach mehr Leistung aus was für Gründen auch immer.

    Saddy
  • f1delity , 11. Dezember 2008 21:33
    Zitat :
    du brauchst die Karte für:24" und grösser bei AA AF und HDR

    Quatsch, zocke ganz bequem fast alle Titel mit AAx8 AFx16 auf 1920x1200 mit maximalen und habe "nur" eine HD4870, für alles größere bzw. für Leute die unbedingt jedes Crysis auf 2560x1600 mit maximalen Details zocken wollen ist die Karte auch schon wieder zu langsam, von daher eigentlich ein unsinniges Konstrukt, allein schon die Wärmeabfuhr und der vermutlich Preis von >500€.
  • Tapety , 11. Dezember 2008 23:37
    Schon einmal daran gedacht, dass die die nicht mit einem SLI Board gesegnet sind (verschiedene Gründe), auch 2 GTX 260 haben wollen? So viel zum Thema, !Unnutz", sowas kann man sich selber bauen. ich werde mir die Karte auf jeden Fall holen, weil ich eben einer derjenigen bin die kein SLI-Board haben. (1.Platzmangel 2. Gute SLI Board, wie das 790i, sind SAU teuer) Zudem wird der Preis glaube ich unter 550 Euro fallen, da sie nur so noch eine Konkurenz zu ATI sind. Und das ist für Nvidia somit das allerwichtigste.
  • Anonymous , 17. Dezember 2008 00:17
    Ich habe eine Matrox Mystique 220 und eine 3D-Zusatzkarte von 3dfx, damit bin ich für die Zukunft gerüstet.
  • Anonymous , 18. Dezember 2008 15:25
    sehr geil High end, mir kommen die Tränen wenn ich daran zurück denke. Ich hatte noch die 2MB Erweiterung draufgesteckt. Wie war das mit den Treibern? Einmal pro Jahr wenn überhaupt?
intervention