Anmelden mit
Registrieren | Anmelden

Nvidia stellt Kepler-basierte Workstation-Grafikkarten vor

Von , Wolfgang Gruener - Quelle: Nvidia | B 4 kommentare

Nvidia hat mit Maximus 2.0 seine zweite Generation der im November letzten Jahres vorgestellten Workstation-Grafikplattform angekündigt, die sich aus Quadro-Grafik und Tesla-Beschleuniger zusammensetzt.

Maximus 2.0 basiert auf der GK110-Kepler-Architektur und besteht aus der Quadro K5000 und der Tesla K20, die als Rechenbeschleuniger fungiert und somit den Quadro für reine Grafikaufgaben freimacht.

Laut Nvidia können Entwickler mit der neuen Workstation-Grafikkarte über eine Millionen Texturen direkt im Speicher referenzieren, auf FXAA-/TXAA-Antialiasing-Techniken zurückgreifen und bis zu vier Display gleichzeitig nutzen. Der integrierte DisplayPort-1.2-Anschluss unterstützt Auflösungen von bis zu 3840 x 2160 Pixeln bei 60 Hz. Der Speicher der nun PCIe-3.0-kompatiblen Karte wurde auf vier GByte ausgebaut.

Die Kepler-Architektur – speziell die SMX-Streaming-Multiprozessor-Technik – soll die Pro-Watt-Performance der Tesla-K20-GPU laut Nvidia übrigens verdreifacht haben, während dynamische Parallelisierung die Programmierung von Multi-Thread-Apps erleichtert und für insgesamt größere Performance sorgt.

Workstations mit der Quadro K5000 und der Tesla K20 sollen ab Dezember 2012 auf dem Markt kommen. Die Quadro K5000 soll als Einzelprodukt zu einem Preis von 2249 US-Dollar aber bereits im Oktober im Handel zu finden sein. Die Tesla K20 soll schmucke 3199 US-Dollar kosten.

Kommentarbereich
Alle 4 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • FormatC , 10. August 2012 21:00
    Die Quadro K5000 basiert aber auf dem GK104 der GTX 680 nicht dem GK110 ;) 
    Sie ist zudem extrem herunter getaktet, daher auch der vergleichsweise günstige Preis, der sich eher an der Quadro 5000 orientiert. Ich möchte bezweifeln, dass die K5000 bei GPGPU-Anwendungen deutlich schneller sein wird.
  • gp2u , 12. August 2012 15:15
    Als ich vor 'nem Jahr von Nvidia Maximus 1.0 gehört hab', klang' das nach einer echt guten Idee. Die Vorfreude verebbte allerdings ein bisschen, da es anscheinend "nur" an den Treibern liegt - man hat praktisch automatisch Maximus, mit zwei Karten und den passenden Treibern.

    Wäre interessant sowas mal mit zwei AMD-Karten zu realisieren; man könnte ja ein Script schreiben, welches die verschiedenen Berechnungen den verschiedenen Karten zuteilt ...
  • pescA , 13. August 2012 20:03
    Das Problem ist ja meistens nicht die Rechengeschwindigkeit, sondern die Daten zur GPU zu bekommen.
    Derzeit werden ja in der Regel Teile der Daten im Arbeitsspeicher quasi 1:1 in den GPU Ram kopiert, bevor diese mit der Arbeit beginnen kann. Das kostet oft mehr Zeit, als die Berechnung selbst.

    Deshalb versucht AMD ja mit Trinity 2.0 einen einheitlichen Adressraum zu ermöglichen und auch Intel arbeitet an einer entsprechenden Lösung. Bei vielen Aufgaben sollte das dann genauso schnell sein, wie aktuelle Workstationgrafikkarten!

    Sobald es diesen einheitlichen Adressraum auch für über PCIe angebundene Karten gibt, wird das natürlich einen enormen Leistungssprung geben und dann sind wie von dir beschriebene Scripte auf einmal sehr sinnvoll. Derzeit würden sie nur noch mehr Kopierarbeit bedeuten und die Performance nicht merklich erhöhen oder sogar verringern.
  • gp2u , 13. August 2012 22:14
    Da hast du wohl Recht, pescA. Im Frühjahr auf der Hannover Messe war ich am Nvidia-Gemeinschaftsstand (ganz viele "kleine" Nvidia-Distributoren); ein Typ, der nicht direkt für PNY arbeitet, aber anscheinend ein bisschen Ahnung hat, hat demonstriert, wie ein nicht optimal gestelltes Problem sogar ein Maximus 1.0-System mit Quadro 6000 und Tesla 2075 "ausbremst". Selbst zum heutigen Zeitpunkt könnten die Hersteller von GPU ja die Bandbreiten zum Übertragen von Daten möglichst ausnutzen ... das tun sie aber nicht mit jedem Modell.

    Interessant, dass Intel auch an einem einheitlichen Adressraum arbeitet ... bin gespannt, im GPGPU-Computing steckt noch so manches Potential.