Anmelden mit
Registrieren | Anmelden

Gigabyte GeForce Titan im Workstation-Test - Alternative oder Flop?

Gigabyte GeForce Titan im Workstation-Test - Alternative oder Flop?
Von

Da die OpenCL-Performance anfangs schwächelte, haben wir fairerweise die avisierten Treiber abgewartet und reichen nun den dritten und letzten Teil der GeForce Titan Launch-Story nach. Kann sich die teure Karte für den semi-professionellen Einsatz empfehlen? Wir testen die Karte im Workstation-Einsatz....

Nachdem wir ausgiebig die 3D-Performance der professionellen Karten (Quadro und Firepro) im DirectX-Einsatz und Gaming getestet hatten, drehen wir den Spieß nun einmal um und schicken neben dem GeForce Titan als aktuell stärkster Consumer-Karte (Single-GPU) noch die jeweiligen HighEnd-Karten der aktuellen und vorletzten Generation mit in den Test. So trifft der Titan auf die GeForce GTX 680 und GTX 580, sowie die Radeon HD 7970 und HD 6970.

Zum Einsatz kommt diesmal eine Karte von Gigabyte, die zwar wie fast alle anderen GeForce Titan dem Nvidia-Referenzmodell entpricht, jedoch durch spezielle Dreingaben zusätzlich punkten möchte. Ein großes Mousepad ist meist willkommen und das beigelegte Kartenspiel ist sicher immer dann nützlich, wenn auch der Titan in aufwändigen Berechnungen noch für Pausen sorgt. Wie kurz oder lang so ein Pausenspielchen ausfallen wird und ob man überhaupt zum Kartenspielen kommen wird, das soll der heutige Test klären. Um mögliche CPU-Limitierungen weitgehend auszuschließen, haben zunächst die Plattform gewechselt und auf einem Core i7 3770K den Takt solange erhöht, bis wir in den Anwendungen nur noch marginale Änderungen der Performance feststellen könnten. Am Ende sind wir bei 4.5 GHz gelandet, was auch zeigt, dass einige ältere professionelle Anwendungen nach wir vor CPU-limitiert sind. Multi-Threading und GPGPU spielen zwar beim Rendern eine immer größere Rolle, aber nicht alles lässt sich auf die Schnelle perfekt parallelisieren.

Testsystem
CPU
Intel Core i7 3770K @ 4.5 GHz (water cooled)
RAM
32 GB Corsair Dominator Platinum @2066 MHz
Mainboard
Gigabyte G1 Sniper 3
SSD
2x Corsair Neutron 480 GB
OS  
Windows 7 Ultimate x64 (full updated)
Driver
GeForce 314.22 WHQL (VSync off)
Catalyst 13.3 Beta 3

Tesla meets Gaming, das hatten wir ja schon. Aber was passiert eigentlich im Detail, wenn wir dieses Produkt zurück auf die Arbeit schicken?

Wir teasern an dieser Stelle schon einmal den großen Workstation-Test mit den neuen Kepler-Quadros an, bei dem wir mit einer ähnlichen Benchmark-Suite insgesamt 2 Generationen der professionellen Quadro- und FirePro-Karten gegeneinander antreten lassen. Da ein Durchlauf pro Karte ca. 8 Stunden dauert und wir zuvor noch einige Treiber-Probleme klären wollen, werden wir dies später in einem gesonderten Artikel veröffentlichen; die Ergebnisse der 5 Consumer-Karten jedoch mit einfließen lassen.

Alle 20 Kommentare anzeigen.
Sortieren nach: Neueste zuerst | Älteste zuerst
  • jo-82 , 2. April 2013 12:11
    Eine Quadro-FX der 1.000 Euro Klasse als direkter Vergleich zum Titan wäre nett gewesen.
  • El Zoido , 2. April 2013 12:24
    Seh ich das richtig, dass die Unterschiede beim Blender-Benchmark im 10tel Sekunden Bereich liegen?
    Wäre das nicht in der Praxis völlig irrelevant?
    Vielleicht sollte man eine aufwändigere Szene rendern lassen.
  • FormatC , 2. April 2013 13:10
    @jo-82
    Steht doch auf Seite 1 - ich habe sogar die neuen Kepler Quadros hier. Pro Test 8 Stunden++ dauert noch etwas, kommt aber dann auch mit 15 Grafikkarten. 10x Quadro/Firepro der aktuellen und vorletzten Generation + die 5 von diesem Test

    @El-Zoido
    Blender ist sehr schlecht für GPGPU optimiert. Soll ich 3 Stunden rendern lassen, um 20 Sekunden zu gewinnen? Bei kleineren Karten ist der Unterschied größer, aber dass die CPU so gut mithalten kann, ist schon peinlich. Ich werde mal mit einer anderen Szene testen, aber die ist nun mal als Benchmark geliefert worden. Hast Du was, was sich in maximal 10-15 Minuten rendern lässt?
  • El Zoido , 2. April 2013 14:04
    @FormatC
    Sorry, ich kann da auch nicht viel anbieten, da ich selbst nur mal ein paar Sachen Marke "quick&dirty" gerendert habe.

    Allerdings ist nach meiner Erfahrung der neuere "Cycles" Renderer in Blender potentiell deutlich schneller auf der GPU als mit CPU (in meinem Fall Phenom2 965 mit GTX460), zumindest wenn man die richtigen Einstellungen wählt (GPU rechnet besser das ganze Bild komplett, CPU ähnlich wie der alte Blender Internal Renderer aufgeteilt in kleinere Bereiche und dann ein Bereich pro Kern).

    Edit:
    Auf BlenderGuru ist ein interessanter Beitrag zu CPU/GPU Rendering mit Cycles:
    http://www.blenderguru.com/4-easy-ways-to-speed-up-cycles/
  • FormatC , 2. April 2013 14:14
    Dann werde ich mir das mal zu Gemüte führen. Danke für den Tipp.
  • bentheman3 , 2. April 2013 14:39
    Da mich die CUDA Performance in Blender besonders interessiert hat, muss ich hier leider auch noch einen Kommentar hinzufügen. Wie es scheint wurden die Rendereinstellungen nicht nur ein bisschen versemmelt. Zwischen der hier verwendeten CPU und einer GTX 580 liegt im Normalfall der Faktor 3 (abhängig vom Blenderbuild)!!!! In unterschiedlichen Foren ist die Performance einer Titan nochmal um ca. den Faktor 2 schneller als eine GTX 580. Das ergibt eine bis zu 6mal so gute Performance als der i7 3770k. Auf den bereits angesprochenen Blenderguru Eintrag sollte ein genauer Blick geworfen werden. Auch die Auswahl einer anderen Szene bietet sich hier an.

    Zum Beispiel diese hier: http://blenderartists.org/forum/showthread.php?239480-2-61-Cycles-render-benchmark


    Gruß
  • FormatC , 2. April 2013 14:48
    Normalerweise nutzen wir die Programme exakt so, wie sie nach der Installation per default eingestellt sind. Schon aus Prinzip, um die Ergebnisse möglichst reproduzierbar zu halten. Ich werde das aber natürlich noch einmal gegen testen, auch mit dem BMW.

    Ich nehme noch mal den BMW zusammen mit deren Settings. Vorteil an der Aktion: es bleibt vergleichbar :) 
  • El Zoido , 2. April 2013 14:59
    Ich denke im Moment ist das Problem mit Blender ein wenig, dass sich da immer wieder mal etwas ändert, sowohl Cycles als auch GPU Rendering sind Gebiete an denen recht aktiv entwickelt wird.
    So wurden vor einigen Versionen z.B. die Standard-Einstellungen für das Tiling unter Cycles geändert, was aber einen starken Einfluss auf die Rechenzeit mit CPU oder GPU haben kann. Siehe den BlenderGuru Artikel.
    Sinnvoll wäre vielleicht wirklich, eine Standard-Szene (wie die von bentheman3 vorgeschlagene) zu verwenden und die optimalen Tiling Einstellugen für die jeweilige Rendermethode aus dem BlenderGuru Artikel.

    Jedenfalls könnte Cycles mehr Aussagekraft zu GPU-Rendering haben als der alte Blender Internal Renderer.
    Schade nur das Cycles bisher keine AMD GPUs unterstützt und sich daran wohl auch so schnell nichts ändern wird.
  • bentheman3 , 2. April 2013 15:08
    War als Anregung gedacht, um die Qualität des Tests zu erhöhen. Die von Ihnen angesprochene Reproduzierbarkeit ist auch hier gewährleistet, da es eine Rendereinstellungsempfehlung für GPU und eine für CPU gibt (unabhängig des Modells). Der Vergleich CPU und GPU bei default Einstellung ist allerdings schon vom Start weg obsolet. Mann vergleicht ja ein Dieselfahrzeug auch nicht mit einem Benziner indem mann es mit Benzin betankt. Falls Probleme bei der Optimierung der Rendereinstellungen entstehen, gehe ich gerne zur Hand. Gruß

    @ El Zoido
    Ein wichtiger Punkt. Man sollte sich auf jedenfall auf eine Version festlegen. Die Ergebnisse seit Einführung von Cycles, was die Renderzeiten angeht, unterscheiden sich nämlich deutlich. Auch die Angabe der Version im Test wäre sinnvoll, um bei einer frei verfügbaren Szene selbst Vergleiche anstellen zu können.
  • FormatC , 2. April 2013 15:18
    So, mal erste Ergebnisse mit dem vorgeschlagenen Benchmark:

    CPU: 3:12.48 (i7 3770K, HT aktiv @4.5 GHz)
    GPU: 1:47.51 (Quadro K5000, Nvidia Quadro/Tesla-Performance-Treiber)

    Ok, die Quadro ist in dieser Beziehung echt ein Lahmarsch... ;) 

    Update:
    So, die Seite mit dem Blender-Benchmark ist ersetzt. Mit dem BMW und dem neuen Kernel packt es nun auch der Titan, der vorher auf dem Niveau einer GTX 680 rumgekrebst ist.
  • bentheman3 , 2. April 2013 16:14
    Klasse!! Vielen Dank für den zusätzlichen Einsatz, nun macht das ganze doch schon deutlich mehr her. Weiter so!

    Gruß
  • El Zoido , 2. April 2013 16:32
    Ja, vielen Dank auch von mir, so sieht man doch schon eher was die Karte leisten kann.
  • FormatC , 2. April 2013 17:58
    Warum sollte man nicht im Prozess lernen und das Setup verbessern? Ich kann mich nicht mit jedem Programm im Detail vorab so viele Stunden beschäftigen, wie es die Anwender tun, die sich auf so eine Applikation seit Monaten eingeschossen haben. :) 

    So gesehen profitiere ich ja von solchen Hinweisen auch selbst, denn Allwissenheit kann man nun nicht pachten.
  • El Zoido , 2. April 2013 19:06
    Hab grad mal den BMW auf meiner alten 460 1GB rendern lassen (Linux 64bit, aktuelle NVidia Beta Treiber).
    Fast das gleiche Resultat wie die GTX680 (103s)? :-O

    Das zeigt wohl das NVidia bei der 6xx Serie die compute Fähigkeiten wirklich ganz schön vernachlässigt hat.
    Ob wohl ich immer dachte die 660 wäre in etwa auf dem Niveau der 460.
  • FormatC , 2. April 2013 19:18
    Die 6xx sind für GPGPU megafail. Ich würde gern mal Blender mit OpenCL und einer HD 7970 sehen. Leider bekommen die da Null gebacken, geht immer noch nicht. Warum wohl TressFX in Tomb Raider auf den aktuellen Nvidia-Karten so Scheiße läuft?

    https://forums.geforce.com/default/topic/536776/congratulation-to-knyz-for-the-314-21/?offset=5

    Das finde ich schon recht skandalös, wenn es denn so ist.
  • BlackX , 3. April 2013 14:33
    Der Octane Benchmark kann irgenwie nicht stimmen.
    Erstens kann Octane auf einer x86 CPU überhaut nichts berechnen
    es funktioniert nur über eine Grafikkarte die CUDA unterstützt.
    Zweitens habe ich gerade die Benchmark Scene bei Standard Einstellungen (Version 1.11, 1000 s/px) mit einer 680 berechnet:
    Render Traget DL: 42 Sekunden (13.98 Ms/sec)
    Render Traget PMC: 198 Sekunden (2.86 Ms/sec)
    Render Traget PT: 166 sekunden (3.59 Ms/sec)

    Mann sollte darauf achten das keine 3D Anwendung im Hintergrund läuft (Aero abschalten) b.z.w. gleich eine extra Karte verwenden damit die Hauptkarte sich nur um die Berechnungen kümmern kann. Weiterhin kann man dann noch mit dem PC ganz normal Arbeiten sogar Spiele Spielen während man Rendert.

    Meinem Kumpel hab ich eine 580 eingebaut der Monitor ist aber an der Intel HD 4000 angeschlossenen er verwenden sie zur Architekturvisualisierung mit Octane oder Arion. Der vorteil mit GPU Rendering ist klar man Spart Tage an Rechenzeit bei absolut gut aussehenden Renderings (reale Physik). Man hat eine vorschau von Licht, Schatten, Perspektive fast in Echtzeit und dem Endresultat schon sehr nahe. Man kann mit dem PC während man Rendert noch arbeiten. Wobei ich Octane von allen GPU Renderern am schnellsten von der Vorschau und auch vom Workflow finde wobei man bedenken muss das sich das alles noch in der Entwicklungsphase befindet. Zudem kann man diese Programme in der Beta Phase noch relativ Preisgünstig ergattern.
  • FormatC , 3. April 2013 15:05
    Gefixt. Die CPU ist Blödsinn, stimmt, da man den Device zwar abhaken kann, Octane aber stets einen wieder den einen von allein aktiviert. Auch ohne Zutun und Hinweis. Die Werte der GTX 680 im Nachtest sind trotzdem etwas schlechter als Deine, was wohl daran liegt, dass ich ein Referenzmodell mit niedrigerem Takt nehme. Im Hintergrund läuft auf dem Testsystem nichts, ich habe sogar alle unnötigen Dienste deaktiviert.

    Ich nutze die 1.10 als Demo mit der Scene von 2010. Leider gabs noch keine aktuellere Demo und eine Supportanfrage hat man leider noch nicht beantwortet.
  • 3dguru , 9. April 2013 20:39
    Der Autor scheint leider nicht mitbekommen zu haben das AutoCAD 2013 kein OpenGL unterstützt.
  • FormatC , 10. April 2013 00:08
    Der Autor war der Macht der Gewohnheit verfallen und hat die Begriffe für 2013 wieder gerade gerückt. :) 
    Kurzum: fixed und Danke für den Hinweis.
  • numerobis , 12. April 2013 10:51
    Super Test! Danke dafür! (in der Hoffnung auf vergleichsfähige Quadro-Werte)
    Mich persönlich hätte ja noch ein Viewport-Bench für 3DSmax interessiert (Nitrous)


    btw... ich konnte diesen Kommentar übrigens nur im Forum absenden - unter dem Artikel bekomme ich eine Fehlermeldung. Bei anderen Artikeln geht's aber.
Ihre Reaktion auf diesen Artikel