Anmelden mit
Registrieren | Anmelden

Die GeForce GTX Titan 6 GB im Benchmarktest: Schnell, leise, teuer

Die GeForce GTX Titan 6 GB im Benchmarktest: Schnell, leise, teuer
Von , Chris Angelini

Die Features der Nvidia GeForce GTX Titan, der 950 Euro teuren Spitzenkarte mit GK110-GPU, haben wir bereits beleuchtet. Heute sind die Benchmarks Karten dran, und die Titan muss sich mit der GTX 690, GTX 680 und AMDs Radeon HD 7970 GHz Edition messen.

Vor zwei Tagen veröffentlichten mit dem Artikel Nvidia GeForce GTX Titan 6 GB: GK110 auf einer Gamer-Karte unseren ersten Blick auf eine Grafikkarte, die von einer wirklich mächtigen GPU angetrieben wird. Allerdings hatte sich Nvidia entschieden, uns zunächst nur zu erlauben, über die technischen Daten und die Karte selbst  zu sprechen, die Benchmark- und Performanceanalyse dann heute, zwei Tage später, folgen zu lassen. Wir sind nicht gerade Fans von dieser Vorgehensweise und hätten es sicherlich anders gemacht – aber uns hat man ja auch nicht gefragt. Aber alles halb so wild, denn schon am Dienstag gaben wir bereits unsere Einschätzung ab – auch wenn wir keine Zahlen nennen durften, hatten wir uns ja nach gut einer Woche ein gutes Bild von der Karte und ihrer Performance machen können.

Allen Lesern, die den ersten Teil verpasst oder schlicht noch nicht gelesen haben, legen wir dessen Lektüre nahe, denn er legt das Fundament für den die Benchmarkauswertung im heutigen Teil. Wir wollen uns heute auch nicht wiederholen sondern gleich in die Materie eintauchen. Kurz gefasst hatten wir das große Glück, gleich drei Exemplare der GeForce GTX Titan mit GK110-GPU von Nvidia zu bekommen. Zunächst einmal musste sich eine dieser Karten im Einzelduell mit je einer GeForce GTX 690, GTX 680 und Radeon HD 7970 GHz Edition messen lassen. Anschließend stellten wir ihr erst eine und dann zwei ihrer Geschwister zur Seite um zu sehen, wie sie sich gegen eine Quad-SLI-Konstellation aus zwei GeForce GTX 690 schlagen würden. Natürlich war uns auch die Rechenleistung in allgemeinen Berechnungen, vulgo GPGPU, wichtig, weshalb wir unser Augenmerk auch auf diesen Bereich richteten, bevor wir Leistungsaufnahme, Lautstärke und Wärmeentwicklung genauer betrachteten.

Kommen wir also gleich zum Testsystem, unseren Benchmarks und der Art und Weise, wie wir unsere Ergebnisse heute präsentieren – und gerade im letzten Punkt gibt es einige nicht unerhebliche Veränderungen gegenüber unseren früheren Tests.

Testhardware
ProzessorIntel Core i7-3970X (Sandy Bridge-E) 3,5 GHz @ 4,5 GHz (45 * 100 MHz)
LGA 2011, 15 MB L3-Cache, Hyper-Threading und Stromsparfunktionen aktiviert
Motherboard
Intel DX79SR (LGA 2011) X79 Express Chipset, BIOS 0553
Arbeitsspeicher
G.Skill 16 GB (4 x 4 GB) DDR3-1600, F3-12800CL9Q2-32GBZL @ 9-9-9-24 und 1,5 V
Systemlaufwerk
Crucial m4 SSD 256 GB SATA 6Gb/s
Grafikkarten
Nvidia GeForce GTX Titan 6 GB

Nvidia GeForce GTX 690 4 GB

Nvidia GeForce GTX 680 2 GB

AMD Radeon HD 7970 GHz Edition 3 GB
Netzteil
Cooler Master UCP-1000 W
Systemsoftware und Treiber
Betriebssystem
Windows 8 Professional 64-bit
DirectX
DirectX 11
GrafiktreiberNvidia GeForce Release 314.09 (Beta) für GTX Titan

Nvidia GeForce Release 314.07 für GTX 680 und 690

AMD Catalyst 13.2 (Beta 5) für Radeon HD 7970 GHz Edition

Gleich zu Beginn stolperten wir über ein ärgerliches Problem, denn unser Gigabyte-Mainboard X79S-UP5-WiFi erwies sich schnell als inkompatibel mit der Titan. Weder Nvidia noch Gigabyte konnten uns eine Erklärung dafür liefern, warum die Grafikkarte partout kein Signal ausgeben wollte, während das System ansonsten völlig normal zu booten schien.

Jedenfalls ersetzen wir das Gigabyte-Board durch Intels DX79SR, und damit war das Problem behoben. Anschießend übertakteten wir unseren Core i7-3970X auf 4,5 GHz, rüsteten unser System mit 32 GB DDR3-1600-Speicher von G.Skill aus und installierten alle Anwendungen auf einer 256 GB großen m4-SSD von Crucial, um so viele Flaschenhälse wie möglich zu vermeiden.

Eines muss man allerdings bei GPU Boost 2.0 im Hinterkopf behalten: Weil dieses Feature sich nun an der Temperatur orientiert, reagiert sie sehr empfindlich auf äußere Einflüsse. Wir beobachteten, wie sich GPU Boost 2.0 in verschiedenen Spielen verhielt und stellten fest, dass die Taktrate meist bei 993 MHz blieb. Erlaubten wir mehr thermischen Spielraum, erreichte die Karte sogar mühelos 1,1 GHz. Es liegt also auf der Hand, dass die Unterschiede zwischen einem Benchmark mit einer “kalten” GPU, die auf bis zu 1,1 GHz hochtaktet, und einem heißen Chip in einem warmen Raum signifikant ausfallen. Deshalb achteten wir penibel darauf, dass die Umgebungstemperatur im Testlabor konstant 23° Celsius betrug und nahmen unsere Messungen stets erst nach durch, nachdem die Karte den Benchmark zunächst einmal “zum Aufwärmen” absolviert hatte.

Benchmarks und Einstellungen
Battlefield 3
Ultra Quality Preset, V-Sync off, 1920x1080 / 2560x1600 / 5760x1200, DirectX 11, Going Hunting, 90-Second playback, Fraps
Far Cry 3
Ultra Quality Preset, DirectX 11, V-Sync off, 1920x1080 / 2560x1600 / 5760x1200, Custom Run-Through, 50-Second playback, Fraps
Borderlands 2
Highest-Quality Settings, PhysX Low, 16x Anisotropic Filtering, 1920x1080 / 2560x1600 / 5760x1200, Custom Run-Through, Fraps
Hitman: Absolution
Ultra Quality Preset, 2x MSAA, 1920x1080 / 2560x1600 / 5760x1200, Built-In Benchmark Sequence
The Elder Scrolls V: Skyrim
Ultra Quality Preset, FXAA Enabled, 1920x1080 / 2560x1600 / 5760x1200, Custom Run-Through, 25-Second playback, Fraps
3DMark
Fire Strike Benchmark
World of Warcraft: Mists of Pandaria
Ultra Quality Settings, 8x MSAA, Mists of Pandaria Flight Points, 1920x1200 / 2560x1600 / 5760x1200, Fraps, DirectX 11 Rendering, x64 Client
SiSoftware Sandra 2013 Professional
Sandra Tech Support (Engineer) 2013.SP1, GP Processing, Cryptography, Video Shader, and Video Bandwidth Modules
Corel WinZip 17
2.1 GB Folder, OpenCL Vs. CPU Compression
LuxMark 2.0
64-bit Binary, Version 2.0, Room Scene
Adobe Photoshop CS6
Scripted Filter Test, OpenCL Enabled, 16 MB TIF

Mit insgesamt vier Dell-Monitoren, einem 3007WFP und drei U2410, war es uns möglich, unseren Benchmarkparcours in den Auflösungen 1920x1080, 2560x1600 und 5760x1200 auszuführen. Bislang hätten wir dann einfach die durchschnittlichen Bildraten bei verschiedenen Auflösungen mit und ohne Kantenglättung präsentiert. Die durchschnittlichen FPS sind auch nach wie vor ein guter Anhaltspunkt, wenn man die Performance darstellen will, zumal man damit ziemlich einfache Vergleiche anstellen kann. Deshalb bleiben uns diese Charts auch weiterhin erhalten. Allerdings bleibt dabei auch eine Menge wichtiger Informationen auf der Strecke. Deshalb kommen Verlaufsdiagramme dazu, an denen wir ablesen können, wie sich die Framerate während des Benchmarks entwickelt und wie lange eine Karte sich im flüssigen oder unspielbaren Bereich befindet. Abgerundet wird die Betrachtung dadurch, dass wir die Verzögerung zwischen zwei aufeinanderfolgenden Frames messen. Ist dieser Wert zu hoch, dann kann sich das Spiel auch dann noch “ruckelig” anfühlen, wenn die Framerate eigentlich in an sich spielbaren Bereichen liegt. Deshalb errechnen wir zwei Größen, nämlich das 75. und das 95. Perzentil. Diese geben wieder, wie hoch die Verzögerung zwischen zwei aufeinanderfolgenden Frames 75 bzw. 95 Prozent der Zeit ausfällt.

Die drei Diagramme ergänzen sich gegenseitig, sodass wir am Ende nicht nur erkennen können, wie viele Bilder eine bestimmte Karte pro Sekunde an den Bildschirm liefern kann, sondern auch, wie gleichmäßig dies geschieht. Die gute Nachricht ist, dass wir überzeugt sind, mit dieser Kombination eine ziemlich aussagekräftige Analyse zu liefern. Einen Nebeneffekt hat diese Gründlichkeit aber, denn wo wir bislang in jedem Spiel mit nur einem Chart pro Auflösung auskamen, sind es nun in jedem Spiel drei Charts pro Auflösung - die Auswertung fällt entsprechend umfangreich aus. Wir werden uns größte Mühe geben, im Laufe des Artikels genauer zu erklären, was  die jeweiligen Informationen bedeuten.

26 Kommentare anzeigen.
Sortieren nach: Neueste zuerst | Älteste zuerst
  • theo371 , 21. Februar 2013 15:27
    Findet ihr es nicht ein wenig lächerlich die hohe Lautstärke des Referenzdesigns der 7970 zu bemängeln, obwohl es so viele gute und leise Lösungen der einzelnen Grafikkartenhersteller gibt?

    Wenn ich keine Ahnung hätte würde ich glauben, dass ALLE 7970 laut sind, obwohl nur das Referenzdesign nicht gelungen ist.

    Und das ihr diesen Unsinn auch noch immer und immer wieder nennt, lässt bei mir einen üblen Nachgeschmack aufkommen.
  • FormatC , 21. Februar 2013 15:38
    Darum geht es nicht. Auch die GTX 680, 690 und Titan liegen im Referenzdesign vor. Was die Boardpartner dann (vielleicht) besser lösen, gehört in den Herstellervergleich nicht rein.
  • oswin , 21. Februar 2013 15:47
    besser wäre es mal schön die anderen custom design garten zu testen und darauf aufmerksam zu machen das es auch andere kühllösungen gibt.. vor allem solche die auch nicht wirklich viel teurer sind als das ref design das ist bei nvidia karten genauso..

    überall werden immer wieder die ref designs hervorgebracht und man tut so als würde es nichts anderes geben.. wenn ich mir mal die online shops angucke sehe ich da nicht allzu viele ref design sondern die hersteller haben dual fan oder triple fan designs..

    natürlich kann man nicht alles aufzählen aber ein gesonderter test als link oder wengstens ein kommentar wäre nicht schlecht :) 

    mal was anderes:
    auch würd ich mal test sehen bei dem der gleiche kühler bei nv und amd getestet wird es gibt doch diverse custom kühler zum selber montieren als extremfall z.b. der ekl peter das würde zeigen welche architektur wirklich kühler ist bei gleichen bedingungen.. ein interesanter test wäre es allemal ..
  • avaka , 21. Februar 2013 15:53
    Ein schönes Stück Technik über das man gerne liest, das ist für mich die Geforce TITAN. Ich zuck die Schultern, glotz mal kurz auf mein GTX560TI SLI-Gespann und stelle fest das mir nix fehlt, selbst nach 2 Jahren nicht.
    Für den Normalsterblichen absolut uninteressant das Teil, weil keine Sau soviel Power braucht (zum Spielen).
    Ich finde wohl die dynamische Taktregelung über Temperatur sehr interessant. Nen Wasserkühler draufgespaxt und dann mal sehen was so geht bei 50°C Chiptemperatur.
  • benkraft , 21. Februar 2013 16:22
    @theo371 und oswin - Ihr habt schon zum Teil Recht, aber oswin zeigt auch gleich das Problem auf. Zum einen standen uns in diesem Fall bei der GTX Titan nur die Referenzkarten zur Verfügung. Zum anderen stellt sich einfach die Frage, welche Karte man auswählt, wenn es *nicht* Referenzdesign sein soll. Welche Kriterien legt man an? Besonders leise ohne Rücksicht auf den Preis? Preisliches Mittelfeld, aber dann auch kein besonders leises Gerät? Bekommt man ähnliche Vertreter auch von den anderen Karten im Testfeld? Was darf man denn dann fair nennen?

    Das ist halt das Problem. Und so bleibt uns als "sauberster" Weg, die Referenzkarten der Hersteller zu nehmen - denn damit bevorzugen wir niemanden, und es liegt am Hersteller, wie gut er sich darstellt.

    Für den Test verschiedener Kühllösungen gibt es ja dann die Einzel- und Vergleichstest. Und wer Kollege Wallosseks Artikel im vergangenen Jahr verfolgt hat, der weiß, dass er ein Freund individueller und vor allem leiser Kühllösungen ist. ;) 
  • Snapdragon , 21. Februar 2013 17:51
    Bitte bitte schreibt eine Gleichung hin, wie ihr das 75. und das 95. Percentil ausgerechnet habt.
    Ein Gleichung sagt einfach mehr aus, also viele Worte (bestes Beispiel ist die Transmission eines Fabry-Perot-Interferometers: da kann man versuchen die Spitzen zu erklären, oder aber einfach die Transmission herleiten. Und bei letzterem versteht man den Sachverhalt erst wirklich).
    Wenn ihr die Gleichung nicht nachtragen wollt, dann sagt sie mir bitte hier in den Kommentaren.

    Noch eine Anmerkung:
    Zitat :
    Wir halten es für sehr unwahrscheinlich, dass die auf 4,6 GHz übertaktete Sechskern-Maschine, die wir zum Testen nutzten, den Bremsklotz darstellt

    (in Benchmarks: Drei- und Vier-Wege-SLI)

    :D  Man mag es sich einfach nicht vorstellen.
    Aber um sauber zu arbeiten, müsstet ihr das überprüfen. Das sollte allerdings auch zu euren leichtesten Aufgaben zählen, denn um das zu überprüfen müsst ihr nur den CPU-Takt verändern, und schauen, ob sich auch die FPS verändern.
    Könntet ihr das noch nach reichen, oder habt ihr das System gar nicht mehr?
  • Lukas Auchter , 21. Februar 2013 19:56
    Die Framdrops bei der niedere Auflösung kommen vllt daher, dass die Grafikkarten total unterfordert sind mit WoW ... hatte das mit meiner GTX570..die taktet dann munter ins 2D Profil mit 400MHZ GPU und 300 MHz am Speicher und obwohl 40 FPS dranstanden war die Bildausgabe mehr als laggy
  • eple , 21. Februar 2013 23:24
    Juhhuu Ich bin so Glücklich, meine GTX 690 ist immernoch die Coolste auf der welt. :) 
  • da_mobi , 22. Februar 2013 12:07
    Drei GTX Titan sind einfach totaler Overkill aber – leider geil.


    Der kommentar ist, wie soll mans anders sagen, leider geil ! :D 
  • Faboan , 22. Februar 2013 15:52
    diese karte ist wirklich nur was für die die mehr als 2 karten kaufen.
    einfach um die schnellsten zu sein.
    zu dem preis damit (leider) ein absolutes nischen bzw vorführmodell.
    nicht ernst zu nehmen.
  • FormatC , 22. Februar 2013 19:18
    Nachdem meine GTX 680 bei Crysis 3 mit lächerlichen 22 fps bei 4x TXAA verreckt ist, eine gute Alternative...
  • 7664stefan , 22. Februar 2013 20:09
    Naja, dann schafft die Titan wohl 30 FPS, oder Igor? Das klingt noch immer nicht nach Spaß. Da wäre dann ja sogar die 690 die bessere Wahl (das ich das jemals schreiben würde, hätte ich auch nicht gedacht).
    Noch attraktiver sind wohl 2 7970er.
  • FormatC , 22. Februar 2013 21:50
    Mickrige 30 fps sind auch eine Qual. :( 

    Schaun wir mal, wie sich ab nächste Woche Titan so im Alltag und in der Workstation schlägt. Mit Crysis 3 bin ich fertig :D 
  • derGhostrider , 23. Februar 2013 08:55
    Also ich finde die Titan zur Zeit einfach noch zu teuer für die gebotene Grafikleistung. Die Hardware ist sicherlich nicht billig in der Herstellung, aber was letztendlich zählt, das ist das Ergebnis auf dem Monitor. Die Ergebnisse sind wirklich gut, aber leider nicht überragend gut.
    In jeder anderen Beziehung steht sie bei mir gerade recht weit oben auf der Wunschliste: Nicht zu laut, keine merkwürdigen Spitzen bei den Frame-Latenzen wie die 690 oder GHz-Ed.

    Alles, was deutlich über 8ms, also sogar eher in die Richtung von 16 ms oder mehr geht, ist für'n Po: Man mag es bei 8 ms vielleicht noch nicht durch massive Ruckler merken, aber wenn sich eine dual-chip Karte 16 ms Zeit lässt, dann bräuchte sie auch nicht mehr als 60FPS berechnen. Oder anders: Es werden dann wohl zwei Frames direkt hintereinander rausgehauen, nur um dann wieder eine Pause einzulegen. Das lässt Frameraten hoch erscheinen, effektiv kommt am Monitor aber nur die Hälfte an. Kein Wunder, daß es da zu Rucklern kommt.
    In all den Fällen, bei denen die Latenz über 16 ms liegt, fällt die tatsächliche Framerate doch kurzzeitig auf 30 Hz: Ein Bildschirmaufbau dauert 16,6 ms. Wenn dann, mit aktiviertem V-Sync, kein neues Bild im Puffer liegt, wird das alte nochmal angezeigt. Defakto hat man also 33ms lang das gleiche Bild auf dem Bildschirm, auch wenn sich danach die Graka überschlägt und 3 Bilder nachreicht: Wirkungslos.
    Ohne V-Sync ist man dann vielleicht besser dran, aber selbst dann würden ja nicht alle Bilder angezeigt.
    Solange die Grakas nicht einheitlich die Bilder rausprügeln, braucht man nicht auf die Frameraten zu schauen.
    Darum liegt für mich in diesem Test die Titan auch in den meisten Benchmarks vorn. Zumal man ja auch noch überlegen müsste, wie im Artikel gesagt, an welcher Stelle nun überhaupt die Zeitmessung stattfindet.
    Wär' ja mal toll, wenn die Graka einen speziellen Pin dafür hätte, der signalisiert, wenn ein Buffer geschrieben wurde. Oder Lo = Buffer idle, Hi = es wird in den Buffer geschrieben. Da man zwei dieser Puffer hat, wären 3 (6, differentiell) Pins optimal: Buffer1, Buffer2 und Buffer-Flip.
    Zusatz: Ohne V-Sync bräuchte man noch einen Ausgang, da dann kein Flip stattfindet und unter Umständen permanent geschrieben wird.
    Dann könnte man mit einem Oszilloskop nachmessen, wie hoch die Framerate auf der Ausgabeseite wirklich ist, man könnte sich anschauen, ob die Framerate konstant gehalten wird oder ob z.B. Frames direkt hintereinander in die Puffer geschaufelt werden. Ohne Software beschränkungen und ohne auf Renderpfade zurückgreifen zu müssen. Man würde nichtmal durch eine "Messsoftware" das System selbst beeinflussen...
    Könntet ihr das mal als Empfehlung an AMD und NVidia schicken? Einfach, damit ihr Software-Unhabhängig und Renderpfad-Unhabhängig messen könnt? So ein kleiner Header auf dem PCB kostet doch höchstens 2 cent.
  • ZeroCool10 , 24. Februar 2013 13:53
    also ich frage mich ob bei den Tests auf die Archtiktektur eingegangen wird oder nicht , sprich ob opencl auf die Grafikkarten optimiert wird oder nicht
  • benkraft , 25. Februar 2013 16:25
    Zitat :
    also ich frage mich ob bei den Tests auf die Archtiktektur eingegangen wird oder nicht , sprich ob opencl auf die Grafikkarten optimiert wird oder nicht


    OpenCL ist ein offener Standard. Es liegt an den jeweiligen Herstellern, ihre Treiber entsprechend für den Einsatz mit diesem Standard zu optimieren. Wie gut das gelingt, zeigt beispielsweise der Vergleich der rohen Leistungsdaten (dem theoretischen Maximum) mit den gemessenen Werten, wobei dort wiederum ein gewisser Overhead berücksichtigt werden muss.

    Wir planen aktuell, noch einen sehr viel detaillierteren Blick auf Themen wie die Rechenleistung, OpenCL und GPGPU zu werfen; das war leider im Vorfeld der Präsentation nicht möglich.

    Aber das ist mal eine gute Gelegenheit nach Anregungen zu fragen: Was für Tests würdet ihr in einem solchen Artikel gern sehen? Gibt es Lieblingsanwendungen oder aus eurer Sicht "GAU-Szenarien", die dabei sein sollten?
  • benkraft , 25. Februar 2013 16:33
    Zitat :
    Bitte bitte schreibt eine Gleichung hin, wie ihr das 75. und das 95. Percentil ausgerechnet habt.
    Ein Gleichung sagt einfach mehr aus, also viele Worte (bestes Beispiel ist die Transmission eines Fabry-Perot-Interferometers: da kann man versuchen die Spitzen zu erklären, oder aber einfach die Transmission herleiten. Und bei letzterem versteht man den Sachverhalt erst wirklich).
    Wenn ihr die Gleichung nicht nachtragen wollt, dann sagt sie mir bitte hier in den Kommentaren.

    Noch eine Anmerkung:
    Zitat :
    Wir halten es für sehr unwahrscheinlich, dass die auf 4,6 GHz übertaktete Sechskern-Maschine, die wir zum Testen nutzten, den Bremsklotz darstellt

    (in Benchmarks: Drei- und Vier-Wege-SLI)

    :D  Man mag es sich einfach nicht vorstellen.
    Aber um sauber zu arbeiten, müsstet ihr das überprüfen. Das sollte allerdings auch zu euren leichtesten Aufgaben zählen, denn um das zu überprüfen müsst ihr nur den CPU-Takt verändern, und schauen, ob sich auch die FPS verändern.
    Könntet ihr das noch nach reichen, oder habt ihr das System gar nicht mehr?

    Zitat :

    Ich glaube, du machst dir die Betrachtung der Perzentile zu schwer. Ich zitiere am besten einfach mal Chris selbst:
    The third chart measures the lag between consecutive frames. When this number is high, even if your average frame rate is solid, you’re more likely to “feel” jittery gameplay. So, we’re calculating the average time difference, the 75th percentile (the longest lag between consecutive frames 75 percent of the time), and the 95th percentile.


    Ich hoffe, das beantwortet die Frage zum Teil?

    Zur CPU-Limitierung: Ich habe das Feedback weiter gegeben. Chris wird sich daran versuchen, ist sich aber sehr, sehr sicher, dass es nicht an der CPU lag. Dazu kommt noch, dass Nvidia ebenfalls dieser Meinung ist, und die haben einen ziemlich umfangreichen Fundus an Hardware. Aber insofern hast du Recht: Um völlig akkurat zu sein, müssten wir das prüfen.
  • ZeroCool10 , 25. Februar 2013 17:46
    Zitat :
    OpenCL ist ein offener Standard. Es liegt an den jeweiligen Herstellern, ihre Treiber entsprechend für den Einsatz mit diesem Standard zu optimieren. Wie gut das gelingt, zeigt beispielsweise der Vergleich der rohen Leistungsdaten (dem theoretischen Maximum) mit den gemessenen Werten, wobei dort wiederum ein gewisser Overhead berücksichtigt werden muss.


    naja CUDA unterstützt z.B. Constant Memories sprich nur Lesen von Variabeln(und Pointer) , gibt es auch in OpenCL,die Frage ist eigentlich wie sehr sich diese Unterscheiden und wie weit der Unterschied in der Performance ist weil man sehr viel an Bandbreite einspart

    naja,OpenCL ist sicher schneller auf ATI Karten als auf Nvidia Karten , ich habe mir selber eine Nvidia Karten gekauft weil ich mit OpenCL ist der Version nicht antun wollte,beide Standards machen im Prinzip das gleich obwohl sich diese im Handling sehr stark unterscheiden , CUDA beherrscht den C und C++ Standard und man kann daher auch Klassen erstellen was in OpenCL nicht geht, ist für viele Anwendung sehr wichtig und macht die Sache erheblich leichter , wie soll man eine Particle Simulation schreiben, wenn man sich schon schwer tut ein Particle überhaupt zu definieren


    Zitat :
    Wir planen aktuell, noch einen sehr viel detaillierteren Blick auf Themen wie die Rechenleistung, OpenCL und GPGPU zu werfen; das war leider im Vorfeld der Präsentation nicht möglich.

    Aber das ist mal eine gute Gelegenheit nach Anregungen zu fragen: Was für Tests würdet ihr in einem solchen Artikel gern sehen? Gibt es Lieblingsanwendungen oder aus eurer Sicht "GAU-Szenarien", die dabei sein sollten?


    naja bei Bildbearbeitung unter anderem geht es im Grunde um reinen Datendurchsatz also mehr oder weniger um Bandbreite , in vielen Foren steht ja quasi das die Kerne von AMD nicht so komplex ausgeprägt sind wie die von Nvidia,daher ist es irgendwie ersichtlich ,dass AMD im Vorteil ist bei Bildbearbeitung viele Threads die sich wie bei einem Bild wirklich jeden Pixel berchnen können,Nvidia z.B. hat dafür komplexere Kernen oder Threads die ebene schwierigere Aufgaben erledigen können , wie oben beschrieben ist es relativ einfach mit OpenCL Bildbearbeitung zu betreiben vorallem die Kernel Funktion wird relativ einfach dafür sein , man wird auch keine Klassen brauchen ,sonderen einfach jeden Pixel ansprechen , die Frage im Grunde ist was passiert wenn man die komplexitiät des Problemes und kann man mit OpenCL das überhaupt so einfach/noch lösen ?

    Hier gibt es z.B. ein Chart wo zeigt wie FFT auf CUDA anspricht , nämlich sehr gut
    http://www.hpcwire.com/hpcwire/2012-02-28/opencl_gains_ground_on_cuda.html

    mfg
  • ZeroCool10 , 25. Februar 2013 18:12
    Sorry
    Zitat :
    Grunde ist was passiert wenn man die komplexitiät des Problemes und kann man mit OpenCL das überhaupt so einfach/noch lösen ?


    Grunde ist was passiert wenn man die Komplexitiät des Problemes erhöht und kann man das mit OpenCL überhaupt so einfach/noch lösen ?
  • FormatC , 25. Februar 2013 20:38
    http://www3.informatik.uni-erlangen.de/Lehre/MultiPro/Modul/gpu_slides.pdf

    Cuda und OpenCL nehmen sich nicht mal so sehr viel. Es gibt genügend C++-Wrapper, um das Ganze recht entspannt auch unter OpenCL umzusetzen. Allerdings scheint mir, Nvidia würde die OpenCL-Implementierung (zumindest teilweise) im Treiber erst auf Cuda umbrechen, was natürlich Leistung kosten würde. Absicht oder Bequemlichkeit? Gute Frage...
Alle Kommentare anzeigen
Ihre Reaktion auf diesen Artikel