Anmelden mit
Registrieren | Anmelden

Benchmarks: Anwendungen

AMD Fusion: Brazos-Preview: Teil 2 – Performance
Von , Benjamin Kraft

Wir haben unseren Photoshop-Benchmark für die CS5-Version angepasst, auch wenn sich die Ergebnisse unseres Test-Szenarios, dass mehrere Filter und Threads einsetzt, nicht groß verändern. Die Tests profitieren von möglichst vielen Prozessorkernen, weshalb es uns auch nicht überrascht hat, dass der K125 hier hinter die Konkurrenz zurückfällt.

WinRAR kommt mit der Dual-Core Bobcat-Architektur offenbar nicht so gut zurecht. Intel ist in diesem Test deutlich im Vorteil.

Die Norton-Produkte von Symantec trifft man praktisch überall an, weshalb wir die Internet Security-Suite für einen Test heranziehen. Die Ergebnisse spiegeln jene aus dem WinRAR-Benchmark wider, wobei der K125 und der D525 dieses Mal die hinteren Plätze tauschen. Obwohl die Suite mehrere Threads nutzen kann, liegt die Architektur des K125 im Vergleich zu den Atom Dual-Cores mit Hyper-Threading im Vorteil.

Auch Dragon NaturallySpeaking 11 ist eine beliebte Mainstream-Anwendung und deshalb mit von der Partie. Die Funktion „Transcribe From Audio Recording“ kann teilweise mehrere Threads einsetzen, reagiert allerdings auch sensibel auf Taktraten, weshalb der K125 hier vor den ULV-Prozessoren liegt.

Insgesamt kann der E-350 Intels Core 2 Duo SU7300 gut die Stirn bieten - und genau den hat sich AMD als Messlatte ausgesucht.

Alle 42 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • noskill , 25. November 2010 09:36
    Also wenn das Ding bei euch aus irgend einem Grund nicht runtertaktet, dann wird der auch nicht in die C3/C4 States gegangen sein und dann ist es klar, dass der noch soviel verbraucht.
    Ausserdem wäre es schön gewesen, etwas genauer zu beschreiben, wie ihr gemessen habt, denn in der Brazos Preview von Anandtech war die Leistungsaufnahme durchweg niedriger. ;-)
  • benkraft , 25. November 2010 11:04
    Ich habe Andrew dazu mal befragt. Er sagte, wir seien die einzigen gewesen, die mit einem (selbst gebastelten) Akku gemessen haben, während alle anderen die Leistungsaufnahme an der Steckdose gemessen haben.
    Der Stromverbrauch wurde als Durchschnittswert im Laufe einer Stunde während aktiver Nutzung gemessen. Davon waren 35 Minuten die Wiedergabe eines YouTube Videos bei 360p im IE8 und 25 Minuten Browsen auf Seiten wie cnn, wiki, weather.com, amazon.com.
    Außerdem gab es noch einen Anteil Wikipedia-Lesen und parallel Tippen (ca. 45 Worte pro Minute).
    Andrew legt Wert darauf festzustellen, dass alle anderen also einen Schnappschuss bei der Leistungsaufnahme gemacht haben, während er einen praxisnahen Test durchgeführt hat, der nicht gescriptet war und mehr als nur eine Momentaufnahme darstellt.
  • derGhostrider , 25. November 2010 12:26
    Zitat :
    Für einen etwas genaueren Blick haben wir die folgenden Prozessor-Aufnahmen ohne Kühlkörper ungefähr 45 Sekunden nach dem Booten gemacht.


    Das ist nicht ernst gemeint, oder?
  • benkraft , 25. November 2010 12:33
    "In order to look at things more closely, we took the following pictures of the processors unshielded roughly ~45 seconds after booting."
    http://www.tomshardware.com/reviews/amd-fusion-brazos-performance,2790-2.html

    Das wird schon alles nicht gleich durchbrennen. Ist doch kein Athlon XP ;) 
  • noskill , 25. November 2010 12:50
    Also der Stromaufnahme traue ich trotzdem nicht.
    Selbst mein Netbook mit AMD Neo X2 L335 in 65nm und mit stromfressenden DDR2 Speicher verbraucht im Idle (Wlan aus und minimale Helligkeit) nur 11W (untervoltet und powertop drübergejagt) und maximal 24W wenn Flash läuft und die CPU aus dem letzten Loch pustet.
    Da wird der E-350, der in 45nm gefertigt ist, exzessives Powergating nutzt und eine stark entschlackte CPU hat, deutlich drunter gehen.
    Wir müssen uns also weiter gedulden, bis endlich irgendwann die ersten fertigen Netbooks mit Bobcat zum Test verfügbar sind. *ungeduldigwerd*
  • derGhostrider , 25. November 2010 13:59
    @Benkraft:
    Nunja, ich bezweifel nicht, daß es im Original ebenso begründet wurde, sinnfrei und riskant ist diese Betrachtung trotzdem.

    Nur, weil ein Hotspot eine höhere Temperatur erreicht, kann man keine Aussage über die Verlustleistung oder gesamte abgegebene Wärmemenge treffen. Dafür müsste man wohl über die Temperaturverteilung an der Oberfläche integrieren und ich bezweifel mal, daß das getan wurde. Zudem sehe ich nichtmal, daß die Die-Größen in Relation gesetzt wurden. Davon abgesehen ist beim E350 die Temp-Verteilung wesentlich ungleichmäßiger, sprich: Die großen grün eingefärbten Bereiche sind kühler (Skala am Rand beachten), als die großen gelb eingefärbten Bereiche beim D525.
    Wieso man aus einem solchen Bild also die Schlußfolgerung zieht, daß der E350 mehr Wärme abgeben würde, ist nicht ersichtlich. Es wurde wohl von der höchsten Temperatur im Bild gleich auf den ganzen Chip geschlossen.

    Man könnte mit diesen Aufnahmen Hotspots nachweisen. Man könnte anhand einiger der festgehaltenen Temperaturen eine Funktion für die Wärmeverteilung aufstellen und dann über die Fläche integrieren.

    Man kann (und sollte) aber nicht einfach solch eine Behauptung in den Raum werfen und sie mit diesen bunten Bildern begründen. Das ist einfach Käse. Dann doch lieber über die Elektrische Leistung argumentieren, da diese recht gut in Wärme umgewandelt wird. Damit wird man brauchbarere Ergebnisse erzielen.
    Schon alleine deswegen, da man das Mainboard in die Wärmeleitfähigkeit nicht einbeziehen muß. ;) 

    ----

    Und zum Inhaltlichen:
    Irgendwie Produziert AMD da mit einem riesen Aufwand ein Produkt für eine recht begrenzte Marktnische. ULV-CPUs sind nicht bei den Usern vermehrt vertreten, die damit zocken wollen. Grafikleistung ist für die User eher zweitrangig. Eine potente 2D-Lösung mit grundlegender 3D-Funktionalität, eventuell sogar in Richtung einer "schwachen FireGL" wäre für diesen Einsatzbereich irgendwie einfach zu vertreten, als ein DX-Monster an einer schwächelnden CPU.
    Hinzugenommen die häufig fehlende Unterstützung von Entwicklern seitsns AMD - da sehe ich noch kein großes Potential in der Technik. Leider.

    AMD würde ich mal wieder einen neuen Opteron / Athlon64 wünschen. Sie hätten es nötig.
  • noskill , 25. November 2010 14:25
    @derGhostrider

    Das ist ein Netbook-APU, die voll auf den Standard OpenCL ausgelegt ist, der gerade im Kommen ist.
    Der x86 Teil dient eigentlich nur dafür, damit der Nutzer weiterhin seine x86 Programme und Betriebssysteme nutzen kann, während der GPU Teil mit seiner massiven Leistung über OpenCL dann die Berechnungen mit höherer Effektivität und Effizienz als jede aktuelle x86 CPU durchführen kann.
    Es wird also die vom Design her eingeschränkte x86 CPU auf ein minimalen und möglichst stromsparenden Teil reduziert, während der GPU Teil dann die eigentliche Computing Performance bereitstellt.
  • bluray , 25. November 2010 14:29
    Zitat :
    AMD würde ich mal wieder einen neuen Opteron / Athlon64 wünschen. Sie hätten es nötig.


    Warum? Die aktuellen X4 und X6 kommen ja auch in entsprechenden Variationen, bis hin zu ULV-CPUs. die Phenoms sind ja die Erben der damaligen Athlon64er und die Opterons gibt's ja noch heute und in reichlicher Konfigurationsvielfalt. Spätestens mit den neuen Magny-Cours in der Opteron-Serie wirds speziell auf dem Servermarkt wieder entsprechend interessant, sollen die Magny-Cours über echte 12 Kerne verfügen und nicht, wie Intel es mit seinen Xeons macht, über 6 Hypergethradete Kerne. der Usermarkt und der Enthusiastmarkt wird mit den Phenom X3,X4 und X6 aus meiner Sicht ausreichend gut bedient.

    Was AMD allerdings machen könnte, wäre auch endlich mal Tri-Channel-RAM-Support einzuführen. Mich würde dann interessieren, wie sich ein 1090T zu einem 980X verhält.
  • drno , 25. November 2010 15:34
    @blueray
    Frage: Klär mich mal bitte auf. Welche Vorteile liegen im Dreichannel RAM? Die Paarigen in der Intel Mittelklasse waren im Speicherdurchsatz m.Ea vielleicht sogar besser als das TRI-Pack. Oder täusche ich mich da? Oder gibts im Dreikanal noch entwicklungsmäßige Schätze zu heben?
  • modena , 25. November 2010 19:11
    Der Tripplechannel würde einem X6 kaum was bringen ausser mehr Verlustleistung im Memorycontr. Die AMD's sind nicht gar so auf Bandbreite angewiesen wie die aktuellen Inteldesigns.
    Die Stars Architektur profitiert sehr viel stärker von besseren Latenzen als von mehr Bandbreite...

    Das dürfte sich allerdings wohl mit Bulldozer ändern.
  • derGhostrider , 25. November 2010 19:47
    @noskill:
    OpenCL ist ist gerade im Kommen? Sehe ich bisher nicht. Die einzigen Ankündigungen dieser Richtung habe ich bisher von AMD-Seiten gehört. Und da sind sie bisher auch geblieben. Ein solches "Feature" ist ganz nett, wenn es nicht durch andere Nachteile eingekauft wird.

    ---

    @bluray:
    Xeons gibt es auch mit 8 Kernen. Davon abgesehen mußt Du die Rechenleistung pro Kern betrachten. Die 4-Kern Xeons sind (leider?) bedeutend schneller als die 6-Kern AMDs. Ist so. Nicht nur pro Kern, sondern auch insgesamt.
    Was helfen mir da 2 zusätzliche "echte" Kerne, wenn die Leistung trotzdem nicht reicht?
    Zudem ist Intel auch in den Virtualisierungslösungen, so wie sie in die Hardware eingebracht sind, defacto führend.
    VT-x, VT-d, VT-d(2), VT-c... Für SLI-Multi-OS zwingend erforderlich.

    Was hat AMD gegen die großen Xeons anzubieten? Sehe da irgendwie nicht sooo viel. Die Argumentation geht für mich zu schon zu lange und zu verkrampft in Richtung: "Die Verlustleistung pro Kern ist aber toll!".

    Als die ersten Opterons recht neu am Markt waren, da waren sie nicht nur effizienter pro Kern, sie waren auch insgesamt leistungsfähiger, boten die größere Speicherbandbreite und hatten die geringere Verlustleistung.
    Bis auf einige Ausnahmeanwendungen, die einfach nur mit dem CPU-Takt skalierten, lagen die CPUs also fast überall vorn.
    Soetwas hat AMD jetzt nicht zu bieten. In keinem Sektor. Und das schon seit Jahren.


    Woran man auch sieht, daß AMD direkte Vergleiche scheut, sind die auf der eigenen Homepage bereitgestellten Benchmarks. Habe da gerade ein Bild, bei dem AMD 344% der Leistungsfähigkeit erreichen will.

    Unten drunter dann die Auflistungen der vergleichten Systeme:
    Zitat :
    ...using 2 x Intel Xeon processors Model X5570 in Dell PowerEdge R710 server, 24GB (6 x 4GB DDR3-1333) memory...
    ...4 x AMD Opteron™ processors Model 6136 in “Drachma” reference design kit, 64GB (16 x 4GB DDR3-1333) memory...

    2x quadcore Intel gegen 4x octa-core AMD.

    Also 8 Kerne gegen 32 Kerne, wobei die 32 Kerne auch noch ein Vielfaches an RAM zur Seite gestellt bekommen. Obendrein natürlich nicht die neueren Westmere Xeons, sondern noch die Nehalems.
    Quelle: http://www.amd.com/us/products/server/benchmarks/Pages/high-perf-linpack-value-four-socket-two-socket-server.aspx

    Ein sehr trauriger Vergleich.

    Die Benchmarks von www.spec.org zeigen ebenfalls Ergebnisse die überhaupt nicht zu den Graphen auf der AMD Webseite passen.

    -> http://www.spec.org/cpu2006/results/cfp2006.html
    Es gibt zwei Opteron-basierte Systeme, die einen PEAK-Wert von 30 überschreiten.
    Sun Fire X6240 (AMD Opteron 2439 SE 2.8GHz): 27.0 / 30.3
    Sun Fire X6440 (AMD Opteron 8435 2.6GHz): 27.7 / 30.8

    Ungefähr jedes System mit Intel X56xx liefert einen höheren BASE-Wert als die AMD-Konkurrenz im Peak!
    Spitzenreiter "Sun Blade X6270 M2 (Intel Xeon X5680 3.33GHz)" - Base: 56.5, Peak 60.5.

    Auch die auf der AMD-Seite angegebenen Vergleiche beim Specfp_rate sind so vorgenommen worden, daß es irgendwie nicht so recht zur Situation passt. Es gibt halt reihenweise Intel-Systeme, die bei vergleichbarer Systemgröße weit vorne liegen. Also weit vor den AMD-Systemen.
    Zwei 6-Kern X5680er: 256 Peak. Eine CPU: 131. Zwei Opteron 8439SE (6-Kern): 146 peak.
    Aber, wenn man halt gezielt den X7460 heranzieht, also die einzige CPU von Intel, die erstaunlich langsam in diesem Benchmark ist, dann ist das vielleicht auch kein Wunder.

    Man entschuldige diesen langen Exkurs mit den Benchmarks und Links um die Aussagen zu belegen, aber worauf ich hinaus will:
    Man zeige mir die glaubwürdigen Benchmarks, bei denen grob vergleichbare Systeme wirklich einen Vorteil für AMD belegen. Bei Servern sehe ich da gerade keine wirkliche Chance. Es sei denn, daß die Anschaffungskosten der wichtigste Faktor sind.
    Über den Preis reguliert aber immer nur der die Nachfrage nach seinen Produkten, der in der Leistung hinterher hinkt.
  • noskill , 25. November 2010 22:08
    @THG

    Könnt ihr bitte im Test unterstreichen, worauf AMD Fusion ausgerichtet ist, damit diese sinnlosen Vergleiche mit reiner x86 Hardware endlich aufhören.

    @derGhostrider

    Ist es so schwer mal auf Wiki zu gucken, wenn man keine Ahnung von OpenCL und AMD Fusion hat?
    Muss man immer meckern und meinen es besser zu wissen, weil die neue Prozessorstruktur ja bei alten Programmen keine sichbaren Vorteil bringt?

    Man hat den x86 Kern bei Bobcat so extrem entschlackt, um eine energiesparende winzige CPU zu erzielen, die die Verwaltungsaufgaben des ausschließlich auf x86 verfügbaren Windows 7 und anderen x86 basierten BS übernimmt, während Multimediainhalte, Parallelcomputing à la WinRar, Browser, Filmkonvertierungen, Physikberechnung, KI in Spielen und 3D Anwendungen auf dem sehr großzügig und sehr rechenstarken GPU Teil laufen, der sich wohlgemerkt ebenfalls in dieser winzigen maximal 18W aufnehmenden und somit für kleinste Netbooks geeigneten APU befindet.
    Aber wenn du natürlich nur in der Lage bist Zukunfttechnologie mit alter Software zu vergleichen, siehst du die Vorteile nicht.
    Gut, du tankst noch verbleites Mischbenzin und wäscht deine Wäsche mit Urin, wie man es im alten Rom gemacht hat. Aber immerhin ist das Lagerfeuer in deiner Höhle sehr kuschelig. *DAMPFENDUNDWÜTENDWEGSTAMPF*
  • pescA , 26. November 2010 00:28
    noskill das Problem ist, dass AMD immer von Stream erzählt hat und wie toll das ist. Ergebnisse für Endkunden wurden keine geliefert. Nun erzählt AMD wie toll OpenCL ist, aber welches meiner Programme wird das sicher unterstützen? Cuda läuft bereits und funktioniert einfach.
    Also werde ich mir sicher keine solche Lösung kaufen, weil die laut Hersteller irgendwann vorteile bringt. Dann doch lieber ein Tegra2 zu Weihnachten, der kann immerhin 1080p flüssig wiedergeben und braucht dabei max. 250mW!
  • Anonymous , 26. November 2010 08:38
    Zitat :
    Nun erzählt AMD wie toll OpenCL ist, aber welches meiner Programme wird das sicher unterstützen?


    in 2Jahren alle. jede wette


    zu den Wärmebildern. Da hat offenbar jemand ne Wärmebildkamera bekommen und wusste nicht wie er sie intelligent einsetzen kann. So ist das ganze einfach Unfug, von einer Temperatur lässt sich nicht ganz so einfach auf die gesamte Wärmeabgabe schließen. Die Sache mit dem über die Fläche integrieren, außerdem hätte man dann peinlichst genau dafür sorgen müssen, dass es absolut windstill im Raum ist (im Winter fast unmöglich) und zudem stellt booten wohl keinen guten Benchmark zur Leistungsaufnahme dar. Der Ganze Artikel ist abgesehen von den Basic-Infos generell äußerst zweifelhaft, also ich würd auch lieber auf echte Produkttests warten
  • FormatC , 26. November 2010 09:59
    Das Geile ist, OpenCL ist quasi wie CUDA, es basiert ja größtenteils darauf. Und solange der Dritte im Bunde, nämlich Intel, nicht mit mitmarschiert, solange ist und bleibt OpenCL eine Totgeburt. Man könnte ohne große Unterschiede auch gleich CUDA nehmen. Aber da spreizt sich AMD wieder.

    Warum so weit denken:
    Sitzen ein migrierter Türke, ein ebensolcher Libanese und ein Russe gemütlich an einem Tisch in Deutschland und sollen zusammen Deutsch reden. Wird nichts ohne Zwang, lieber schweigen alle drei. :) 
  • acku , 26. November 2010 10:23
    @noskill & @derbene

    You'll have to forgive my German, because it's been a while since I used it, as a result I am going to respond in English. BenKraft asked me to jump in and explain things to everyone curious.

    We didn't get a lot of time to be briefed on the thermal camera, but we took many images from the i3-350M, SU7300, K125, and D525, etc... I chose the one I felt drew the best comparisons rather than post endless stream of thermal images.

    The values were integrated in matlab using custom jacket code. This was not some hack presumption of "good thermal numbers." I rather not have to explain all the numbers because the article would have turned into one about applied math. While I love applied math, this article was about Brazos.

    As for the booting up and the unshielded decision, I think we can all agree that heat emissions are incredibly hard to talk about and compare across the board. If I had done this with the fans and heatsinks still on, then the math would be even harder because we would have to factor in air flow, fan speed, thermal capacity of metals, etc... the list would be endless. We did the testing on a single day in the same air conditioned room at AMD HQ, so for a VERY rough perspective this is valid. As for hot points, I am interested in Brazos/Zacate at a platform level. It really doesn't matter if there are hotpoints or if they correspond to the Bobcat cores, because then, we would be talking about how the CPUs are oriented on the PCB, etc.. etc... Keep in mind that at 60 seconds, thermal protection kicks in and both systems crash. However at 45 seconds, both are booting up fine and are at Windows 7 loading screen without any problems.

    I want to point out that derbene has a generally good point and which is what I would agree with: this is a preview article. Having said that - we talked directly to AMD about our numbers, and they were not surprised. If you want to talk about full load, at a platform level, both AMD's numbers and ours match up... we are looking at a little over 24W.

    AMD biggest Problem has always been a scaling of performance to watt, and Bobcat based APUs presented the right opportunity hit two birds with one stone. So in that vein and since the topic was stressing AMD could do low power, Ontario seemed much more fitting for these reasons. Because Zacate was chosen, you can see how the framework of the conversation has shifted. On Nov 9, I talked about how AMD now needs to frame the discussion away from excess CPU performance to acceptable GPU performance. Anand picked this up for his Nov 16th conclusion as well. If it was Ontario, the AMD argument would be more clear. At 1W greater than Atom and close to the performance of 5450, it would have been a clear win that said AMD could deliver comparable performance to Atom plus give discrete graphics performance with low power.

    I don't want to give the wrong impression. Having said all that, I was very impressed with Zacate. Think of it kind of like a SU7300 + a cut down desktop 5450 with about 1/2 the wattage in a single silicon package shrunk about 50%. The Problem is always an issue of comparison, and that is why I talked about UM Arrandales.

    As for the whole CUDA and OpenCL thing. Chris Angelini and I went over this in an earlier article on THG.
    http://www.tomshardware.com/reviews/sandy-bridge-fusion-nvidia-chipset,2763-6.html


    Happy Thanksgiving from the States,
    Andrew Ku
    TomsHardware.com
  • noskill , 26. November 2010 11:01
    @FormatC

    Man kann nicht CUDA nehmen, weil CUDA proprietär ist, während OpenCL eine OFFENE Schnittstelle für ALLE Plattformen ist, ohne dass NVidia im Nacken sitzt und Lizenzgebühren will.
    Da hat AMD absolut richtig gehandelt und das direkt abgeblockt.
    Und wer glaubt, dass OpenCL eine Totgeburt ist, wenn Intel nicht mitzieht liegt definitiv falsch.
    Wenn Intel da nicht mitzieht, wird Intel sehr bald massiv Marktanteile verlieren, aber das Intel sich gerne verrennt hat man schon mit Larrabee und dem P4 gesehen. Das erste Betriebssystem, das übrigens massiv OpenCL nutzt ist, wer hätte es gedacht OSX und ich bezweifel, dass der Milliardenbetrieb Apple aufeinmal davon abkommt.
    Da ist es wahrscheinlicher, dass die Partnerschaft mit Intel ein Ende findet und Apple sich mal schnell AMD einverleibt um die Chipschmiede direkt im Haus zu haben.
  • FormatC , 26. November 2010 13:35
    Zitat :
    Man kann nicht CUDA nehmen, weil CUDA proprietär ist, während OpenCL eine OFFENE Schnittstelle für ALLE Plattformen ist
    Man hätte seitens AMD CUDA umsonst haben können, war sich aber zu stolz dafür. Jetzt hat man CUDA unter dem Namen von OpenCL, was faktisch nichts anderes ist, auch umsonst. Ich bin wirklich kein Freund von proprietärem Gedöns oder Nividias Spielereien, aber man hätte auch gleich CUDA im Original nehmen können, ohne so ein Alibi-Mäntelchen drumzuhängen. Das ist eine reine Eitelkeitsgeschichte auf dem Rücken der Anwender.

    Apple und OpenCL ist auch die Geschichte von Apple und Nividia (weiterlesen). Dass Apple möglichst daran interessiert ist, auch mal zwischen den Herstellern zu switchen, ist ja nichts Neues. Fakt ist jedoch, dass CUDA unter dem Mäntelchen von Apples OpenCL mit Einflussnahme Intels salonfähig gemacht wurde und AMD da nun nicht mehr raus- und daran vorbei kommt. Hätte man eher und billiger haben können. Ok, AMD hatte Probleme mit dem Memorymodell von CUDA, aber das ist nichts, was man nicht hätte lösen können.

    Apple und AMD ist somit Unfug.
  • derGhostrider , 26. November 2010 15:05
    Ich kann FormatC nur zustimmen. Der Witz an der ganzen Entwicklung von OpenCL ist doch, daß NVidia die Entwickler inzwischen besser bei OpenCL unterstützt als AMD, obwohl AMD stets ein riesen Fass aufmacht, daß OpenCL ihr eigenes Kind wäre.

    Ich erinnere mich da an ein Interview mit denen, die hinter OpenCL stehen (Khronos Group) und klipp und klar sagten, daß die Behauptungen von AMD, daß sie voll hinter OpenCL stünden und bei der Entwicklung maßgeblich beteiligt gewesen wäre und ständig Hilfestellung leisten würden, totaler Unfug wäre, da sich ungefähr niemand von AMD beteiligen würde.

    Ach:
    http://www.nvidia.de/object/cuda_opencl_new_de.html
    Zitat:
    Zitat :
    Apple und NVIDIA haben OpenCL der Khronos Group im Sommer 2008 zur Verfügung gestellt, um eine plattformübergreifende Umgebung für Grafikprozessor-Berechnungen (GPGPU-Computing) zu schaffen. NVIDIA hat den Vorsitz der branchenweiten Arbeitsgruppe inne, die den OpenCL Standard seit seiner Einführung definiert, und hat im Juni 2009 die weltweit erste konforme Grafikprozessor-Implementierung für Windows und Linux auf den Markt gebracht.

    Soviel zu AMDs Anteil.

    Unter dem Link kann man auch die Bestätigung für die Aussagen von FormatC nachlesen. OpenCL läuft auf allen CUDA-Karten.


    @Noskill: OSX als Beispiel für tolle technische Neuerungen zu nehmen, ist wohl etwas daneben, denn OSX unterstützt nicht einmal TRIM.

    OpenCL wird kommen wird nicht kommen... wer weiß. CUDA und OpenCL werden wohl gemeinsam "hier und da" Anwendungsbereiche finden.
    Ob nun ein Randgruppen OS wie OSX (Ja, der Marktanteil ist immernoch sehr gering) das unterstützt oder nicht, ist mir herzlich egal, da ich es nicht benutze. Die Unterstützung wird bestimmt größer werden, im laufe der Jahre.
    Aber mal zur Gedächtnisauffrischung:
    Seit wie vielen Jahren gibt es dual- und sogar quad-core Prozessoren?
    Sind heute alle "größeren" Programme multi-Threaded programmiert?

    Seit wie vielen Jahren gibt es nun 64bit fähige CPUs im Desktop-Massenmarkt?
    Sind alle größeren Programme inzwischen in nativen 64bit Versionen verfügbar?

    Ob die Architektur etwas könnte, oder ob sie es macht, sind zwei paar Schuhe.
    Niemand, nichtmal ich selbst, kauft sich heute Hardware, damit, mit sehr viel Glück, in zwei oder drei Jahren eine besondere Funktion der Hardware nennenswert genutzt wird, sofern sich bis dahin nichts derartig geändert hat, daß die heutige Hardware es eh nur lückenhaft unterstützt.

    Dir bleibt es natürlich freigestellt. Kaufe Dir sofort beim Release diese CPU (die nun APU genannt wird, da ein Grafikkern integriert ist). Gut, die ersten Monate wirst Du nach dafür optimierter Software suchen müssen und ansonsten halt nur die Leistung eines Atom zur Verfügung haben, aber das ist halt so. Dafür hast Du ja noch den brachliegenden OpenCL-fähigen Teil des Siliziums.
    Das nenne ich dann mal "haben müssen".
  • noskill , 26. November 2010 16:13
    @FormatC

    "mit Einflussnahme Intels salonfähig gemacht wurde"

    Da hat wohl jemand Larrabee verpasst.
    Kannst du diese Behauptung mal bitte mit einer Quelle untermauern?

    | @derGhostrider

    Ihr müsst schon unterscheiden zwischen der eigentlichen Compute Unified Device Architecture (den Karten), der CUDA-API und der CUDA Umgebung.

    Denn OpenCL greift bei Nvidia Karten nunmal auf die CUDA-Architektur (ich weiß doppelt gemoppelt) zurück, so wie es bei ATI Karten auf die STREAM-Architektur zurückgreift. Das hat aber NICHTS mit der Umgebung CUDA zu tun, die ist extra und nur für die CUDA-API + CUDA-Architektur verfügbar.
Alle Kommentare anzeigen