Anmelden / Registrieren

GeForce 8 mit PhysX-Beschleunigung

Von - Quelle: Tom's Hardware DE | B 37 kommentare

PhysX wird künftig nur noch als GeForce-Treiber weiterleben: Nach dem Kauf des Entwicklerstudios Ageia hat Nvidia bestätigt, die Chips nicht mehr weiter zu führen.

»Wir werden die PhysX-Engine von Ageia auf CUDA portieren«, meldet Nvidia nach der Übernahme des Entwicklerstudios Ageia, die Anfang Februar bekannt wurde (siehe »Nvidia kauft Ageia«). Da war noch unklar, ob es die PhysX-Chips oder gar eigene Zusatzkarten auch unter dem Dach von Nvidia geben würde. Nvidia-CEO Jen-Hsun Huang hat nun bestätigt, dass dies nicht geplant ist. Stattdessen wird es die PhysX-Engine vorerst nur als Treiber für Nvidia-Grafikkarten geben. Ist die Portierung der Engine auf Nvidias Programmiersprache CUDA (Compute Unified Device Architecture) abgeschlossen, »ist das nur noch ein Software-Download«, so Huang, »jede unserer CUDA-fähigen GPUs wird mit der PhysX-Engine klar kommen«. Gemeint sind alle Beschleuniger ab der Geforce-8-Serie sowie die Quadro-Modelle ab Version Quadro FX 5600.

Wann das so weit sein wird, ist nicht bekannt. Auf jeden Fall geht Nvidia davon aus, dass sich deshalb bereits jetzt der Absatz von GeForce-8-Karten erhöhen wird. Am liebsten wäre dem Nvidia-Chef, dass GeForce-Gamer schon jetzt sich eine zweite oder gar dritte Grafikkarte zulegen, um eine oder zwei Karten zur Physikberechnung zu nutzen.

Kommentarbereich
Experten im Forum befragen

Zu diesem Thema einen neuen Thread im Forum News erstellen.

Beispiel: Notebook, Festplatte, Speicher

Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • zeromaster , 15. Februar 2008 17:04
    jo, am besten kaufen wir uns alle 10stk^^
  • Nicht ich , 15. Februar 2008 17:16
    ...und ein Atomkraftwerk dazu (für Kühlung muss ja auch gesorgt werden^^)
  • Idleking , 15. Februar 2008 17:17
    Zweite oder gar dritte GF8?

    Hey, bisher reicht mir meine 4200Ti noch vollkommen aus :D 

    Na aber mal ehrlich, wer braucht zwei oder sogar drei Grafikkarten?
  • Alle 37 Kommentare anzeigen.
  • Anonymous , 15. Februar 2008 17:22
    es wäre einfacher, wenn nvidia seine gf8 karten im sparabo i.v.m. einer jamba-flatrate (am ersten tag kostenlos, danach umsonst), einen heimtrainer, einen messerblock (messer sind seperat zu ordern) und einen 12,50? reisegutschein (einzulösen bei öger tours bamberg) anbieten würde. wir würden dabei ca. 3.000,-? sparen und müssten monatlich nur 0,5? pro pixelshadereinheit pro karte zahlen. mindestvertragslaufzeit 24+12 monate.

    das die immer nicht den zahn der zeit erkennen ;) 

    (zugute halten muss man nvidia ja, dass die mit der neuen GF8800GT einen guten preis/leistungswurf getätigt haben)
  • auser , 15. Februar 2008 19:38
    ach was, das wird ein bombenerfolg... ich mein:

    die graka ächzt und krächzt unter der last der aktuellen spiele, aber nein, schonen wir lieber unseren 4-kern prozessor für 200 euro und kaufen uns lieber ne 400 euro zweit-graka für die physik. wenn dir wir die physik auf einen der kerne berechnen lassen würden, würde ja windows nur ins trudeln kommen.

    das ganze hat null sinn. aber geld wird wie üblich auf dem rücken der dummen gemacht. und davon gab es, gibt es und wird es immer mehr als genug geben.
  • Idleking , 15. Februar 2008 21:30
    Guten Abend!

    Zitat :
    [..]schonen wir lieber unseren 4-kern prozessor für 200 Euro und kaufen uns lieber eine 400 Euro zweit-Grafikkarte für die physik.[..]

    Hast gut erkannt, wahrscheinlich wirds genau darauf hinauslaufen :ange: 

    Ist irgendwie schon ziemlich hirnrissig das ganze :heink: 
  • 3D Mann , 15. Februar 2008 23:59
    Nur weil ein Porsche und ein LKW 300 PS haben, fahren nicht beide 300 km/h. Die Transistoren müssen auch bestimmte Rechenoperationen durchführen und für Physik scheint eine GPU besser geeignet zu sein.

    Ich will immer noch wissen, braucht man für 3D und Physik mit 2xGF8 eine aktive SLI-Verbindung?
  • DerAffemitderWaffe , 16. Februar 2008 08:15
    lol wird immer größere Monopolstellung ach man wenn ich einen vierkernprozessor besäße und 2 Geforce 8 lol ne danke für was den es ist nicht sinnvoll für geringfügig mehr leistung (doppelte Hardware Kosten und Stromkosten für 20 % mehr Performance) soviel Geld auszugeben. Die Physikberechnungen verlangen ne 2te gleiche Grafikkarte im SLI Modus bisher da fährt ATI besser bei allen nicht von Nvidia gesponserten Hardwaretests hat sich herausgestellt das ATI wieder die NAse Vorn hat mit der 3870 X2 Grafikkarte und des ist nur ein weiterer Versuch die dummheit der MEnschen auszuntzen den Ati braucht keine 2te KArte um in der Physikberechnung Nvidia davonzuziehen :) 
  • noc , 16. Februar 2008 10:03
    Hmm... Ich kaufe mir alle zwei Jahre eine neue Graka. Gebe für die neue max. 240 EUR aus und verkaufe die alte für ca. 30-50 EUR. Das Prinzip hat bisher gut funktioniert. Die aktuellen Games waren immer spielbar. Natürlich nie Highend. Irgendwelche Spielchen mit 2 GRKAs werde ich nie mitmachen. Irgendwann reicht es mal. Ich mache das immer an bestimmten Situationen fest. Meine nächste steht zum Erscheinen von -BF Bad Company- an und wird wohl wieder(hoffentlich) 2 Jahre halten.
  • noc , 16. Februar 2008 10:12
    Noch was. Wenn Intel AMD plattgemacht hat und damit dann auch ATI, wird es nur noch NVIDIA und INTEL geben. Ohne natürliche Feinde für die beiden auf der globalen Wildbahn. Dann werdet ihr sehen wie teuer Hardware werden kann. Ich bin zwar eher nvidia/Intel Fan, aber ich hoffe, das AMD/ATI weiter am MArkt bestehen können, sonst ist Schluss mit Hardwarelustig. Und Innovationen bleiben dann auch auf der Strecke. Vielleicht sollten vorallen die großen Softwareschmieden mal überlegen effinzienteren Code zu schreiben, damit der Hardwarewahnsinn mal eine Pause bekommt.

    Nur zum Vergleich: Weiter oben schrieb einer was von einer TI4200. Tatsächlich könnte man mit einer TI4200 sogar BF2 und dergleichen zocken, wenn sie einen aktuellen Shader hätte(hatte ich damals selber getestet). Jetzt zwingen mich die neuen Games zu einer Karte für DX10 und Shader >4.0 -echt zum Kotzen.
  • DOcean , 16. Februar 2008 10:22
    3D MannIch will immer noch wissen, braucht man für 3D und Physik mit 2xGF8 eine aktive SLI-Verbindung?


    Man brauch schon für SLI keine Brücke... geht auch ohne... (man verliert aber Leistung) also wird das bei Phxsik genauso sein...

    Ach ja intereasant wäre in dem Bezug die Kombi MB-Graka + PCIE-Graka? sowas kommt ja bald...
  • DOcean , 16. Februar 2008 10:23
    EDIT:

    siehe:
    http://www.computerbase.de/forum/showthread.php?t=336839
  • Anonymous , 16. Februar 2008 11:03
    Die Sache mit den besseren Codes sehe ich auch so. Da braucht man sich doch nur anzuschauen, wenn man ein gut optimiertes Linux System auf einem Quad Core Rechner laufen lässt und dazu im Vergleich ein Vista oder XP. Die heutigen Spiele sind meiner Meinug nach zwar grafisch und Engine mässig nett aber mit besseren Programmierung und einer Art "Firmware" Update auf Grakas, damit diese neuere Algorythmen beherrschen und ich wette viele könnten noch 1-2 Jahre ihre 6600 GT nutzen. Vielleicht bilde ich mir das nur ein, aber mir kommt es schon so vor, als würde die Industrie das brutal manipulieren.
  • jehaa , 16. Februar 2008 11:47
    @gaara: natürlich manipuliert da die industrie, geld bringen ja in dieser industrie nur neue grakas rein, das programmieren bedeutet aber hingegen hohe mehrkosten
    wollte man nen neues geschäftsmodell entwickeln, könnte man versuchen gerade diese software zu verkaufen um damit geld zu machen, würde auch mehr wettbewerb bringen, weil die hardwarehersteller damit gezwungen sind entweder bessere software oder günstigere hardware zu vertreiben, diese abkopplung von software und hardware ist im weitestem sinne bei microsoft durch die EU erzwungen worden was den mediaplayer angeht, leider ist ein solches modell noch nicht realisierbar aber man kann ja noch hoffen
    zum thema monoplostellung intel: das is tatsächlich nen enormes problem aber gesetzt dem szenario amd schaffts nich selbst, dann wird es unterstützung durch die politik geben, vorrausgesetzt die können weiter als bis 3 zählen, es gäbe auch die möglichkeit durch preiskontrolle intel auf die finger zu schauen aber dass wäre dann nen anreiz für Nullinovationen, denke deshalb das gerade die finanzstarken industriestaate wie die alten eu-staate und die usa da ordentlich geld in amd pumpen werden
  • Cosmos , 16. Februar 2008 12:13
    Wissen manche hier eigentlich was die für nen Müll schreiben??!!??
    Was ist daran verkehrt eine solche Grafikkarte zu erwerben in der ein Phsik beschleuniger integriert ist??!!??
    Klar dass eine ATI HD3870 x2 etwas schneller ist als eine "normale" GeForce 8800Ultra.Auch wenn es kein Crossfire ist, sind es doch 2 Grafikkarten auf einer.Wenn dann demnächst die neue nVidia x2 Karte kommt sieht es wieder anders aus.nVidia war immer schneller und wird wohl immer schneller bleiben.Das einzige was man ATI zu gute halten kann ist dass sie bis jetzt eine bessere Bildqualität haben.Und selbst ATI hat keinen integrierten Physik beschleuniger der ansatzweise die Qualität von PhysX erreicht.
    Nur wer macht denn was falsch wenn man auf dem Markt nicht besteht?? ATI/AMD die es anscheinend nicht hinbekommen konkurenzfähige Hardware zu enwickeln oder nVdia/Intel die den Markt gerechtfertiger Weise beherrschen??!!?? Wenn man mal in die Vergangenheit blickt, hatte AMD die Chance an Intel vorbei zu ziehen.Da kam der erste Athlon und der war sauschnell...nur wog man sich bei AMD zu sehr in sicherheit und Intel zog ein paar Jahre später wieder an AMD vorbi.Und wenn ATI mal an den Treibern arbeiten würde und die perfomance verbessern würde, würden wohl auch einige nVidia fans zu ATI wechseln. Also...selbst schuld ATI/AMD.
    Wartet doch einfach ab was die Zukunft bringt und meckert nicht über Sachen die jedem selber überlassen sind.Ist es nicht jedermans eigene sache ob er sich ein SLI System zusammen baut oder nicht.
    Für mich persönlich ist erst jetzt PhysX interessant geworden weil ich eine 88xx besitze und mir jetzt nicht zusätzlich eine Ageia PhysX karte zulegen muß.
  • derGhostrider , 16. Februar 2008 14:24
    @Cosmos:
    ATI war in der Vergangenheit ein paar mal überlegen... Die 9700Pro war damals die mit Abstand schnellste Grafikkarte.
    Die X800XT PE war ebenfalls noch recht deutlich einer 6800Ultra überlegen - zumindest, da sie bei gleicher Geschwindigkeit überlegene Bildqualität lieferte.

    Die aktuelle X2... naja... zwei nicht so wirklich leistungsfähige GPUs auf einem Board vereint. Wie es schon ein anderer sagte: Das reicht vielleicht soeben in manchen Benchmarks für die Krone, wird aber vermutlich durch die nächste nVidia-Karte gekippt.
    Das beste an der Karte ist wohl das Preis/Leistungs Verhältnis, wobei ich dann ehr eine 8800GTS OC kaufen würde. *schulternzuck*

    Zurück zum Thema: PhysX-Karte
    Irgendwie hatte ich erwartet, daß nVidia die Technik auf die eigenen Karten integrieren würde. Vielleicht erst als zusatzchip, in der nächsten Stufe dann als Bestandteil der GPU. Daß sie es nun komplett einstampfen und nur noch in Software umsetzen wollen hinterlässt bei mir einen faden Beigeschmack und die Frage:
    Waren auf den PhysX-Karten vielleicht eh nur abgespeckte/abgewandelte nVidia-GPUs, die nur anders programmiert wurden? Ansonsten könnte ich es mir nicht so einfach erklären, daß nun nur "mal eben" der Code portiert werden muß in eine andere Programmiersprache und danach alles funktionieren soll.
    Demnach hätte man bei jeder PhysX-Karte sozusagen unwissentlich eine art GeForce gekauft.
    Wer weiß - vielleicht mußte nVidia den Laden kaufen, da ATI eventuell schon Interesse an der Technik geäußert hat und damit an insider-Wissen über nVidia-Karten gekommen wäre...
    Weit hergeholt und nur geraten. Aber wer weiß.
  • drno , 16. Februar 2008 14:37
    Bin echt begeistert! E-ATX II sollte da in der Entwicklung nachziehen und 4 PCI-E 2.0 Steckplätze anbieten. Womit kann man mehr Geld versenken, als mit dem Kauf einer Graka? Mit dem Kauf von 2,3,4 .....Grakas.
  • 3D Mann , 17. Februar 2008 01:57
    @DerAffemitderWaffe
    richtig und die anderen Tests sind alle ATI gesponsert (/Schmiergeldmodus aus)
    1. Crossfire und ATI hat erst mal gar nichts mit Ageia und Nvidia-Treiber zu schaffen.
    2. Wer sagt, dass man SLI GX2 oder Crossfire X2 überhaupt aufbrechen kann, kennst du die White-Paper zu der Crossfire-onboard-Technik für Karten mit zwei GPUs?
    3. Der X2 ist ein Zwei-Karten-Produkt, (zeigt nur wie überteuert Einzelkarten sind) und nichts anderes als 2 Einzelkarten mit 3870, die im Vergleich schneller, leiser und sparsamer sind.

    @noc
    Kein Spiel setzt DX10 und Shader 4.0 vorraus, nenn mir eines, was sich nicht unter DX9 oder XP spielen lässt.
    Wenn die GF 4200 einen aktuellen Shader hätte, dann wäre es ja auch eine GF 8200-8400 ;) 

    @DOcean
    Du kannst auch mit nem Golf bei der Formel1 mitfahren, nur was soll das bringen.
    Meine Frage zielte darauf hinaus, dass kein P35 und X38 SLI aufbauen kann. SLI per Software funktioniert dann auch nicht, was ab x600 eh nur per Steckbrücke sinn macht.

    @Gaara
    ...und mit einem BIOS-Update wird der P90 zum C2D. Leute schaut euch die Transistorenanzahl und Shader-Architektur der Grafikchips an, was wollt ihr da mit Software umflashen?

    @jehaa
    technische Entwicklung = Manipulation des Marktes ? Schaut mal, mit was Industrial Light and Magic Effekte fürs Kino macht und es wird klar, das Entwicklung kein Zufall ist. Wenn 3D am PC auch so aussehen soll, dann benötigt man die entsprechende Hardware dahinter, echt keine Zauberei. Wer das nicht will, kann in 10 Jahren ja am Handy spielen.

    @Cosmos
    danke :) 

    @derGhostrider
    danke :) 

    Das die PhysikX von Ageia auf einem GF 5600 Ultra basiert, kann man an den Specs der Karten sehen.
    Intel+Havok kooperiert mit ATI wegen Crossfire (SLI Nvidia nein)
    Nvidia+nforce kann ja nur Ageia nehmen

    Das man 3D+Physik mit einer (Anzahl 1) GPU machen kann, bezweifle ich erst mal, lassen wir uns überraschen. PhysiX ist/war auch nur Software + Hardwarebeschleuniger (Ageia PhysX-Karte oder CPU), da ändert sich mit dem Treiber auf Cuda + GF8 nichts. Ist doch egal, welche Hardware es nachher beerechnet.

    Der Sprung wird gewaltig sein, von Ageia PhysX (GF 5600) auf GF 8800, das sind 5x mehr Transistoren.

    Was mich mehr stört, Cuda geht erst ab GF 8800, liege ich da richtig ? Da fällt dann der 8600 nicht darunter als Budget-Physik-Karte.
  • noc , 17. Februar 2008 15:17
    @3d Mann:

    lies mal richtig. Ich spreche von aktuellen neuen Games. Und BF Bad Company wird mit aktuellen Gpus nicht spielbar sein.

  • stoneeh , 17. Februar 2008 17:52
    3D MannNur weil ein Porsche und ein LKW 300 PS haben, fahren nicht beide 300 km/h. Die Transistoren müssen auch bestimmte Rechenoperationen durchführen und für Physik scheint eine GPU besser geeignet zu sein.Ich will immer noch wissen, braucht man für 3D und Physik mit 2xGF8 eine aktive SLI-Verbindung?


    und ich frage mich noch immer - wieviel zahlen euch die hardwarehersteller eigentlich?
Alle Kommentare anzeigen