Anmelden mit
Registrieren | Anmelden
Ihre Frage

PHYSX Karte rentiert sich oder net?

Stichwörter:
Letzte Antwort: in Grafikkarten
Teilen
16. Dezember 2007 21:21:52

kann mir einer erklären ob man sich eine physx Karte holen soll oder net was macht die genau und wird performens geschteigert odert was
16. Dezember 2007 21:49:48

Mit eienr Physikkarte kann man in manchen Spielen wie z.B. Ghost Recon Advanced Warfighter2 ein paar hübsche Spielereien sehen wie zusätzliche herumfliegende Trümmer und ähnliches.
Die Performance steigert sich nicht dadurch.
Die Unterstützung der Spiele auch in Zukunft sieht aber düster aus, darum lohnt eine solche Karte meines Erachtens nach auf keinen Fall.
Da gibt es nämlich zwei gute Gründe für:
1) Kaum einer hat eine solche Karte, weil sie halt nicht gebraucht wird und nicht ganz billig ist. Das Geld steckt jeder in eine bessere Grafikkarte, dann siehts auch hübscher aus.

2) Es gibt zwei Alternativen zur Physikkarte die wesentlich vielversprechender sind, weil man dafür keine Extrakarte braucht. Entweder wird sich die Physik auf die CPU auslagern, weil die Parallelisierung voranschreitet (die Rede ist von Quadcore) oder aber Havok FX, was die optische Physik (nicht die Spielephysik) auf die Grafikkarte auslagert, da diese damit wesentlich besser umgehen kann als jede CPU. Das ist zum Beispiel so realisierbar, dass du eine Geforce 8800GTX für die normalen Berechnungen nutzt und im zweiten Slot eine schwächere Geforce7900Gt die Physik übernimmt. Das ist jetzt total theoretisch und geht NOCH NICHT aber Sinn würde es machen und technisch gehts auch ( Stichwort SLi 2.0), dann kann die Spielekarte noch ein Jahr als Physikkarte dranhängen. Dafür haben z.B. auch die 680i Boards für die IntelCPUs auch den dritten PCIe Slot. Der ist dafür gedacht.

Im Grunde handelt es sich bei der Ageiakarte um letztgenannte Technik, denn die Physikkarte ist nichts anderes als eine uralte Geforce 5600Ultra welche dafür herhält und ziemlcih teuer verkauft wird.
Die Tatsache, das nur Asus und BFG eine Physikkarte gebaut haben und alle anderen wie MSI oder Gainward direkt die Finger davon gelassen haben spricht doch Bände oder?
Ähnliche Ressourcen
Fragen Sie die Community
17. Dezember 2007 10:43:59

Kann man so nicht ganz sagen.
Zitat einige Hersteller zu Physik:

CPU noch lange nicht, die FP Units sind zu schwach und nicht darauf spezialisiert.

Grafikkarte nicht wirklich, soll es Probleme geben, die Daten können zwar zwischen GPU und Grafikspeicher schnell berechnet werden, allerdings müssen die Ergebnisse zu CPU und Hauptspeicher übermittelt werden, weil Spielewelt und KI ja auch auf die Veränderungen reagieren sollen.

Physikkarte ist die einzige Lösung, um aufwendige Zusatzberechnungen zu machen.

Theoretisch sollten alle Spiele mit Ageia-Physik mit der Physikkarte funktionieren. UT3 z.b. hat Hardwarephysik, wenn mir mal langweilig ist, werde ich mal ein paar Games antesten und Artikel, Videos und Bilder machen. Allerdings beschränkte sich der Mehrwert bisher wirklich nur auf kleine grafische Zusatzeffekte. Schneller wird der Rechner nicht, theoretisch muss er immer langsamer werden, die zusätzlichen Effekte müssen ja von der Grafikkarte auch noch gezeichnet werden. Es geht eigentlich nicht wirklich um Beschleunigung, sondern um Zusatzeffekte. Die Beschleunigungen gehen schon, wenn man viele Objekte physikalisch bewegt, was aber ein Spielehersteller kaum machen wird. Warum sollten die ihr Spiel und die CPU platt machen, damit man tolle xxx Millionen Trümmer und Splitter fliegen sieht und die Szene nur mit Physikkarte flüssig läuft.

Der Durchbruch kann nicht kommen, schließe ich mich euch an, bei dem Preis, kauft sich jeder lieber eine 88GT.

Die dritte Karte als Physik bezweifle ich, in einem anderen Thread haben wird darüber diskutiert, ob SLI + eine dritte Karte geht, es ging nicht, SLI wird automatisch deaktiviert. Da müßte ATI und Nvidia noch viel am Treiber ändern und soweit ich gelesen habe, gehört Havok jetzt Intel. Kann das jemand bestätigen ? Weil dann, wird es wohl eher einen Zusatzkern in der nächsten CPU-Generation geben, bevor Nvidia Physikberechnungen mit der dritten Karte macht. Immerhin sollte Hellgate London Grafikphysik-Effekte mit dem GF8 machen, die ich aber nicht sehen kann. Da wurde eindeutig mehr versprochen, als tatsächlich gehalten.
17. Dezember 2007 13:50:07

Dei Ergebnisse müssen auch von der Physikkarte übermittelt werden an die CPU und das sogar über den lamsten BUS den es gibt, den PCI Bus. Das sollte also kein Grund sein.
Zur Erinnerung die Physikkarte IST eine Grafikkarte sogar eine Uralte. Da werkelt der Chip einer 5600Ultra drauf, damit kann man heute noch nichtmal Tetris2D vernüftig spielen.

Das Havok von Intel gekauft wurde ist mir neu aber selbst wenn ist Havok FX deswegen nicht vom Tisch.
Das sollte man sich hier generell mal abgewöhnen dieses übertrieben militärische Strategiedenken. Wenn Intel mit Havok FX Geld verdienen kann dann machen die das auch auch wenn es heisst damit Nvidiakarten zu pushen oder ähnliches. Selbes gilt für AMD Chipsätze. Warum sollte Nvidia keine SLi Chipsätze mehr für AMD Rechner bauen? Das ist totaler Quatsch, im Gegenteil. Aber das ist hier net Thema.

Das mit der dritten Karte ist klar dass das noch nicht geht, hat auch keiner behauptet. Ich glaube auch net, dass die Physik in SLi eingebunden wird, sondern eher ein eigenständiger Part ist, sonst ist der Markt ja noch kleiner als er jetzt schon ist. Wer kauft sich denn 3 Grafikkarten?
Es ist aber im Prinzip lediglich eine Softwaresache das hinzubiegen, denn Grafikchips sind da wesentlich flexibler (Shader usw) und technisch sind da keine Berge zu versetzen. Die Leistung von Grafikchips sollte für Physikspielereien mehr als ausreichen, die aktuelle Geforce8800 hat ja schon über 300GFlop.

Die Physikkarte als dedizierte Einzelkarte wie z.B. eine Soundkarte wird sich zu 100% nicht durchsetzen, die "Altverwertung" einer vorhandenen Karte würde da einen viel größeren Markt öffnen. Man bräuchte lediglich ein passendes Mainboard und halt die richtige Software auf allen Ebenen. Ersteres gibt es schon und für letzteres braucht man nur ein fähiges Programmiererteam, die fressen zwar Geld aber neue Maschinen braucht man nicht.
17. Dezember 2007 14:25:14

avaka sagte:
... und halt die richtige Software auf allen Ebenen. Ersteres gibt es schon und für letzteres braucht man nur ein fähiges Programmiererteam, die fressen zwar Geld aber neue Maschinen braucht man nicht.

Das Programmierteam weiß halt bloß nicht was es programmieren soll. Deshalb gibt's zur Zeit auch so viel Tech-Demos in dem Bereich. Das ist der gleiche Dialog, den nVidia mit seinen Tech-Demos mit der Gaming-Industrie führt. Natürlich auch umgekehrt: Die Enginedesigner äußern Wünsche an die Shaderprogrammierung.

Am Ende der Tech-Demos und nach ein paar weiteren Spieledemos steht dann sowas wie eine Open-PL (Open Physics Library) Version 0.8. Diese API wird dann mehrfach implementiert:

. als Softwarebibliothek (so wie Mesa für OpenGL) und rennt auf freien CPU Cores
. als CUDA Library für nVidia Grakas
. als CTM Library für ATI/AMD Grakas
. als 3rd Party sonstwas auf spezial Karte (egal welche Hardware)

Sogesehen hat doch Intel schlau' gehandelt: Einfach eine Firma mit viel Know How aufkaufen und das dann als Standard API auf den Markt werfen. Die Quad oder auch 8-fach Kerne nächstes Jahr wollen ja auch was zu tun haben.

bg,
7oby
17. Dezember 2007 15:52:01

Nun das Rad wird ja nicht neu erfunden.
Man muss da krass unterscheiden zwischen Gamephysik und optischer Physik.
Erstere wird wohl nie auf eine Grafikkarte ausgelagert werden und für letztere fehlt den CPUs noch eine ganze Weile die Rechenkraft. Darum halte ich es für nichtmal unwahrscheinlich, dass es beides geben wird und auch Anwendung im selben Spiel finden könnte. Zumal alles Havok ist und im selben Plattenbau entwickelt wird.
Die zahlreichen Techdemos usw. sind doch ein gutes Zeichen, dass man sich darum bemüht. Da werkeln schließlich auch keine Hinterschuppenfirmen dran sondern Nvidia, Intel und Co.
Ich bin gespannt und ziemlich zuversichtlich, dass es für SLi, Crossfire, Quad und Octacore noch eine Zukunft gibt, auch wenn Parallelisierung Grenzen hat, die durch den Verwaltungsaufwand bedingt sind.
18. Dezember 2007 01:13:21

@Avaka
wo hast du das her, mit der Ageia und dem 5600 Ultra, hast du einen Link zu dieser Info :) 

Übrigends ging es nicht darum, die dritte Karte ins SLI einzubeziehen, der derzeitige Treiber scheint bei einer dritten GPU SLI komplett zu deaktivieren, deshalb meine Vermutung, es passiert noch mehr, da SLI + Physik sicher funktionieren werden, wenn Physik überhaupt ein Thema wird.

Gibt es von Havok FX schon was zu sehen, außer Tech Demos?
18. Dezember 2007 09:42:30

3D Mann sagte:
Übrigends ging es nicht darum, die dritte Karte ins SLI einzubeziehen, der derzeitige Treiber scheint bei einer dritten GPU SLI komplett zu deaktivieren

Hat jetzt mit Physik nichts mehr zu tun, aber

3-fach SLI läuft mit nVidia Treiber v169.18
18. Dezember 2007 14:52:27

Sorry ich hab jetzt keinen link dafür, ich habe das vor einer gewissen Zeit mal in einer meiner Hardwarezeitungen gelesen, ich glaube es war entweder PC Games Hardware oder Hardwarluxx, da wurde die PPU als SEHR nahe verwandt mit der Geforce 5600 beschrieben. Ist ja irgendwo auch logisch, dass eine PPU für optische Physikeffekte viel mit einer Grafikkarte gemein hat.
Das weiss ich aber genau, ich bin keiner von den Leuten die was behaupten um was zu sagen zu haben.
18. Dezember 2007 15:15:23

Du meinst sicher dieses Zitat hier, oder?

Zitat :
Laut Hersteller wird die Ageia-Hardware mit 130 nm gefertigt, hat 125 Millionen Transistoren und 128 MByte GDD3-Speicher. Bis auf die aktuellere Speichertechnik (GDDR3 statt DDR) entsprechen die technischen Werte einem Geforce 5600 Ultra. Bausteine und Lüfter befinden sich wie bei einer AGP-Grafikkarte unterhalb der Platine.


Ich würde das aber eher so verstehen, dass die 5600 Ultra auch in 130 nm gefertigt wurde und auch 125 Millionen Transitoren hat. Das hat für mich meiner Meinung nach nicht zu bedeuten, dass das die "gleichen" Chips sind sondern wurden nur als Vergleichswerte genannt. Wer hat nun Recht?
18. Dezember 2007 15:16:57

@7oby
klar, nur jeder, der SLI hat und jetzt eine dritte, nicht identische Karte für Physik reinhängt, deaktiviert anscheinend SLI (Ich habe es selbst nicht getestet, ist ein Erfahrungsbericht aus einem anderen Thread). Wie sich das bei 3way verhält wird sich zeigen, nur 2x88GT und 1x78GT kommt gekoppelt sicher nicht so gut momentan. Das wird ja sicher nicht so bleiben, wenn Nvidia das freischaltet, das 2xSLI + dritte Karte läuft, dann wird es auch Physik geben. Wenn das so bleibt, ja dann gute Nacht, die Ausbeute bei SLI-Games ist ja schon nicht berauschend, aber in Zukunft 3 Karten kaufen.
Wie soll das dann aussehen, heute 2xGT für SLI, in z.b. 1 Jahr kommt dann Physik. Was jetzt als dritte Karte rein, nochmal eine 8800 GT und muss die identisch sein? Also jetzt schon kaufen, obwohl es noch keine Physik-Berechnungen gibt.
Nicht falsch verstehen, ich würde es ja gerne testen, bekomme die Tage ein 780i mit 3way-Brücke, aber mit welchen Spielen, Havok FX ja, aber hat irgendjemand schon mal einen Effekt mit 3D-Physik per Grafikkarte gesehen oder gelesen welches Game das unterstützt? Wenn ihr Infos findet, ich teste es gerne.
Allerdings sollte ja jeder mit 2way SLI, auch eine Karte für 3D und eine für Physik nutzen können. Da es noch keiner gemacht hat? scheint es ja an den Spielen zu scheitern? Vielleicht hat von euch schon jemand etwas anderes darüber gelesen, klärt mich bitte auf, wenn ich mich da täusche.

@Avaka
danke, wollte nur wissen, ob es eine zweite Quelle bestätigt hat oder nur mein Artikel zitiert wird.
18. Dezember 2007 19:38:41

das nennt man wohl kalt erwischt.
Ich hatte es wirklich nur hier gelesen, ist schon so lange her, dass da nur im Unterbewusstsein hängen bliebt 5600Ultra-->Ageia Physikkarte.

Meine persönliche Meinung ist, dass Nvidia was fürs Weihnachtsgeschäft auf dem Plan haben muss was neu ist, 3 Wege SLi ist ja keine Klingonentechnik sondern im Prinzip einfach zu machen, denn 2Wege gibs ja schon. Da sollte es keine Hexerei sein, den zusätzlichen Chip einzubinden. Wenn man es genau nimmt ist QuadSLi ja schon weiter und das ist über 1,5 Jahre alt.
Das zeigt sich meines Erachtens nach schon im Aufbau des 780i. Der ist nichts anderes als eine seichte Überarbeitung des 680i und einen Treiber hat man schnell so zusammen gebraten das es "geht". Betonung auf GEHT.
Der Sinn steht da nicht zur Diskussion.
Was so die Innovationen im Grafikbereich angeht, hat sich ja nichts getan seit über einem Jahr, die GTX sitzt jetzt wirklich schon so lange auf dem Thron (Die Ultra lasse ich mal aussen vor, die ist ja nichts anderes als eine werksübteraktete GTX). Das ist eine Ewigkeit.

Das ist doch das Selbe wie mit der GX2 zu ihrer Zeit. QuadSLi war das Schlagwort. Ging einfach technisch zu machen, war schweine teuer und sinnlos.

Was Physik angeht auf den Grafikkarten ist es doch wie immer. SLi gibs schon seit 3,5 Jahren. Wer hat es? Ich, und wer noch? ...
Das sollte eigentlich schon alles sagen was das Thema betrifft.
Die einzige Möglichkeit die ginge und sich 2008 etablieren könnte, wenn die Softwareschmieden das Geld für Havok FX z.B. rausrücken und Nvidia die Hausaufgaben macht, ich sage es noch mal, wäre unterschiedliche Karten einbauen. Die starke für die Bildberechnung, die etwas schwächere für die Physik. Eine 8800GT + 8400GT wäre eine Kombi die sich jeder leisten kann der sich ambitionierter Spieler schimpft.
Das wichtige ist, dass das unabhängig voneinander funktioniert. Jede mit jeder Karte am besten ATI und Nvidia gemischt für sowas. Ist zwar Utopie aber man kanns ja mal nennen :sarcastic: 

Was so langsam mal aktuell werden sollte ist das Thema, WAS MACHE ICH MIT MEINEM 32Bit OS? Verschrotten?
3x768MB, das sind über 2GB, da bleiben ja nur noch 1,8GB oder so für RAM. Klasse, das brings wirklich.
19. Dezember 2007 08:04:06

Ganz ehrlich: Ich brauche keine fetten Physikberechnungen in Spielen. Mir reichts, wenns echt wirkt und echt aussieht oder cool wirkt und cool aussieht. So lange es zum Spiel passt, ists mir so recht. Und das kann man auch einfacher haben als mit einer extra Hardware im Rechner. Die Konsolen müssen doch eh auch ohne das Stückchen Hardware klar kommen und bei der momentanen Entwicklung glaube ich nicht, dass es noch viele Spiele für den PC geben wird, die so eine besondere Hardware unterstützen werden. Dafür ist der Markt einfach zu klein.
19. Dezember 2007 22:05:22

@Avaka
da kann ich dir voll und ganz zustimmen.

Es ist halt immer so ein Tauziehen, im letzten und Anfang dieses Jahr haben die 3D-Engines gefehlt. UT3 wurde ja gewaltig verschoben und Crysis ewig angekündigt, jetzt ist beides da und mit Crysis geht das Geflenne wieder los, ähhh die Hardware ist ja viel zu langsam, wo ist der GF9. Eigentlich kann jeder froh sein, das sich der GTX so lange halten konnte, das brachte etwas Stabilität in den üblichen PC-Aufrüstwahn. Dafür hat halt jeder die CPU gewechselt, ich glaube die Hersteller sprechen sich da schon gut ab.

@frenzy
ja, wegen der Werte habe ich auch den Vergleich im Artikel gezogen, ich fand einfach den Preis zu hoch, ein 5600er wäre zu diesem Zeitpunkt weniger als die Hälfte wert gewesen.
Physik hast du ja schon jetzt überall integriert, sonst könnte man die ganzen netten Spielereien nicht machen, Doom bis Quake oder Half Life die Gravtiy ändern. Es wird halt momentan eher passiv auf die Umgebung angewandt und per Software/CPU berechnet. Ich gebe dir recht, ob jetzt die Leichen in Crysis so schwimmen oder physikalisch mit xxx Berechnungen schwimmen, dürfte vielen egal sein.
Was mir aber bisher fehlt, ist richtiger Nebel und richtiger Regen. Tropfen die was nass machen, Flüssigkeiten die man richtig manipulieren kann, ich will endlich in Half Life einen Staudamm machen und einen ganzen Level absaufen sehen, egal wie viele Jeeps oder Steine man dafür bewegen muss. Einen Raum abdichten und die Toilletten überlaufen lassen, hehe Bioshock wirklich komplett überfluten. In Oblivion eine Stadt einreisen, indem man tragende Elemente aus Häusern oder Mauern entfernt, einen Berg Schwerter aufs Dach legen, bis es einbricht. Trolle mit Pfeilen spicken, bis sie zu schwer zum gehen sind... oh Mann würde mir viel Blödsinn einfallen :) 
Ähnliche Ressourcen