PhysX: Lust, Last oder Frust? Analyse und Anleitung für ATI-Benutzer

Selten hat ein Thema die Spieler so gespaltet wie PhysX. Wir wagen uns an eine Aufarbeitung, erklären CPU- und GPU-PhysX, zeigen, wie man auch mit einer ATI-Karte in den PhysX-Genuss kommt und suchen nach plausiblen Erkärungen abseits der Schlagzeilen...

Die Entwicklung der Spiele-Physik wird gern mit der Entwicklung des Films verglichen. Auch wenn der Vergleich ein wenig übertrieben und anmaßend erscheint, ein wenig Wahrheit steckt am Ende doch darin. Nachdem die Entwicklung der 3D-Darstellung bis hin zu nahezu photorealistischer Optik fortgeschritten ist, wird das Fehlen einer realistisch bewegten Umwelt immer deutlicher. Denn je besser die optische Darstellung gelingt, um so statischer wirkt plötzlich die Spielewelt ohne realistische Animationen und Bewegungen.

Vergleicht man die Anfänge einfacher VGA-Spiele mit den heutigen Spielen, dann merkt man sehr deutlich, wie weit die Spielegrafik in den letzten 20-25 Jahren fortgeschritten ist. Statt animierter Paletten und Pixel-Sprites misst man die Grafikqualität heute an komplexen Darstellungen wie Wasser, Spiegelungen, Nebel und Rauch und vor allem auch deren Bewegungsabläufen und Animation. Da all diese Berechnungen sehr komplex ausfallen, greifen die Entwickler von Spielen sehr gern auf sogenannte Physik-Engines zurück, also auf vorgefertigte Bibliotheken, mit denen sich beispielsweise Charaktere animieren lassen (Ragdoll-Effekte), oder komplexe Bewegungsabläufe (Fahrzeuge, herunterfallende Gegenstände, Wasser usw.)

Fallende und im Wind tanzende Blätter lassen eine Szene noch realistischer erscheinenFallende und im Wind tanzende Blätter lassen eine Szene noch realistischer erscheinen

Natürlich ist PhysX nicht die einzige derartige Engine, denn Havok wurde beispielsweise bis heute in wesentlich mehr Spielen eingesetzt als PhysX. Jedoch bietet PhysX, neben dem 2008 eingestellten Havok FX, derzeit als einzige etablierte Plattform im Gaming-Bereich die Möglichkeit, Berechnungen nicht nur auf der langsameren CPU, sondern auch auf der schnelleren Grafikkarte auszuführen. Und genau an dieser Stelle beginnt das aktuelle Dilemma, denn es gibt nur eine Schnittstelle, jedoch zwei Grafikkartenhersteller. Konfliktpotential genug für eine Menge Pressemeldungen und einen Haufen Schlagzeilen inklusive. Wir hoffen, wie die ganze Spielergemeinde auch, auf offene Standards und übergreifende Lösungen. Solange dies von der Spieleindustrie jedoch nicht realisiert wird, müssen wir das Beste aus dem machen, was uns von den Publishern angeboten wird. Und sei es auf der CPU.

Vorwort

Warum dieser Artikel? Oftmals befindet sich die Wahrheit irgendwo zwischen den Schlagzeilen. Weniger Emotionen, statt dessen mehr Pragmatismus. Dies ist unser Vorschlag an den Leser der nachfolgenden Seiten, auf denen wir all die in letzter Zeit aufgetauchten Probleme vor allem denjenigen näher bringen möchten, die über keinerlei Programmierkenntnisse verfügen. Deshalb werden wir auch manche Ausführung etwas vereinfachen oder abkürzen. Wir werden auf den nächsten Seiten hinterfragen, ob und in wie weit Nvidia wirklich CPU-PhysX bewusst zu Gunsten der eigenen Grafikkartenlösung ausbremst, ob CPU-PhysX nicht vielleicht doch multithreadfähig (und damit konkurrenzfähig) ist und ob PhysX auf der Grafikkarte wirklich alle Physik-Berechnungen problemlos und so vorteilhaft umsetzen kann, wie behauptet.

Zusätzlich werden wir in einem How-To demonstrieren, wie sich mit einem netten Tweak aus der Community auch eine ATI-Karte als Hauptgrafikkarte zusammen mit einer Nvidia-Grafikkarte als dedizierten PhysX-Karte nutzen lässt und unsere Ergebnisse mit passenden Benchmarks belegen. Denn uns interessiert, welche Kartenkombination wirklich Sinn macht und welche Slots sich dafür eignen. Warum also kapitulieren, wenn es Lösungen außerhalb der Herstellerdoktrinen gibt?

Erstelle einen neuen Thread im Artikel-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
74 Kommentare
    Dein Kommentar
  • SpielerZwei
    Schöner Artikel. Ich nutze eine 4890 und eine GTS250 für PhysX. Läuft perfekt mit einer Ausnahme: Mirror's Edge. Egal wie man es dreht, das Spiel rennt mit einer dedizierten PhysX Karte einfach ned. Sobald zB Glasscheiben zerbrechen sinkt die Performance auf ca 1 fps... Hab alles probiert, auch der offizielle 1.1 Patch für das Spiel bringt nix...
    Vor der GTS250 hatte ich übrigends eine 8600GTS mit 512 drin, damit lief eigentlich auch schon alles...
    0
  • avatar_87
    Am meisten hat mich überrascht, dass PhysX doch extrem stark mit stärkeren Nvidia Karten als PhysX-Karte skaliert.
    Schade, dass eine stromsparende gt 240 in der Regel wahrscheinlich nicht ausreichen wird.
    Damit fällt PhysX für mich als ATI-Nutzer flach. Diese zusätzliche Heizung für mein Case lohnt sich nicht.
    Und seihen wir ehrlich. Ist das Spiel gut, brauchen wir auch kein PhysX, oder?
    0
  • SpielerZwei
    Anmerkung: Unterschied 8600GTS zu GTS250
    FluidMark 8600GTS ca 24 fps und mit ner GTS250 ca 30 fps
    0
  • SpielerZwei
    Zitat:
    Schade, dass eine stromsparende gt 240 in der Regel wahrscheinlich nicht ausreichen wird.
    Damit fällt PhysX für mich als ATI-Nutzer flach.

    Wie gesagt auch mit ner GT240 bringt es Spass. Es gibt zwar nur eine Handvoll (guter) PhysX Spiele, ich möchte es aber nicht mehr missen. Besonders bei Batman: Arkham Asylum und Mafia 2.
    0
  • FormatC
    Es kommt immer darauf an, wie viel PhysX auf welche Art genutzt wird. Wenn nur ein Auto zerlegt wird, reicht die GT240 locker aus. Für größere Partikelschwärme ist sie zu lahm. Eine 8600GTS ist stärker als eine 8600GT und liegt ca. 20% unter einer alten 8800 GTS 320.

    @SpielerZwei:
    Mirrors Edge ist einfach nur krank. Das macht selbst mit einer GTX480 keinen Spaß, voll der Flop - auch wenns läuft.
    0
  • SpielerZwei
    Das stimmt schon. Meine Erfahrung ist aber das selbst eine 8600GTS reicht um flüssig zu spielen (Batman, Mafia 2, Metro). Hängt natürlich auch von der restlichen Hardware ab.
    0
  • Anonymous
    Hey Community,
    leider hab ich den Artikel nicht so ganz verstanden:
    Habe als Hauptkarte ne ATI 5970 und hätte im Schrank noch ne GF8800 GTX (ca. 700mb) liegen..lohnt es sich nun das mal auszuprobieren oder würde ich damit das System irgendwie bremsen?
    Danke schonmal :)
    0
  • FormatC
    Das geht schon, frisst aber pervers Saft. Die alte GTX mit G80 dürfte sogar noch ganz ordentlich funktionieren, trotz uralter Cuda-Schnittstelle. Unterm Strich wird sich das wie eine 8800 GTS 512 verhalten, also brauchbar sein.

    Tip: Takte die alte Karte im Performance 3D etwas runter, also ungefähr auf GTS-Takt. Spart unter Last doch einige Watt.
    0
  • Anonymous
    Mh, also wenn ich mit dem Enermax-Netzteil-Rechner rechne, würde ich insgesamt auf 524 Watt bei 90% System-Load kommen...

    Runtertakten im "Performance 3D"? Ähm sorry, komme zwar aus der Branche aber bin nicht Grafik-Profi :)

    Danke für die Antwort, bevor ich irgendwas zerstöre :D

    Meine Komponenten (für den Stromverbrauch):
    Antec TwelveHundred
    2xSATA HDDs/1xSATA Laufwerk
    i7 930@3,5Ghz mit nem Noctua NH-U9B SE2
    3x2GB DDR1333
    Gigabyte GA-EX58-UD5
    750 Watt BeQuiet
    Asus HD 5970/2GB
    0
  • f1delity
    Interessanter und gut geschriebener Bericht, Zusatz-Nvidiakarte ist für mich allerdings nicht wünschenswert, noch mehr Wärmequellen brauche ich nicht, aber dass es nach wie vor funktioniert und das auch mit Karten um 80€ schon gute Leistung erzielt werden kann ist durchaus positiv.

    @FC
    Hast du zufällig Infos zur Hand ob diesen oder kommenden Monat noch eine GTX485 rausgebracht wird, habe da leider nicht offizielles finden können.
    0
  • FormatC
    @Michael334545:
    Die ca. 550 Watt kannst Du schon großzügig einkalkulieren, das kommt schon hin mit dem Rechner von Enermax. Da passt die 8800 GTX gerade noch so dazu.

    @f1delity:
    Ob ichs weiß oder nicht - NDAs sind für alle da. Leider.
    0
  • SpielerZwei
    NDA Hurra :) Ich denk mal wenn AMD'S 6000er Serie im Oktober kommt muss nVidia mit irgendwas nachziehen. Es wird auf jeden Fall spannend :)
    0
  • FormatC
    Im Ernst - niemand weiß nichts Genaues. Nicht mal mein Händler und der hatte eigentlich immer die Infos am Ehesten, da er Asus-Partner ist.
    0
  • Anonymous
    Alles klar ich werde mal mein Glück versuchen. Danke für die Hinweise, FormatC.

    LG Michael
    0
  • Anonymous
    Die wirklich interessante Variante ist eine Kombination aus GTX460 und GTX260. Schade, dass der Test diese Kombination nicht weiter betrachtet.
    0
  • FormatC
    Zitat:
    Die wirklich interessante Variante ist eine Kombination aus GTX460 und GTX260.
    Finde ich eher weniger. Denn wer kauft sich eine 460, die unter DX9/10 kaum mehr leistet als die GTX260? Das wäre eigentlich Geldverbrennung.

    GTX285 zu GTX260 bei PhysX je nach Auslastung und Spiel: 5-12%, da hast Du ungefähr einen Anhaltspunkt.
    0
  • bleikrone
    Sehr geiler Bericht .. Hammer thumbs up
    0
  • bleikrone
    @ Spieler Zwei ich glaub nicht das es bei der 6000 Serie so einen Geschwindigkeitszuwachs geben wird, von einer seit wird gesagt das es eine neue Architektur bereit hält auf der anderen Seite wird spekuliert das vieles einfach nur umgelabelt wird. Was aber sicher ist das sie trotzdem noch in 45nm gefertigt werden und die 32nm überspringen werden womit Globalfoundries ja Probleme hatte bzw TSMC somit wollen die sich stärker auf die 28nm Struktur konzentrieren...
    0
  • FormatC
    @mesa69yin:
    Zitat:
    einerseits regt ihr euch auf dass nvidia ihr api als haus und hofstandard benutzt und andererseits ratet ihr den leuten eine nvidia grafikkarte zu kaufen!!?
    und wenn schon dann wenigstens onboard grafik als physix lösung anbieten!!!
    Niemand empfiehlt einen Neukauf, diese Stelle würde ich dann doch ganz gern mal sehen. Das zeigt übrigens nur, dass Du mal wieder nur bashst, ohne überhaupt alles gelesen zu haben. Aber so kennen und mögen wir Dich ja mittlerweile. :lol:

    Ich sehe nur: Ob es jedoch für jeden Sinn macht, muss der Betreffende für sich selbst entscheiden. Die Lektüre des Artikels hätte Dir auch zu verstehen gegeben, dass Onboard keinen Sinn macht (siehe Erwähnung zur 8400GS), zu wenige Shader-Einheiten. Unter 48 ist es Unfug, unter 64 nicht ratsam und unter 96 immer noch nicht optimal.

    Zitat:
    aja und das ganze mafia2 blabla von wegen die sind nicht fair zur freien presse!!! und dann läuft der ganze test mit mafia?!?
    Wieder mal ein Zeichen von "nicht gelesen". Metro 2003 habe ich im Artikel ja auch getestet. Ansonsten steht groß und gut lesbar da:

    Wir haben für diesen Test mit Absicht erneut dieses Spiel gewählt, weil wir darin einen recht gelungenen Kompromiss zwischen Physik- und herkömmlichen Grafikeffekten sehen. Cryostasis setzt auf überproportional viel PhysX und Metro 2033 im Gegensatz dazu auf überladene Grafikausgabe.

    Warum also ein altes Spiel nehmen, was keine Sau interessiert (Batman), oder keine genauen Schlüsse zulässt (Metro, Cryostasis) oder erst gar nicht funktioniert (Mirrors Edge)? Ich habe hier sogar zwei Mafia-DVDs liegen. Die erste habe ich selbst gekauft und importiert (siehe auch Kommentare zur betreffenden News) die zweite kam später dann doch noch vom Publisher, nach dem Release. Ich habe sogar eine passenden Bilderstrecke zum Spiel gemacht - inklusive kritischer Beurteilung. Mit der ersten DVD, der selbst gekauften.
    0
  • Anonymous
    @avatar
    entweder hast du den Bericht nicht gelesen oder du hast wirklich nur keine Ahnung.

    Der Bericht beweiss doch das erst eine gt8600 die gtx480 bremst, davon ist die gt240 weit entfernt.
    Also von welcher ATI Karte redes du das eine gt240 deine Karte bzw. System ausbremsen würde?
    Ohne zusätzliche Stromanschluss, möglichkeit eine passivern Betrieb und idle taktung ist eine gt240 in meine augen die momentan beste PhysX, in 6 Monaten gibts ja schon die gt420 :) für die ATI Besitzer.
    -1