Anmelden mit
Registrieren | Anmelden

PhysX: Lust, Last oder Frust? Analyse und Anleitung für ATI-Benutzer

PhysX: Lust, Last oder Frust? Analyse und Anleitung für ATI-Benutzer
Von

Selten hat ein Thema die Spieler so gespaltet wie PhysX. Wir wagen uns an eine Aufarbeitung, erklären CPU- und GPU-PhysX, zeigen, wie man auch mit einer ATI-Karte in den PhysX-Genuss kommt und suchen nach plausiblen Erkärungen abseits der Schlagzeilen...

Die Entwicklung der Spiele-Physik wird gern mit der Entwicklung des Films verglichen. Auch wenn der Vergleich ein wenig übertrieben und anmaßend erscheint, ein wenig Wahrheit steckt am Ende doch darin. Nachdem die Entwicklung der 3D-Darstellung bis hin zu nahezu photorealistischer Optik fortgeschritten ist, wird das Fehlen einer realistisch bewegten Umwelt immer deutlicher. Denn je besser die optische Darstellung gelingt, um so statischer wirkt plötzlich die Spielewelt ohne realistische Animationen und Bewegungen.

Vergleicht man die Anfänge einfacher VGA-Spiele mit den heutigen Spielen, dann merkt man sehr deutlich, wie weit die Spielegrafik in den letzten 20-25 Jahren fortgeschritten ist. Statt animierter Paletten und Pixel-Sprites misst man die Grafikqualität heute an komplexen Darstellungen wie Wasser, Spiegelungen, Nebel und Rauch und vor allem auch deren Bewegungsabläufen und Animation. Da all diese Berechnungen sehr komplex ausfallen, greifen die Entwickler von Spielen sehr gern auf sogenannte Physik-Engines zurück, also auf vorgefertigte Bibliotheken, mit denen sich beispielsweise Charaktere animieren lassen (Ragdoll-Effekte), oder komplexe Bewegungsabläufe (Fahrzeuge, herunterfallende Gegenstände, Wasser usw.)

Fallende und im Wind tanzende Blätter lassen eine Szene noch realistischer erscheinenFallende und im Wind tanzende Blätter lassen eine Szene noch realistischer erscheinen

Natürlich ist PhysX nicht die einzige derartige Engine, denn Havok wurde beispielsweise bis heute in wesentlich mehr Spielen eingesetzt als PhysX. Jedoch bietet PhysX, neben dem 2008 eingestellten Havok FX, derzeit als einzige etablierte Plattform im Gaming-Bereich die Möglichkeit, Berechnungen nicht nur auf der langsameren CPU, sondern auch auf der schnelleren Grafikkarte auszuführen. Und genau an dieser Stelle beginnt das aktuelle Dilemma, denn es gibt nur eine Schnittstelle, jedoch zwei Grafikkartenhersteller. Konfliktpotential genug für eine Menge Pressemeldungen und einen Haufen Schlagzeilen inklusive. Wir hoffen, wie die ganze Spielergemeinde auch, auf offene Standards und übergreifende Lösungen. Solange dies von der Spieleindustrie jedoch nicht realisiert wird, müssen wir das Beste aus dem machen, was uns von den Publishern angeboten wird. Und sei es auf der CPU.

Vorwort

Warum dieser Artikel? Oftmals befindet sich die Wahrheit irgendwo zwischen den Schlagzeilen. Weniger Emotionen, statt dessen mehr Pragmatismus. Dies ist unser Vorschlag an den Leser der nachfolgenden Seiten, auf denen wir all die in letzter Zeit aufgetauchten Probleme vor allem denjenigen näher bringen möchten, die über keinerlei Programmierkenntnisse verfügen. Deshalb werden wir auch manche Ausführung etwas vereinfachen oder abkürzen. Wir werden auf den nächsten Seiten hinterfragen, ob und in wie weit Nvidia wirklich CPU-PhysX bewusst zu Gunsten der eigenen Grafikkartenlösung ausbremst, ob CPU-PhysX nicht vielleicht doch multithreadfähig (und damit konkurrenzfähig) ist und ob PhysX auf der Grafikkarte wirklich alle Physik-Berechnungen problemlos und so vorteilhaft umsetzen kann, wie behauptet.

Zusätzlich werden wir in einem How-To demonstrieren, wie sich mit einem netten Tweak aus der Community auch eine ATI-Karte als Hauptgrafikkarte zusammen mit einer Nvidia-Grafikkarte als dedizierten PhysX-Karte nutzen lässt und unsere Ergebnisse mit passenden Benchmarks belegen. Denn uns interessiert, welche Kartenkombination wirklich Sinn macht und welche Slots sich dafür eignen. Warum also kapitulieren, wenn es Lösungen außerhalb der Herstellerdoktrinen gibt?

74 Kommentare anzeigen.
Auf dieser Seiten können keine Kommentare mehr abgegeben werden
Sortieren nach: Neueste zuerst | Älteste zuerst
  • SpielerZwei , 10. September 2010 09:40
    Schöner Artikel. Ich nutze eine 4890 und eine GTS250 für PhysX. Läuft perfekt mit einer Ausnahme: Mirror's Edge. Egal wie man es dreht, das Spiel rennt mit einer dedizierten PhysX Karte einfach ned. Sobald zB Glasscheiben zerbrechen sinkt die Performance auf ca 1 fps... Hab alles probiert, auch der offizielle 1.1 Patch für das Spiel bringt nix...
    Vor der GTS250 hatte ich übrigends eine 8600GTS mit 512 drin, damit lief eigentlich auch schon alles...
  • avatar_87 , 10. September 2010 09:44
    Am meisten hat mich überrascht, dass PhysX doch extrem stark mit stärkeren Nvidia Karten als PhysX-Karte skaliert.
    Schade, dass eine stromsparende gt 240 in der Regel wahrscheinlich nicht ausreichen wird.
    Damit fällt PhysX für mich als ATI-Nutzer flach. Diese zusätzliche Heizung für mein Case lohnt sich nicht.
    Und seihen wir ehrlich. Ist das Spiel gut, brauchen wir auch kein PhysX, oder?
  • SpielerZwei , 10. September 2010 09:46
    Anmerkung: Unterschied 8600GTS zu GTS250
    FluidMark 8600GTS ca 24 fps und mit ner GTS250 ca 30 fps
  • SpielerZwei , 10. September 2010 09:47
    Zitat :
    Schade, dass eine stromsparende gt 240 in der Regel wahrscheinlich nicht ausreichen wird.
    Damit fällt PhysX für mich als ATI-Nutzer flach.

    Wie gesagt auch mit ner GT240 bringt es Spass. Es gibt zwar nur eine Handvoll (guter) PhysX Spiele, ich möchte es aber nicht mehr missen. Besonders bei Batman: Arkham Asylum und Mafia 2.
  • FormatC , 10. September 2010 10:02
    Es kommt immer darauf an, wie viel PhysX auf welche Art genutzt wird. Wenn nur ein Auto zerlegt wird, reicht die GT240 locker aus. Für größere Partikelschwärme ist sie zu lahm. Eine 8600GTS ist stärker als eine 8600GT und liegt ca. 20% unter einer alten 8800 GTS 320.

    @SpielerZwei:
    Mirrors Edge ist einfach nur krank. Das macht selbst mit einer GTX480 keinen Spaß, voll der Flop - auch wenns läuft.
  • SpielerZwei , 10. September 2010 10:03
    Das stimmt schon. Meine Erfahrung ist aber das selbst eine 8600GTS reicht um flüssig zu spielen (Batman, Mafia 2, Metro). Hängt natürlich auch von der restlichen Hardware ab.
  • Anonymous , 10. September 2010 10:05
    Hey Community,
    leider hab ich den Artikel nicht so ganz verstanden:
    Habe als Hauptkarte ne ATI 5970 und hätte im Schrank noch ne GF8800 GTX (ca. 700mb) liegen..lohnt es sich nun das mal auszuprobieren oder würde ich damit das System irgendwie bremsen?
    Danke schonmal :) 
  • FormatC , 10. September 2010 10:14
    Das geht schon, frisst aber pervers Saft. Die alte GTX mit G80 dürfte sogar noch ganz ordentlich funktionieren, trotz uralter Cuda-Schnittstelle. Unterm Strich wird sich das wie eine 8800 GTS 512 verhalten, also brauchbar sein.

    Tip: Takte die alte Karte im Performance 3D etwas runter, also ungefähr auf GTS-Takt. Spart unter Last doch einige Watt.
  • Anonymous , 10. September 2010 10:44
    Mh, also wenn ich mit dem Enermax-Netzteil-Rechner rechne, würde ich insgesamt auf 524 Watt bei 90% System-Load kommen...

    Runtertakten im "Performance 3D"? Ähm sorry, komme zwar aus der Branche aber bin nicht Grafik-Profi :) 

    Danke für die Antwort, bevor ich irgendwas zerstöre :D 

    Meine Komponenten (für den Stromverbrauch):
    Antec TwelveHundred
    2xSATA HDDs/1xSATA Laufwerk
    i7 930@3,5Ghz mit nem Noctua NH-U9B SE2
    3x2GB DDR1333
    Gigabyte GA-EX58-UD5
    750 Watt BeQuiet
    Asus HD 5970/2GB


  • f1delity , 10. September 2010 10:47
    Interessanter und gut geschriebener Bericht, Zusatz-Nvidiakarte ist für mich allerdings nicht wünschenswert, noch mehr Wärmequellen brauche ich nicht, aber dass es nach wie vor funktioniert und das auch mit Karten um 80€ schon gute Leistung erzielt werden kann ist durchaus positiv.

    @FC
    Hast du zufällig Infos zur Hand ob diesen oder kommenden Monat noch eine GTX485 rausgebracht wird, habe da leider nicht offizielles finden können.
  • FormatC , 10. September 2010 11:24
    @Michael334545:
    Die ca. 550 Watt kannst Du schon großzügig einkalkulieren, das kommt schon hin mit dem Rechner von Enermax. Da passt die 8800 GTX gerade noch so dazu.

    @f1delity:
    Ob ichs weiß oder nicht - NDAs sind für alle da. Leider.
  • SpielerZwei , 10. September 2010 11:27
    NDA Hurra :)  Ich denk mal wenn AMD'S 6000er Serie im Oktober kommt muss nVidia mit irgendwas nachziehen. Es wird auf jeden Fall spannend :) 
  • FormatC , 10. September 2010 11:39
    Im Ernst - niemand weiß nichts Genaues. Nicht mal mein Händler und der hatte eigentlich immer die Infos am Ehesten, da er Asus-Partner ist.
  • Anonymous , 10. September 2010 11:46
    Alles klar ich werde mal mein Glück versuchen. Danke für die Hinweise, FormatC.

    LG Michael
  • Anonymous , 10. September 2010 12:23
    Die wirklich interessante Variante ist eine Kombination aus GTX460 und GTX260. Schade, dass der Test diese Kombination nicht weiter betrachtet.
  • FormatC , 10. September 2010 12:49
    Zitat :
    Die wirklich interessante Variante ist eine Kombination aus GTX460 und GTX260.
    Finde ich eher weniger. Denn wer kauft sich eine 460, die unter DX9/10 kaum mehr leistet als die GTX260? Das wäre eigentlich Geldverbrennung.

    GTX285 zu GTX260 bei PhysX je nach Auslastung und Spiel: 5-12%, da hast Du ungefähr einen Anhaltspunkt.
  • bleikrone , 10. September 2010 13:00
    Sehr geiler Bericht .. Hammer thumbs up
  • bleikrone , 10. September 2010 13:28
    @ Spieler Zwei ich glaub nicht das es bei der 6000 Serie so einen Geschwindigkeitszuwachs geben wird, von einer seit wird gesagt das es eine neue Architektur bereit hält auf der anderen Seite wird spekuliert das vieles einfach nur umgelabelt wird. Was aber sicher ist das sie trotzdem noch in 45nm gefertigt werden und die 32nm überspringen werden womit Globalfoundries ja Probleme hatte bzw TSMC somit wollen die sich stärker auf die 28nm Struktur konzentrieren...
  • FormatC , 10. September 2010 13:42
    @mesa69yin:
    Zitat :
    einerseits regt ihr euch auf dass nvidia ihr api als haus und hofstandard benutzt und andererseits ratet ihr den leuten eine nvidia grafikkarte zu kaufen!!?
    und wenn schon dann wenigstens onboard grafik als physix lösung anbieten!!!
    Niemand empfiehlt einen Neukauf, diese Stelle würde ich dann doch ganz gern mal sehen. Das zeigt übrigens nur, dass Du mal wieder nur bashst, ohne überhaupt alles gelesen zu haben. Aber so kennen und mögen wir Dich ja mittlerweile. :lol: 

    Ich sehe nur: Ob es jedoch für jeden Sinn macht, muss der Betreffende für sich selbst entscheiden. Die Lektüre des Artikels hätte Dir auch zu verstehen gegeben, dass Onboard keinen Sinn macht (siehe Erwähnung zur 8400GS), zu wenige Shader-Einheiten. Unter 48 ist es Unfug, unter 64 nicht ratsam und unter 96 immer noch nicht optimal.

    Zitat :
    aja und das ganze mafia2 blabla von wegen die sind nicht fair zur freien presse!!! und dann läuft der ganze test mit mafia?!?
    Wieder mal ein Zeichen von "nicht gelesen". Metro 2003 habe ich im Artikel ja auch getestet. Ansonsten steht groß und gut lesbar da:

    Wir haben für diesen Test mit Absicht erneut dieses Spiel gewählt, weil wir darin einen recht gelungenen Kompromiss zwischen Physik- und herkömmlichen Grafikeffekten sehen. Cryostasis setzt auf überproportional viel PhysX und Metro 2033 im Gegensatz dazu auf überladene Grafikausgabe.

    Warum also ein altes Spiel nehmen, was keine Sau interessiert (Batman), oder keine genauen Schlüsse zulässt (Metro, Cryostasis) oder erst gar nicht funktioniert (Mirrors Edge)? Ich habe hier sogar zwei Mafia-DVDs liegen. Die erste habe ich selbst gekauft und importiert (siehe auch Kommentare zur betreffenden News) die zweite kam später dann doch noch vom Publisher, nach dem Release. Ich habe sogar eine passenden Bilderstrecke zum Spiel gemacht - inklusive kritischer Beurteilung. Mit der ersten DVD, der selbst gekauften.
  • Anonymous , 10. September 2010 14:09
    @avatar
    entweder hast du den Bericht nicht gelesen oder du hast wirklich nur keine Ahnung.

    Der Bericht beweiss doch das erst eine gt8600 die gtx480 bremst, davon ist die gt240 weit entfernt.
    Also von welcher ATI Karte redes du das eine gt240 deine Karte bzw. System ausbremsen würde?
    Ohne zusätzliche Stromanschluss, möglichkeit eine passivern Betrieb und idle taktung ist eine gt240 in meine augen die momentan beste PhysX, in 6 Monaten gibts ja schon die gt420 :)  für die ATI Besitzer.
Alle Kommentare anzeigen