Anmelden mit
Registrieren | Anmelden
Ihre Frage
sticky

Mixed SLI - Unterschiedliche Grafikchips mischen

Stichwörter:
Letzte Antwort: in Grafikkarten
Teilen
11. März 2009 23:07:26

Mixed SLI - Was soll das sein?

Wer SLI-Systeme von nVidia mag und seinen Rechner lieber Schritt für Schritt aufrüstet, anstatt alles komplett zu kaufen, hat sich vielleicht auch schon darüber geärgert, daß nach ein paar Monaten die zuerst gekaufte Grafikkarte nun schon nicht mehr erhältlich ist.
Manchmal sind stattdessen nur andere neue Modelle oder auch nur zumindest teilweise überarbeitet neuere Revisionen der gewünschten Karte auf dem Markt.
Vielleicht ist ja sogar schon das entsprechende SLI-fähige Mainboard vorhanden, nur die passende zweite Grafikkarte fehlt. Die alles entscheidende Frage ist nun: lassen sich alte und neue Karte auch im SLI-System miteinander kombinieren oder gibt es da Probleme?

Laufen 2 unterschiedliche Grafikkarten-Modell im SLI-Modus?

Als Besitzer einer GTX260 (noch das alte Modell in 65nm mit 192 Shadern) stand ich ebenfalls vor dieser Frage. Ich habe lange Zeit mit dem Gedanken gerungen, zunächst das nötige Kleingeld gespart und danach alle möglichen Shops abgesucht, um dann genau wieder so ein dazupassendes Modell zu erstehen.
Irgendwie hat man dabei ja doch noch die früher geltende Regel im Hinterkopf, daß das SLI nur richtig funktioniert, wenn exakt die gleichen Grafikchips verwendet werden, diese möglichst noch vom selben Hersteller und mit genau den gleichen Taktraten sind, da dann die Wahrscheinlichkeit am geringsten ist, mit schwierigeren Problemen konfrontiert zu werden.

Doch ich konnte mit noch so drum bemühen, es war leider überall Fehlanzeige. Scheinbar sind nun doch die alten 65nm Modelle der GTX260 mittlerweile fast komplett abverkauft und nur noch die neueren in 55nm (nun meist mit 216 Shadern) erhältlich.
Ich dachte schon, ich hätte doch noch ein altes 65nm Modell gefunden und deshalb dieses dann ganz schnell noch bestellt, ehe es mir jemand anderes vor der Nase wegschnappt.
Doch nach dem Eintreffen des Paketes machte sich erstmal etwas Enttäuschung breit, es wurde doch eine 55nm Version geliefert. Auf dem Karton der Verpackung waren sogar einfach die entsprechenden Passagen durch einen kleinen zusätzlichen Streifen überklebt. So wurde aus der fertigen Schachtel einer GTX260-192 ganz schnell eine GTX260-216. Sollte man sich darüber noch beschweren können? Man hat ja schließlich was besseres erhalten, als bestellt wurde. Na, zumindest sind sie genauso getaktet.

Nach etwas Googeln gab es mir dann plötzlich doch etwas Hoffnung, daß im SLI-Forum auf der nVidia-Webseite diese Mischbestückung offensichtlich auch schon positiv getestet wurde.
http://forums.slizone.com/index.php?showtopic=28579
Naja, da die Karte schonmal da ist, kann man es ja mal ausprobieren.

Gemischte Chip-Kombinationen sind möglich

Mein eigener Test hat dies dann auch bestätigt.
Offensichtlich gelten die alten Regeln doch nicht mehr so ganz und nVidia hat in den neueren Grafiktreibern entsprechende Vorkehrungen getroffen, die es nun auch gestatten, unterschiedliche Chips miteinander im SLI zu verwenden. Oder umgekehrt - es wurden einige zuvor vorhandenen restriktiven Beschränkungen aus den Treibern entfernt.
Auch AMD hat da mit den Hybrid-Crossfire-Modi ja was ähnliches am Start. Und im Zuge des ganzes Hybrid-Hypes hat wohl auch nVidia so einige Verbesserungen vorgenommen. Gerade im unteren Bereich (performancemäßig betrachtet) soll ja mit dem sogenannten Geforce-Boost-Modus eine onboard mGPU (8200) mit einer kleineren diskreten dPGU vom Schlage einer Geforce 8400 GS oder einer GeForce 8500 GT kombinierbar sein.
Das wurde eine Zeit lang ja explizit beworben und auch da sind nicht notwendigerweise 2 identische Grafikchips im SLI-Verbund zusammengeschaltet.

Es sollten also nicht nur 2 ähnliche GTX260 wie in meinem Fall machbar sein, sondern unter Umständen sogar ungewöhnlichere Kombinationen wie z.B.
- eine 8800GTS-512 zusammen mit einer 8800GTX oder
- eine 8800GTS-512 zusammen mit einer 9800GTX oder
- eine 9800GT mit einer 9800GTX ...
sind nicht mehr undenkbar. Wer sich dafür interessiert, sollte einfach mal bei Google "Mixed SLI" eventuell zusammen mit der entsprechenden Modellbezeichnung eingeben und schauen was geht.

Jedem seine eigene Hardware-Mischung

Nun wird es konkret - ich verwende folgende Modelle:
Gigabyte GTX260 GV-N26-896H-B (192 Shader, 65nm) @576/1242/999
XFX GTX260 GX-260N-ADF AVC.0 (216 Shader, 55nm) @576/1242/1000

Jeweils oben im Bild ist das alte 65nm Modell und unten das neue Modell in 55nm, welches sehr gut daran zu erkennen ist, daß es auf der Rückseite kein Abdeckung hat, sondern den direkten Blick auf die nakte Platine erlaubt.


Nachdem ich die neue Karte zunächst einmal einzeln getestet habe, erfolgte der gemeinsame Einbau ins System samt aufgesteckter SLI-Brücke.


Die Grafik-Treiber 181.22 waren ja alle schon drauf und Vista (32 bit) bootete problemlos.
Nach ein paar Minuten Wartens und 2 Neustarts funktionierte die SLI-Kombination als wäre es das Normalste der Welt.



Allerdings verwirrt das komische Kartengemisch manche Diagnose-Software etwas.
Wo Everest bei der neuen 55nm-Karte fälschlicherweise 65nm anzeigt, macht GPU-Z den umkehrten Fehler und meldet statt einmal 65nm beide Karten als 55nm-Version, obwohl es ansonsten die restlichen Daten korrekt erkennt.


Was bringt es?

Zum Testen wird der Phenom II X4 940 ordentlich übertaktet, um die Grafikkarten ausreichend zu versorgen. Die folgenden Benchmark-Läufe sind zur besseren Vergleichbarkeit alle bei 3,76 GHz durchgelaufen (16*235MHZ=3760MHz und DDR2-800 @940 mit 5-5-5-15).

Zunächst zum Vergleich nochmal die alte 260-192 einzeln:


Die neue 260-216 liefert nur kaum mehr Punkte:


Und mit beiden Karten gemeinsam sieht es eigentlich auch ganz gut aus:


Ich war zu guter Letzt doch angenehm überrascht, wie problemlos die Mischbestückung funktioniert.
Im normalen Spiel-Betrieb bringt es jetzt nicht wirklich viel, ein paar mehr FPS sind manchmal schon drin, wenn das Spiel mit SLI was anfangen kann, aber das war ja so zu erwarten.
Die höchste Steigerung habe ich bisher bei der Fluid-Demo aus dem nVidia-PowerPack festgestellt, da sind etwa 30 Prozent Steigerung bei Darstellung in Full-HD (1920*1200) drin, von ca.20fps für eine Einzelkarte auf 26fps im gemischten Doppel.
Da ich mich demnächst einmal etwas genau mit einigen Cuda-basierten Anwendungen beschäftigen will, habe ich jedoch die Hoffnung, daß das SLI für diesen Einsatzzweck noch besser in Mehrleistung umgesetzt werden kann, ideal wäre wohl eine Verdopplung der Rechenleistung gegenüber einer GTX.
Ach ja - und übrigens funktioniert auch bei beiden Karten die Hybrid-Power-Abschaltung problemlos, zwar nur bei beiden gemeinsam und nicht einzeln, aber immerhin.

Und nun seid ihr dran

Ich würde mich freuen, wenn ihr hier eure Meinung dazu äußern könntet.
Vielleicht hat ja noch jemand solche ungewöhlichen Mischungen laufen. Immer her damit.
Irgendwie mag ich so komische/seltene Rechnerkonfigurationen, umso ausgefallener desto besser.
Geht eigentlich eine GTX260/280 mit der GTX285 zusammen oder gar GTX285+GTX295?
Wer hat Erfahrungen damit?
Danke schonmal fürs Lesen und eure hoffentlich interessanten Rückmeldungen.
11. März 2009 23:20:46

Danke für die Mühe. Wird gepinnt.

MISCHEN IMPOSSIBLE?
Anonymous
12. März 2009 13:39:17

Bin zwar kein Mischer.. Meine sind Zwillinge wie aus dem Ei.

Aber Sehr gute Arbeit Binnenfischer! Danke :) 

Ähnliche Ressourcen
Anonymous
12. März 2009 14:04:56

Zitat :
Vielleicht hat ja noch jemand solche ungewöhlichen Mischungen laufen. Immer her damit.

Ich könnte eine GTX260 mit einer 9800GT kombinieren, nur dazu fehlt
mir leider das geeignete Mainboard ;) 

Ansonsten, Super-Artikel @Binnenfischer !

P.S. Wie schaut es unter XP aus ?
12. März 2009 14:38:30

Sehr interessant. Wieder was neues gelernt. Danke!
12. März 2009 22:03:11

@dochurt: Das Mischen funktioniert auch mit XP.

Der kleine Nachtest unter XP hat leider etwas gedauert, da ich
1. noch einen neuen Treiber ziehen mußte (verwende hierfür jetzt 182.08),
2. den Monitor erst noch umstecken mußte, weil ich bei Verwendung der onboard GPU die GTX260 höchstens als Physix-Beschleuniger einsetzen konnte (Hybrid-Modus funktioniert nicht unter XP), und
3. die Übertaktung der CPU manuell im BIOS einstellen mußte (irgendwie weicht das hier ein paar MHz ab :heink:  ).

Belohnt wurde ich dafür erwartungsgemäß mit einem noch höheren 3DMark06 - Punktewert: 19600

Wenn ich jetzt noch die Grafikkarten etwas übertakte, müßte doch irgendwie auch die 20000-er Marke zu schaffen sein.
13. März 2009 06:32:09

Sollte. Gratulation :) 
24. März 2009 21:48:42

Schöne Arbeit Herr Binnenfischer. Die 55nm wird dann wohl auch nur auf 192 Pötten laufen oder? Wird wohl schwierig das über die Leistung herauszufinden weil die Unterschiede so gering sind aber wissen würde ich das schon gerne.

Von der Annahme her müsste es ja dann eigentlich innerhalb eines Chipdesigns mit sämtichen Derivaten funktionieren. Zum Beispiel die ganze G92 Reihe untereinander, das sind ja schon fast 10 verschiedene Karten. Die unterscheiden sich ja allesamt nur durch die Anzahl der aktivierten Shaderblöcke und den Takt.
Die BIOS-Version und Kartentakt sind z.B. schon recht lange irrelevant. Hatte vor 2 Jahren schon 2 7900GT Karten mit unterschiedlichen BIOS-Einstellungen (sprich Übertaktung) laufen und das zunächst garnicht gemerkt^^

25. März 2009 19:16:33

Zitat :
Die 55nm wird dann wohl auch nur auf 192 Pötten laufen oder?

Ich will eigentlich hoffen, daß dem nicht so ist - es sollten schon 216 Shader aktiv sein. Ich glaube nicht, daß durch den Treiber, die SLI-Brücke - oder was auch immer - ein Teil der Grafikkarte abgeschaltet wird. Wie sollte das gehen?

Die Sache mit der Übertaktung habe ich auch schon festgestellt. Ich kann in der nVidia-Systemsteuerung jede Karte einzeln auswählen:


Und damit kann ich Taktraten und Lüfterdrehzahlen beider Karten unabhängig voneinander einstellen.


Die Karte mit 216 ist dann eben für den Aufbau eines Bildes einen Tick schneller als die 192-er. So gesehen sind dann die Bilder nicht im idealen gleichmäßigen zeitlichen Abstand fertig berechnet. Dies sollte daher unter Umständen nur einen eventuellen Mikroruckler-Effekt etwas verstärken.
Wie ich das ausmessen kann ? - Naja, mit Fraps kann ich die Zeitpunkte ermitteln, an welchen die Frames ausgegeben werden. Daraus kann man die Zeitabstände ermitteln, aber irgendwie sehe ich da nichts von schneller bzw. langsamer Karte (es müßte theoretisch eine Zick-Zack-Linie entstehen, die immer auf und ab wackelt).

Beispiel Fluid-Demo aus dem Power Pack 1:


Ich habe mir überlegt, man könnte doch die fehlenden paar Prozent einfach dadurch ausgleichen, daß man nur die langsamere Karte entsprechend höher taktet. Oder habe ich da einen Denkfehler?
Anonymous
26. März 2009 08:04:09

Hab gerade gelesen das jemand 9800GTX+/GTS250 SLI (EVGA/ZOTAC) laufen hat..

26. März 2009 14:30:17

Es ist hier im Moment auch einer im Forum der eine 8800GT und eine 9800GT NICHT zum Laufen bekommt. Schlichtweg keine Chance SLi im Treiber zu aktivieren. Wobei ich da am ehesten gedacht hätte das es klappt.

Zitat :
Wie sollte das gehen?


Schlichtweg durch ausblenden von Shaderblöcken. Der Aufbau der Grafikchips lässt das ja eigentlich bequem zu ohne andere Bereich zu verwickeln. Die Methode an sich ist schon fast so alt wie Grafikkarten. Berühmte Beispiele sind die Radeon 9500 Mods oder 6800LE Karten die mittels Rivatuner zu vollwertigen GTs verwandelt werden konnten.
Was spricht dagegen, dass der Treiber selbiges Rückwärts selbstständig durchführt?

Zitat :
Hab gerade gelesen das jemand 9800GTX+/GTS250 SLI (EVGA/ZOTAC) laufen hat..


Selbe RAM-Menge?
26. März 2009 16:46:56

avaka sagte:
Die 55nm wird dann wohl auch nur auf 192 Pötten laufen oder?
Ohne es nachgemessen zu haben: Ich bin überzeugt davon die eine läuft im SLI Modus mit 216 und die andere mit 192 Pötten. Unter anderem weil in Notebook sehr viel asynchronere GPUs im SLI kombiniert werden 9500M = 9200M (dediziert) + 9400M (IGP) beim Dell Studio XPS 13" z.B.
http://www.notebookcheck.com/Test-Dell-Studio-XPS-13-No...

Zusätzlich sind OpenGL, Direct3D und CUDA schöne Schichtenarchitekturen. Die obere weiß nicht wie die untere etwas macht. Ist eine Karte schneller getaktet, dann erledigt sie ihre Arbeit fixer. Hat sie mehr Shader, dann ebenso. Ob's natürlich auf höheren Schichten dann wieder einen Load-Balancer gibt - weiß ich nicht. Die Tatsache, dass in Notebooks beide parallel laufen können (und nicht nur eine) suggeriert dies jedoch.

--

Also hättest Du gesagt, dass Du eine GTX260 mit 192 Pötten suchst, hätten Dir sicher einige hier im Forum eine solche Karte mit Handkuss im Tausch gegen einen 216er/55nm Karte gegeben.

Ich glaub' aber ich hätt mir dann gleich die GTX295 gekauft u. die alte 260er verkauft.
26. März 2009 23:02:35

Er hat nun mal ein SLI-Board und wollte dies auch mal voll bestücken. Spieltrieb und Neugier - warum nicht? Zumal man frei ist, eine Karte auszukoppeln und nur fürs PhysX zu nutzen, wenn das Spiel mir SLI nicht sonderlich skaliert. Das würde ich gern mal mit Cryostasis testen. Das Spiel ist der Hardwaremörder schlechthin.
26. März 2009 23:58:44

Ich hätte mir meinen letzten Satz verkneifen sollen. Neugier etc. passt schon! Finde ich ebenfalls sehr gut!

Offtopic - deshalb gestrichen:
PhysX ist im Moment aber doch eher eine uninteressante Technologie Demo. Hier zwei Vergleichsvideos Mirror's Edge mit/ohne PhysX:
http://www.anandtech.com/weblog/showpost.aspx?i=530
Möglicherweise bin ich da aber zu ungeduldig. Hatte mich doch schon im Dez 2007 heiß gelesen:
http://www.anandtech.com/video/showdoc.aspx?i=3171
Ich bin kein Gamer, aber nachdem was ich in letzter Zeit so gesehen habe ist in jedem neuen Game ein bißchen mehr Physik als früher drin. Macht einfach die CPU - sind ja stärker geworden. Das hier bestätigt nur den Technologie-Demo Charakter:
http://www.heise.de/newsticker/GDC-09-Neuerungen-bei-GP...
27. März 2009 10:08:11

@7oby:
Spiel mal Cryostasis. Das ist mehr als nur eine Demo ;) 
27. März 2009 10:47:59

Hab' mir die Techdemo angeschaut:
http://www.youtube.com/watch?v=7Yy-eYIpb7Q&fmt=22
Beeindruckend, aber was ist das: "Cryostasis doesn't utilize multi-Core CPU support, and thus makes it difficult for many players to play the game smoothly."
27. März 2009 11:54:27

Im Prinzip ist das sogar "unnötig". Selbst 4 Kerne einer normalen CPU wären nämlich nicht mal annähernd dazu in der Lage, die geforderten Berechnungen vorzunehmen. Wer mit einer ATI-Karte daherkommt, der kann immer noch auf SM3 stellen. Dann entfällt automatisch ein Großteil der Physikeffekte und das Spiel wird auch auf diesen Karten wieder spielbar ;) 
28. März 2009 23:34:34

Es wird wie bei ATI sein, die SPs orientieren sich am kleinsten Nenner. Deshalb bringt asynchron nicht wirklich etwas, wenn die Karten zu unterschiedlich sind.

Die Beschränkungen mußten aus dem Treiber raus, da sonst Mischkonfigurationen für PhysX ja nicht laufen würden, allerdings kann man das auf SLI nicht 1:1 übertragen.

Schade das es in Cryostasis keine Benchmark-Funktion mehr gibt. Die Effekte zu suchen, ist eher anstrengend. Bei Mirrors Edge auch nicht viel besser, mit oder ohne Physx muss man schon sehr genau kucken und vorallem wissen worauf man achten muss.
15. April 2009 19:33:35

Geht SM4 bei Cryostasis nur mit Vista und Nvidia?
15. April 2009 23:50:34

SM4 steht für DirectX 10 und da ist Vista im Einsatz. SM3 wäre dann DirectX 9.0x.
6. Mai 2009 09:43:11

@ fischer

was hast du für ein netzteil wenn ich fragen darf
6. Mai 2009 14:14:52

Ein BeQuiet Dark Power Pro P7 850W.
Klick mal unter seinem Avatar auf "Mehr Informationen" und dann auf "Konfiguration ansehen"

MfG
7. Mai 2009 09:04:19

man is das krass.....vor knapp 6 monaten habe ich mir ein 650W netzeil von corsair geholt....ui so viel power woooow....

jetzt reichtswarscheinlich nicht mehr für SLI oder ? ^^
7. Mai 2009 17:32:59

1. Dein Prozessor ist jetzt schon für eine GTX 260 zu lahm
2. SLI lohnt sich erst wenn du auf Full HD+ spielst, also 1920x1080 bis 2560x1600.
11. Mai 2009 13:34:10

Zitat :
SLI lohnt sich erst wenn du auf Full HD+ spielst, also 1920x1080 bis 2560x1600.


Ich bekomme mein neues GTX260 Setup aber spielend mit Ambiend Occlusion oder Mixed AA Einstellungen selbst in genügsamen Spielen wie World in Conflict oder GRID ans Pusten bzw. relativ langsam. Das sind dann so 50-60 FPS, wobei es ohne diese Schmankerl bis zu doppelte FPS sind.
In 22 Zoll Wide reichts im rühmlichen Crysis so gerade eben für komplette Very High Einstellungen und durchgängig 40 FPS.

Wer Qualitätsoptionen jenseits der Spieleregler einsetzt und auf nHancer bzw. den Treiber zurückgreift kann von SLi auch schon in 22 Zoll enorm profitieren. Ohne die 2te Karte ging das nicht oder zumindest deutlich weniger.
11. Mai 2009 13:50:12

Ich korrigiere meine Aussage:
SLI lohnt sich erst wenn du auf Full HD+ spielst, also 1920x1080 bis 2560x1600 und zuviel Geld hast :D 
10. August 2009 18:52:18

Wenn man zb die 2.nvidiakarte als physx einstellen will wo tut man das ? im spiel ?
oder im treiber ?
Und ums auf die spitze zu treiben, wäre es möglich eine ati als Grafikkarte zu nutzen
und eine sagen wir mal alte nvidia gleichzeitig als Physxkarte ?
Meine also eine ati nvidia mischbestückung aber natürlich kein sli..


Mixed SLI - Unterschiedliche Grafikchips mischen <--- ;) 

10. August 2009 19:36:22

PhysX stellst du im Treiber ein und wählst deine Grafikkarte aus die PhysX berechnen soll. Im Spiel stellst du dann nur noch ein ob die Physik durch Hardware berechnet werden soll oder eben nicht.

ATi und PhysX klappt nicht, das kannst du so gut wie vergessen. Unter XP soll es ansatzweiße laufen, aber unter Vista kannst du verschiedene Grafiktreiber nicht mehr mischen.
Wie das ganze unter Win7 aussieht, weiß ich nicht.
11. August 2009 17:27:44

Ok schade eigentlich sonnst hätte ne alte nvidia meine ati etwas in schwung bringen können *g*
in der art wie die damaligen reinen Physx Karten
25. August 2009 20:12:35

Es soll ja bald einen Chip geben der es erlaubt beide Karten auf einmal zu verwenden ich finde leider nicht mehr den Link mit dem Artikel
6. Dezember 2009 21:37:09

Das mischen von Grafikkarten ist so neu nicht , man musste halt nur damit leben das der niedrigste Takt den Takt angab, von daher , nix neues im Westen, mfg

Der Mischchip ist noch in der Testphase meines erachtens , es sollen dann aber Nvidia mit Atis laufen , solong

PS: heist der nicht Hydra oder so ?
17. Dezember 2009 03:50:21

hallo alle zusammen wollte nur eben mal sagen das das mit der ati als hauptkarte und eine nvidia als physx Karte gut funktioniert da gibt es keine probleme.. einfach die ati logischer weise in den pci-e slot 1 stecken und die nvidia in den slot 2 natürlich aber nicht mit einer pci-e bridge verbinden. unter windows nun den neusten ati treiber insatllieren wenn das gemacht ist dann unter nvidia.de nur den physx treiber runterladen und den auch installieren ( aber bloß kein nvidia treiber drauf machen nur physx treiber ) . wenn der physx treiber auch installiert wurde wird in der systemsteuerung ein neues setup menü auftauchen was sich einfach nur nvidia physx nennt. in dem menü kann man nun sagen welche hardware ( Karte ) als physx beschleuniger benutzt werden soll da dann einfach natürlich die nvidia Karte auswählen und übernehmen und schon hat man ein ati system mit physx . kleiner tip...... mindestens eine 9600gt als physx beschleuniger benutzen
19. Januar 2010 13:21:41

könnte man da auch ne 9800 Gt und ne 9600 gt verwenden`? Weil ich habe ne alte 96er rumliegen und die 98er gibst ja schon zum spottpreis...und mein kleiner bruder ist nur mit der 96er nicht zufrieden....
19. Januar 2010 13:22:54

könnte man da auch ne 9800 Gt und ne 9600 gt verwenden`? Weil ich habe ne alte 96er rumliegen und die 98er gibst ja schon zum spottpreis...und mein kleiner bruder ist nur mit der 96er nicht zufrieden....
20. Januar 2010 12:48:24

Nein, SLI wird höchstwahrscheinlich nichts, weil es verschiedene Chips sind.
9800 GT = G92
9600 GT = G94

Außer vielleicht mit dem schon genannten Multi-GPU-Chip Hydra von Lucid, der auf dem MSI Big Bang Fuzion sitzt. Aber wegen dieser 9x00 GT würde ich mir nicht dieses Board holen.

Dann lieber eine größere neue Grafikkarte holen und die 9600 GT verkaufen oder als PhysX-Karte weiter nutzen.
23. Januar 2010 11:20:57

moin, danke für den interessanten artikel ;) 

Zitat :
Nein, SLI wird höchstwahrscheinlich nichts, weil es verschiedene Chips sind.
9800 GT = G92
9600 GT = G94


Also ließe sich auch nicht meine gtx 260 mit meiner 8800gt kombinieren?

gruß wladimirxy
Anonymous
25. Januar 2010 16:07:51

nein.

Wie der Fischer schon schrieb.

Du könntest die GTX260 als Hauptkarte und die 8800GT als PhysX nutze.

Aber ich glaube das tust du schon.
15. März 2010 12:28:03

Nun ist es soweit, MSI hat sein Big Bang Fuzion mit dem Hydra Chip auf den Markt gebracht, die Ergebnisse sind zwar nicht unbedingt atemberauschend aber verbessert den Mixed Mode um einiges, es bleibt abzuwarten wie sich das ganze weiter entwickelt.

Ich sehe in dem Hydra auf jeden Fall eine Möglichkeit das auf AMD Plattformen in naher Zukunft wieder SLI Systeme möglich sind, auch ohne die Unterstützung von Nvidia.
27. April 2010 11:51:16

Ich habe seit kurzem diese Kombi im Einsatz:
Gainward GTX275 + eine Gainward 8800GTS(PhysX)
Funktioniert Perfekt :) 
6. Mai 2010 22:58:48

Das hat aber relativ wenig mit SLi zu tun. Von der Grafiklast her liegt alles auf der GTX275
11. August 2010 16:05:45

Hallo,

ich hab da auch nochmal ne Frage zum Thema..
Wenn ich das richtig verstanden habe kann ich eine GTX460 nicht mit einer GTX275 mischen (DX11 und DX10), da die 275 dann nur als dedizierte Physx Karte laufen würde ?
11. August 2010 19:29:28

Nein geht nicht.
Das "Mischen" geht nur in sehr sehr engen Grenzen. Es muss definitiv der gleiche Chip sein, dieser darf sich nur minimal voneinander unterscheiden, gleiches gilt für das BIOS der Karten. Der Speicherausbau MUSS der gleiche sein.

Ich hab hier aber mal was höchst Interessantes gefunden bezüglich SLi auf Non-Certified Boards. Passt nicht ganz in den Thread aber extra einen für aufmachen ist auch Quatsch.

http://xdevs.com/e107_plugins/content/content.php?conte...

Damit scheint es möglich sein so ziemlich alle Chipsätze auf den gängisten Betriebssystemen zu SLi zu überreden und das unabhängig vom verwendeten Treiber. Der Ghostrider hier aus dem Forum steht da auch in der Erfolgsliste mit seinem dicken Quadro 4800 Gespann auf nem Serverbrett.
21. April 2012 15:33:58

*Grab aus*

Also ich habe eine NVIDIA 9800gtx+ mit einer gtx570 kombiniert und die rennen im SLI einwandfrei!!!

Benchmarks zeigen auch eine erhebliche leistungssteigerung...(cuda_pyrit 10kPMK's/sec mehr als vorher)

Von wegen nur gleicher chipsatz!
Erst probieren dann reden :lol: 

Gruß
BluBb_mADe
21. April 2012 16:21:46

Rofl... das nicht dein ernst oder?

Die 9800GTX bremmst nur aus und im SLI werden die auch nicht laufen, SLI Brücke drauf?

Ich hab auch ne 210GT und 580GTX laufen, aber nicht im SLI, die 210GT dient nur dafür einen dritten Moni anzusteuern, auf dem ich nichts Leistungs aufweniges betreibe, wäre eh nicht möglich mit der 210GT, so wie mit ner 9800GTX.
23. April 2012 04:29:05

Hast du lesen gelernt oder so?
ich habe mit mit gtx570+cpu 28000 PMK's/sec
und mit gtx570+9800gtx+cpu 40000 PMK's/sec
also erzähl hier keinen stuss vom ausbremsen
Und ja ich hab da ne sli brücke drauf und ja der 301er
nvidia treiber hat beide Grakas einwandfrei erkannt!
und ich hab jetzt im crysis 2 benchmark die FPS von 45 auf 50
hoch bekommen.

Nur weil man das in nem Forum am namen stehen hat muss das
nicht wirklich stimmen mit dem expereten und so :D 
23. April 2012 07:16:08

GTX 570 und 9800 GTX zusammen funktioniert definitiv nicht, das ist schlichtweg Blödsinn.

Bevor hier weitere Diskussionen aufkommen:
Ich hätte gern einen Screenshot von Dir aus dem Nvidia-Kontrollzentrum, wo diese SLI-Konfiguration überhaupt angezeigt wird. Bis dahin: Ball flach halten.

Zitat :
cuda_pyrit 10kPMK's/sec mehr als vorher
Logisch, denn die 9800 GTX wird dann als PhysX-Karte genutzt. Das allerdings hat mit SLI überhaupt nichts zu tun, denn CUDA, DirectCompute oder OpenCL fallen in die Sparte GPGPU. Crysis 2 hat mit Cuda und PhysX allerdings nichts am Hut, das ist billiger Konsolendreck, selbst mit DirectX11-Update und HiRes-Texturpack. Übrigens wird Crysis 2 an Deinem tollen "SLI" kaum Freude haben, denn die 9800 GTX kann kein DirectX11. Damit läuft Crysis 2 dann im DirectX9-Modus und die Frameraten steigen automatisch um ca. 10-12%. Läuft schneller und sieht doch beschissener aus. :) 
23. April 2012 13:08:10

Also von schlechterer Grafik habe ich auf meinem fullHD Bildschirm nichts gemerkt und in den
einstellungen wird auch immer noch dx11 angezeigt...abgesehen davon unterstützt die 9800gtx+ dx10 :p 
Vieleicht berechnet die zweite Graka auch nur die Physics, dass ist möglich, aber ich bekomme auf jeden fall ein
fps boost.
Screenshots:
Windows
Linux
23. April 2012 13:13:40

DX10 interessiert bei Crysis2 nicht - DX9 oder DX11. Mehr gibts nicht :) 

Woran erkennt man nun SLI?
Ein aktiviertes SLI wird in der Nvidia-Systemsteuerung als solches angezeigt, man kann sich auch die Wirkungsweise per Overlay in den Spielen einblenden. Wo willst Du in Crysis sehen, ob DX11 oder der Fallback auf DX9 läuft? Wie gesagt, DX10 hat hier keine Bedeutung.
24. April 2012 20:48:39

Ich denke auch das der NV Treiber nur PhysX auf die 9800GTX schiebt und das wars.

Zitat :
Hast du lesen gelernt oder so?

Na, das muss aber nicht sein ne.
Kann ich auch sagen "schon mal Satzzeichen und Abzätze gesehen?"
Schau du lieber mal genau hin wen du hier so an machst. ;) 
9. Oktober 2012 10:07:04

Ich hab grad eine gtx460 und eine gtx560 ti drinne
laufen einwandfrei
grafiklast is auf beiden fast gleich
bf3 von 80 auf 100 fps geboostet!! <3