Tutorial: Externe PCIe-Grafikkarte an Thinkpad anschließen

elarei

Well-known member
Themenstarter
Registriert
2 Aug. 2009
Beiträge
3.288
1) Worum geht es?
Hier wird eine Möglichkeit beschrieben, ein Thinkpad mit handelsüblichem ExpressCard-Anschluss mithilfe eines Adapters des taiwanesischen Herstellers HWTools um eine externe Desktop-Grafikkarte (PCIe) zu erweitern. Das macht z.B. dann Sinn, wenn man nur über eine schwache, integrierte Intel-Grafikkarte verfügt und gerne 3D-intensive Spiele spielen möchte. Die Grafikleistung kann sich hier gegenüber den Intel-Standard-Chipsatzgrafiken bis zu verzehnfachen. Achtung: das funktioniert nur an einem externen Monitor "richtig", bei Verwendung des internen Displays hingegen nimmt die Leistung deutlich ab. Beachte: Seit der "Sandy Bridge"-Generation ist die Leistung über den ExpressCard-Adapter deutlich höher, die effektive Leistung ist um etwa Faktor 1,5 erhöht und unterscheidet sich nicht mehr maßgeblich von Desktopleistungen.

vgl. http://hardforum.com/showthread.php?t=1522180

Zunächst ein paar Zahlen (gemessen mit 3DMark06):
Flory: x201 tablet, i7 640LM 2.13Ghz, 6GB RAM, HD 5770 1GB, PCIe 1x: 10987 3DMarks06
Flory: x201 tablet, i7 620LM 2.00Ghz, 6 GB RAM, HD 5770 1GB, PCIe 1x: 9927 3DMarks06
Flory: R400, T6670 2.2Ghz, 3GB RAM, HD 5770 1GB, PCie 1x: 7808 3DMarks06
Flory: x201 - i5 540M - 4GB RAM - ATI HD 5770 1GB - Win 7 64bit 11923 3D Marks06
Flory: x200, P8600, 6 GB RAM, HD 5770 1GB, PCIe 1x: 10232 3DMarks06
neonis: R61, ????, ?????, HD 5770 1GB, PCIe 1x: 9663 3DMarks06
elarei: x200s, SL9400 1.86Ghz, 4 GB RAM, HD 5750 1GB, PCIe 1x: 8360 3DMarks06
elarei: T400s, SP9400 2.4Ghz, 8 GB RAM, HD 5750 1GB, PCIe 1x: 9297 3DMarks06
elarei: x201, i5 540M, 3 GB RAM, ATI 5750 1GB, PCIe 1x: 11269 3DMarks06
Malloc: x200s, SL9400 1.86Ghz, 4 GB RAM, HD 5770 1GB, PCIe 1x: 7749 3DMarks06
die_matrix: R60, T5600 1.83GHz, 3GB RAM, GF 8800GT 512MB, PCIe 1x: 3905 3DMarks06
die_matrix: R60, T5600 1.83GHz, 3GB RAM, HD5750 1GB, PCIe 1x: 7769 3DMarks 06
x220t: X220 Tablet, i5-2520 3.00GHz, ..., GTX560Ti, PCIe 1x: 17200 3DMarks06
ckx2: W520, i5-2540 3.00GHz, ..., GTX570, PCIe 1x: 17750 3DMarks06
diablo666: T430 i7 3630QM, 16GB, GTX580, PCIe 1x: 23396 3DMarks06
Bitte lies zunächst den gesamten Post, besser noch das gesamte Thema sorgfältig durch, um dich zu informieren, ob das mit deinem Laptop und deiner Wunschhardware überhaupt funktionieren kann. Frage lieber nach, bevor du Geld in den Wind schießt.

974_0_w81.jpg

Warnung


Wer im Umgang mit technischem Equipment nicht versiert ist, sollte die Finger davon lassen. Das offene Betreiben von Desktop-Grafikkarten und -Netzteilen ist gefährlich und kann ernstzunehmende Schäden an Gesundheit und Hardware verursachen! Daher sollte jeder, der im Umgang mit den Innereien von Computerhardware nicht geschult ist, auf den Nachbau dieser Grafikkartenlösung verzichten!

Hardware muss vernünftig elektromagnetisch abgeschirmt werden (z.B. durch ein adäquates Gehäuse). Wird eine externe Grafikkartenlösung ohne Gehäuse betrieben, besteht die Möglichkeit, dass andere Geräte im Umfeld dadurch gestört werden. Eine solche Störung kann, sofern sie angezeigt und nachverfolgt wird, juristische Konsequenzen nach sich ziehen.
(Danke für den Hinweis an .matthias)

2) Benötigte Hardware
Benötigt wird für den Aufbau:
- der notwendige Adapter von HWTools PE4H mit allem Zubehör
- ein externes ATX-Netzteil mit ausreichend Power (>350W sollte reichen), wie sie in Desktops verbaut werden
- eine handelsübliche PCIe-Grafikkarte, wie sie in Desktops verbaut werden
- ggf. ein zusätzliches mHDMI-mHDMI-Kabel, da das mitgelieferte sehr kurz ist
- evtl. ein Gehäuse, um Explosionen und Todesgefahr zu vermeiden

Die Preise sind wie folgt zu kalkulieren:
- Adapter: ca. 80 Euro mit Versand von HWTools
- ATX-Netzteil: ca. 20-60 Euro nach Quelle und Leistung (z.B. ebay)
- PCIe-Grafikkarte: ca. 20-unendlich Euro nach Bedarf (bis 100€ sind realistisch)
- (optional) HDMI-Kabel: ca. 10 Euro (z.B. hier das)
- (optional) Gehäuse: ca. 50-unendlich Euro nach Geschmack (vgl. Seite 19)

3) Aufbau 1 (Hardware)
- Die Grafikkarte wird in den Adapter gesteckt.
- Der MOLEX-Stecker am Adapter wird an das Netzteil angeschlossen.
- Das mHDMI-Kabel wird an den Adapter gesteckt, an den "PCIe 1x"-Slot. (Das Kabel ist symmetrisch, die Richtung ist egal.)
- Das mHDMI-Kabel wird an der anderen Seite an den ExpressCard-Adapter gesteckt.
- Wenn die Grafikkarte einen externen PCIe-Stromanschluss besitzt, wird dieser angeschlossen.
- Der externe Monitor wird an die Grafikkarte angeschlossen.
- SWEX (kleine grüne Platine von HWTools) wird an das Netzteil am Motherboard-Connector angeschlossen. Bitte darauf achten, dass das Netzteil abgeschaltet bzw. nicht am Netz angeschlossen ist.
- SWEX wird auf "On" geschaltet.
- Netzteil anschließen und anschalten. Läuft der Grafikkartenlüfter an und es gibt keine komischen Piepstöne, funktioniert es.
- Notebook anschalten, in Windows booten und den ExpressCard-Adapter reinschieben.
- Wenige Sekunden warten, bis eine "VGA-Standardgrafikkarte" erkannt wird (evtl. auch gleich der Treiber installiert wird, je nach Karte/OS).

4) Aufbau 2 (Software)
- Treiber installieren. Vorzugsweise sollte man das manuell machen: einfach im Gerätemanager die "VGA-Standardgrafikkarte" rechtsklicken und den passenden ATI/NVidia-Treiber, den man vorher irgendwo hin entpackt hat, installieren.
- NICHT NEUSTARTEN, solange die externe Karte angeschlossen ist. Stattdessen in die Anzeigeoptionen wechseln und dort nach dem externen Monitor suchen, der da hoffentlich erschienen ist.
- Im Normalfall: Externen Bildschirm als Hauptbildschirm definieren, die anderen abschalten. Voilà!
- Nach Bedarf ATI Catalyst Control Center u.ä. installieren; das kann jedoch zu Instabilität führen.
- Jetzt die "Bekannten Probleme (6)" lesen.

5) Try it out
Am besten führt man nun erstmal ein Benchmark (bewährt ist z.B. 3DMark2006) aus: durch die untypische Anbindung über PCIe 1x statt 16x wird die eigentliche Leistung der Karte erheblich reduziert. (Man kann von ca. 60% der normalen Leistung ausgehen.)

Wer sich ein Gehäuse bauen will, findet hier (aktualisiert) eine Möglichkeit. Es ist dringend sinnvoll, ein Gehäuse zu nutzen, um die Unfallgefahr zu minimieren.

Ich würde mich jederzeit freuen, wenn mir Leute ihre Benchmarkwerte nennen oder im Thread posten, damit wir obige Liste möglichst aussagekräftig bekommen können.

6) Bekannte Probleme
Laptops booten nicht, wenn die Karte angeschlossen ist
Dafür gibt es bisher nur den Rauszieh-Workaround. (-> Erst im Betrieb anschließen oder vorher die Karte nicht mit Saft versorgen, z.B. über eine Kippschalter-Steckdose. Achtung, so eine Steckdose als regelmäßiger An-Aus-Schalter kann auf Dauer dem Netzteil Schmerzen bereiten.)

Laptops mit integrierter ATI- oder NVidia-Grafik
Wenn im Laptop eine ATI-Grafikkarte integriert ist, dann sollte man sich für die externe Lösung eine NVidia-Karte zulegen. Der Grund ist folgender: mehrere ATI-Treiber nebeneinander vertragen sich nicht; bei der Installation eines neuen ATI-Treibers (z.B. für eine HD5750) überschreibt dieser den alten ATI-Treiber (z.B. für eine integrierte Radeon-Grafik). Will man den Laptop wieder mit der internen Grafik betreiben (wenn man z.B. unterwegs ist), so muss man den Treiber installieren, womit man den Treiber der externen Karte überschreibt. Das Ganze ist also sehr unkomfortabel. Nach ersten Vermutungen und Beobachtungen dürfte das bei einer NVidia-Karte an einem ATI-Laptop nicht passieren.
Ob dasselbe Problem bei integrierter NVidia-Grafik und einer externen NVidia-Grafikkarte auftritt, ist bisher nicht klar.
Bei Switchable Graphics wird der ATI-Treiber ebenfalls überschrieben. Es ist empfehlenswert, bei der Nutzung einer externen ATI-Karte die Grafik im BIOS auf "Integrated Graphics" zu schalten und die Switchable-Funktion zu deaktivieren.

Lenovo Power Management (Driver) / Energiemanager
Mit dem Energiemanager und dem dazugehörigen Power Management Driver scheint es Probleme mit externen Grafikkarten zu geben, die zu Abstürzen bei der Verbindung mit der externen Karte führen. Eine Deinstallation des Power Managements reicht.

Systemabsturz bei Einstecken des Adapters
Es kann passieren, dass eine Verbindung mit der externen Karte bei einem Thinkpad konsequent zu Systemabstürzen, Bluescreens u.ä. führt. In solchen Fällen ist es ratsam, Windows neu aufzusetzen und nur ein absolut notwendiges Minimum an Treibern zu installieren (kein Powermanagement!), bevor man noch einmal probiert. In vielen Fällen sind alte Grafiktreiber ein Problem. Auch eine interne "Switchable Graphics" sollte deaktiviert sein (in diesem Falle im BIOS die "Integrated Graphics" wählen und die Switchable-Erkennung ganz deaktivieren).
Evtl. hilft es, den Laptop vor der Verbindung in den Energiesparmodus/Standby (Halbmond, NICHT Hibernation/Ruhezustand) zu versetzen und ihn erst nach dem Einstecken aufzuwecken.
Es gibt bei manchen Modellen Probleme in Verbindung mit HDMI-Anschlüssen. Dazu kann man das DIY-Setup-Programm einsetzen, das von HWTools erstellt wurde; eine Anleitung lieferte Benutzer tura weiter hinten im Thread. Auch für viele andere Arten von Problemen könnte dies abhelfen.

Miese Leistung
Die Leistung der Grafikkarten an dieser Adapterlösung ist nur ca. 50-70% so gut wie in "normalen" Szenarien. Dennoch ist das die drei- bis zehnfache Leistung der integrierten Grafikchips (Stand Mitte 2010) und locker spieletauglich. Sogar die Napalmbomber unter den Spielelaptops, die Alienware-Maschinen, sind nur 20-30% (bis zu ~15000 3DMark06-Punkte) stärker als ein stromspar-optimiertes Thinkpad x200s mit einer externen HD5750 (~10000 3DMark06-Punkte).

Wer es ausprobiert hat, kann sich ja hier mit Notebookmodell, Grafikkartenmodell und Punktewert bei PC Mark 2006 verewigen.

Gruß,
- elarei
 
Zuletzt bearbeitet:
So, Adapter sind jetzt alle da und ich habs am Wochenende mit ner alten NVIDIA 9500GT getestet. Mit meiner vorhandenen Win10 installation (kürzlich von win7 upgegraded) hab ichs nicht zum laufen bekommen. Selbst wenn die Karte fehlerlos im Gerätemanager aufgeführt wurde (manchmal hatte ich auch Fehler 12) wurden die Bildschirme nicht erkannt. Beim booten hat er den Bildschirm am DVI flackernd erkannt, sobald man aber die Maus bewegt hat hat er nen Fallback aufs interne Display gemacht und Windows hat rumgezickt.
Die Lenovo Energie-Manager-Treiber ließen sich aus nem komischen Grund nicht deinstallieren, und auch so hatte die upgegradete Win10 installation einige Macken die ein produktives Arbeiten etwas erschwerten.

Hab dann kurzerhand ein nacktes win7 auf ner alten HDD aufgespielt und nochmal versucht. Letztendlich ging es, nachdem ich die von win7 installierten GraKa Treiber gegen welche von der NVIDIA Seite getauscht UND die Treiber von meiner Intel HD3000 installiert hatte :), wobei der ausschlaggebende Grund eher die Intel HD3000 Treiber waren. Nach einer Plug'n'Play Lösung hat sich das Ganze aber noch nicht angefühlt (abstürze bei rausziehen im laufenden Betrieb, ...). Davon abgesehen bringt die 9500GT deutlich weniger 3dmarks als die interne, dafür dreht der Notebooklüfter beim Benchen gefühlt weniger hoch, d.h. mehr TDP für die CPU.

Wenn sich jemand erbarmt und mein Paket annimmt, sollte heute Abend ne frischgebackene MSI 960GTX 4G Gaming aufm Schreibtisch liegen und dann bin ich mal wirklich Gespannt. Gleichzeitig hab ich gestern noch ein frisches Win10 installiert, welches abgesehen von Bluetooth auch schon etwas runder läuft (dafür installiert das dumme Ding Treiber wie es im grade in den Sinn kommt, garnicht so einfach ihm das abzugewöhnen, stichwort Energiemanager :facepalm:).
 
Zuletzt bearbeitet:
@ 007 : Bezüglich deines Wunsches ,einen Quadcore im X230 zu verbauen : Warum holst Du dir nicht ein Elitebook 2570p (Ist das entsprechende 12,5" Gegenstück von HP) ?
Denn bei diesem ist die CPU gesockelt und nach meinem Kenntnisstand laufen die 4-Kerner problemlos (Auch von der Kühlung her) .
Der User enrico65 kann dir ansonsten noch Näheres berichten .

Gruss Uwe
 
@ 007 : Bezüglich deines Wunsches ,einen Quadcore im X230 zu verbauen : Warum holst Du dir nicht ein Elitebook 2570p (Ist das entsprechende 12,5" Gegenstück von HP) ?
Denn bei diesem ist die CPU gesockelt und nach meinem Kenntnisstand laufen die 4-Kerner problemlos (Auch von der Kühlung her) .
Der User enrico65 kann dir ansonsten noch Näheres berichten .

Gruss Uwe
Wow, wäre aufjedenfall mal ein neuer Ansatz den ich mir bei Gelegenheit mal genauer anschauen werde.

Ist für meine Thinkpad-verwöhnten Augen jetzt zwar nicht gerade die Schönheit vom Lande, hätte aber wenigstens nen Pointing Stick ohne den ich nunmal einfach nicht kann (auch wenn man ja immer hört dass die den Thinkpads Qualitativ nicht das Wasser reichen können und leider die mittlere Taste fehlt).

Werd jetzt glaub erstmal noch ein Jahr abwarten und schauen was die nächste Generation an Thinkpads bringt (Hoffe da auf ein T470p mit etwas besserer Laufzeit beim kleinen Akku bzw. größerem Akku bei ähnlichem Gewicht und Thunderbolt3).

Wenn ich das egpu-System zum Laufen bringe muss ich dann eh erstmal schauen in wiefern die CPU vom x220 hier den Flaschenhals bildet, wenn alles gut läuft gibts heut Abend erstmal ne Ladung Benchmarks *freu*.

Danke aufjedenfall :)

- - - Beitrag zusammengeführt - - -

So,
gestern alles doch relativ problemlos ans Laufen bekommen und mittlerweile auch nen Weg gefunden wie das Ganze einigermaßen Plug'n'Play wird (Grafikkarte auswerfen vor Abstöpseln bzw. in Standby setzen vor einstöpseln).

Mit der Leistung bin ich jedoch noch nicht so ganz zufrieden, da hatte ich vor allem beim 3Dmark06 mit etwas mehr gerechnet (22000-23000 hätte ich schon gern gehabt), die Karte sollte um die 33000 bringen können und 17000 schaffen andere ja auch schon mit ner GTX570. Bei den anderen Benchmarks scheint die Karte immerhin etwa 2/3 von der theoretischen Performance zu schaffen. Unterschied zwischen den Originaltreibern und den von Microsoft installierten Treibern scheint es was die Leistung betrifft keinen zu geben, der Originaltreiber ist aber etwas umfangreicher (physX, ...), zumindest deutet die Installation das an.

3Dmark06: 18380
3Dmark11: 6692
3Dmark Firestrike 1.1: 5252
3dmark SkyDiver 1.0: 12606
3Dmark Cloudgate 1.1: 10178

Was mich noch irritiert hat ist, dass wenn ich die Karte mit dem MSI Afterburner übertakte die Karte laut Benchmark langsamer wird :confused:

Hatte gestern auch noch kurz meine win10 SSD kurzerhand in ein T430s geschoben, leider scheint da das Bios zu alt/zu neu zu sein, komme nicht über den Fehler12 hinweg und konnte daher leider nicht benchen (wenn ich sicher wüsste, dass es mit der xx30 Serie deutlich performanter läuft, wäre ein x230 eine ernsthafte überlegung^^)

Restlos überzeugt bin ich von dem nicht ganz billigen System noch nicht, hab mir jetzt aber mal sicherheitshalber einen noch vieeeeeeel teureren 4k Monitor bestellt, vielleicht ändert sich meine Meinung ja dann :D

Spieletechnisch hab ich bisher nur Civ5 (FHD alles auf max ohne Antialiasing [kein Bild mehr] butterweich mit vsync bei konstant 60fps) und Need for Speed Most Wanted (FHD alles auf max, ohne supersampling konstant bei gut über 40fps, mit 2x supersampling noch ~25fps, spiel fühlt sich aber träger an) welches es gerade für umme bei Origin gibt, getestet.

So, genug gefaselt :)

lg
[oo7]
 
Zuletzt bearbeitet:
Hallo Forengemeinde,


ich habe mich jetzt auch mal an eine eGPU gewagt, allerdings keine fette GTX verbaut, da mir die Teile einfach zu teuer sind.


Geräte:
- Thinkpad X201, Core i5 540M 2,53GHz
- GeForce GT 730 2GB GDDR5
- PE4C 3.0 mit dem passiven D220P-Netzteil


Zunächst hatte ich hier eine kleine Hürde zu meistern: Wenn man den neusten Intel HD-Treiber installiert hat (also nicht den von Lenovo, sondern direkt von Intel) und das Gerät mit der angeschlossenen eGPU startet, friert Windows nach Installation der Treiber ein.
Es friert auch nach Abstecken der eGPU weiterhin ein.


Die einzige Möglichkeit das wieder hinzubiegen ist das Starten im abgesicherten Modus und das Setzen der Umgebungsvariable devmgr_show_nonpresent_devices=1.
Nun kann man im Gerätemanager nicht angeschlossene Geräte anzeigen und dort alle Grafiktreiber löschen.


Danach normal starten, Intel-Treiber von Lenovo installieren, Ruhezustand, eGPU anstecken, aufwecken, NVidia-Treiber installieren, Spaß haben. :)


Funktioniert auch mit dem VGA-Anschluss perfekt, über das interne Display bricht die Leistung allerdings extrem ein.


Die Vorteile dieses Setups: Es ist quasi unhörbar und die GT730 verbraucht lediglich 23 Watt zusätzlich. Eine enorme Steigerung zu der ranzigen Intel-Grafik.


3DMark06: 10969 Punkte. Das reicht mir.
 
Da ich 4k Monitore ansteuern können wollte musste es bei mir ein aktuelles Modell mit Displayport 1.2 werden.
Hab mir grade auf ebay ein x230 mit i7 geschossen und hoffe dass sich die Beschreibung der Mängel schlimmer anhört als sie ist^^.

Da ich nächste Woche im Urlaub bin kann ich erst übernächste Woche berichten ob es einen merklichen Performancegewinn gibt.
 
OK, Urlaub vorbei (war schön :) ), x230 mittlerweile ausgepackt und die Mängel sind bei weitem nicht so schlimm wie sie sich angehört haben^^.

Leider bekomm ich die externe Karte bisher nicht zum laufen. Wenn ich sie im laufenden Betrieb anstecke bekomme ich den Error12. Starte ich mit Externer Grafikkarte startet er nach dem anschalten direkt neu (automatische Tolud anpassung?), bleibt danach dann aber am Startbildschirm hängen :confused:.
Bios ist von 2013 und sollte aktuell genug sein (2.56), habe es auch schon mit zurücksetzen versucht. Mehr als 8GB Ram sind auch nicht verbaut.

Somit bin ich mit meinem Latein nun leider am Ende, da das meines Wissens so ziemlich alle gängigen Fehlerquellen für das x230 waren. Habe ich etwas übersehen?

lg
 
Schonmal Standby->Anstecken->Aufwecken versucht?
Ja, ändert leider auch nichts am Fehler12. Hab auch testweise nochmal die Treiber direkt von NVIDIA deinstalliert und mir die von Microsoft Update installieren lassen.
Wäre sehr schade wenn man das Ganze Setup nicht doch noch zum funktionieren bekommt, am x220 läufts ja soweit wunderbar.

Danke für die Antworten btw. :)
 
So, es gibt ein paar Neuigkeiten von der Front.
Habe es mit Hilfe eines manuellen DSDT Overrides geschafft, dass die Grafikkarte soweit schonmal halbwegs problemlos erkannt wird und ich die Treiber installieren konnte. Monitore ansteuern ist soweit auch kein Problem, aber leider möchte die Karte keine Last erzeugen.

IN GPU-Z wird die GTX960 als PCIe2 angegeben und wenn ich den Rendertest starte schmiert GPU-Z nach kurzer Zeit ab.
3Dmark06 bleibt beim laden hängen und erzeugt danach ab und an die Fehlermeldung dass die Karte nicht mehr gefunden wird. Einmal hab ich es merkwürdigerweise zum Laufen bekommen, den Test aber dummerweise nach ein paar Sekunden abgebrochen. Die Framerate sah mit dem x230 aber schon deutlich besser aus als auf dem x220 (~30% mehr frames).

Ansonsten sieht das Setup gut aus, und ich hab leider keine Ahnung woher die Probleme kommen.

Hatte jemand von euch schonmal ein ähnliches verhalten?

lg oo7
 
Ja hatte auch schon unerklärliche Abstürze. Bei mir lies es sich auf das 450 Watt Netzteil zurück führen was laut Datenblatt eigentlich locker die nötige Leistung für die Graka hätte bringen können. Nach mehrmaligen hin- und hertauschen mit einem zweiten Netzteil bei dem es keine Probleme gab (hatte auch nur 450 Watt aber halt anderer Hersteller) hatte ich kein Problem mehr.
Das Problemnetzteil bei mir war ein SFX Netzteil von Silverstone.
 
Ja hatte auch schon unerklärliche Abstürze. Bei mir lies es sich auf das 450 Watt Netzteil zurück führen was laut Datenblatt eigentlich locker die nötige Leistung für die Graka hätte bringen können. Nach mehrmaligen hin- und hertauschen mit einem zweiten Netzteil bei dem es keine Probleme gab (hatte auch nur 450 Watt aber halt anderer Hersteller) hatte ich kein Problem mehr.
Das Problemnetzteil bei mir war ein SFX Netzteil von Silverstone.
Am x220 läufts ja problemlos.
Die Karte hat ne TDP von höchstens 120 Watt und ich hab hier ein Steckernetzteil mit 220W dran ... sollte also genug Puffer vorhanden sein.

Werd jetzt alles nochmal frisch installieren und den Override fehlerfrei ausführen. Musste beim ersten Mal viel rumbasteln inkl. Restore und hatte insgesammt auch 3 Grafikkarten inkl. Treibern dran. Vielleicht hatte sich da einfach irgendwo was verhackt.
 
Die Karte hat ne TDP von höchstens 120 Watt und ich hab hier ein Steckernetzteil mit 220W dran ... sollte also genug Puffer vorhanden sein.

Nein, da machst du es dir zu einfach - ein PC-Netzteil gibt nicht immer die volle Leistung über eine Leitung raus.
Dass deine Karte eigentlich erkannt wird, aber nur bei Belastung abschmiert, spricht dafür, dass die Leistung nicht ausreicht.

Für die eGPU relevant sind stabile 12 Volt. Schau mal auf dein Netzteil (oder google) wieviel Ampere es auf dem 12V-Ausgang ausgeben kann. Volt mal Ampere = Watt.

Ich würde mal mit einem Dell DA-2/D220P gegentesten. Das bietet 216 Watt (12V*18A), kommt ohne Lüfter aus und ist für nen Appel und 'n Ei in der Bucht zu haben.
 
Nein, da machst du es dir zu einfach - ein PC-Netzteil gibt nicht immer die volle Leistung über eine Leitung raus.
Dass deine Karte eigentlich erkannt wird, aber nur bei Belastung abschmiert, spricht dafür, dass die Leistung nicht ausreicht.

Für die eGPU relevant sind stabile 12 Volt. Schau mal auf dein Netzteil (oder google) wieviel Ampere es auf dem 12V-Ausgang ausgeben kann. Volt mal Ampere = Watt.

Ich würde mal mit einem Dell DA-2/D220P gegentesten. Das bietet 216 Watt (12V*18A), kommt ohne Lüfter aus und ist für nen Appel und 'n Ei in der Bucht zu haben.
Genau das Dell Netzteil hab ich ja :)
Die Anzeichen sprechen schon dafür, dass da irgendwo nicht genügend Strom ankommt ... wäre zumindest plausibel.

Die Neuinstallation hat übrigens nichts gebracht, hab aber noch ein paar Netzteile rumliegen und werd es dann mit einem von denen (dem stärksten) mal gegentesten.

edit: Wobei das dann natürlich noch nicht so ganz erklären würde warum die Karte am x230 als Gen2 erkannt wird (x220 Gen3) und es am x220 problemlos geht. Am ehesten könnte ich mir ein Problem mit dem zusätzlichen 6Pin Stromstecker an der GraKa vorstellen, werd heut Abend mal testen obs auf dem x220 auch laufen würde wenn die Karte nur durch den Slot mit Strom versorgt wird.
Wenn alles nix hilft werd ichs mal mit nem leicht anderen override Ansatz versuchen weil ich mich an ein Tut direkt fürs x230 gehalten hab (da wird z.B. mit asl.exe kompiliert, während im original Tutorial von techinferno mit iasl.exe kompiliert wird, was bei mir dann aber viele Fehler wirft).

- - - Beitrag zusammengeführt - - -

Durch ein wenig herumgooglen habe ich herausgelesen, dass das Netzteil einerseits nur 75-80% Effizienz unter Vollast bietet (165-176W) und die Maxwell Architektur andererseits unter Umständen wohl deutlich mehr Strom und auch Spannung braucht als gemeinhin angegeben wird. Zumindest bei einer GTX970 finden sich Beiträge von Leuten mit ähnlichen Problemen. Das ich eine übertaktete GTX960 habe macht die Sache nicht unwahrscheinlicher :)
Somit wird das Szenario, dass die Karte schlichtweg zuviel Strom zieht immer wahrscheinlicher (was aber den Gen2 Eintrag in GPU-Z immer noch nicht erklärt^^).

Werde da übers Wochenende noch viel rumprobieren und messen müssen und mich dann zur Not für ein kleineres Modell entscheiden müssen.

- - - Beitrag zusammengeführt - - -

Die Theorie des Strommangels scheint sich nicht zu bewahrheiten, da ich mit GPU-Z die aktuellen % der TDP auslesen kann. Andere Benchmarks scheinen auch soweit zu laufen, nur 3dmark06 will einfach nicht. Mit dem Furmark schaffe ich problemlos 110% der TDP. Der aktuelle 3dmark läuft auch problemlos und ich bekomme leicht höhere Werte als beim x220, was der stärekeren CPU geschuldet sein dürfte.

Das Hauptproblem was ich jetzt gerade habe ist, dass die Karte nur als Gen2 erkannt wird und demenstprechend auch nur Gen2 abruft (Konnte jedoch nicht herausfinden ob der EXP GDX Beast in Version 6 bereits Gen3 unterstützt).

Ansonsten kann ich noch sagen, dass mir das Lüfterverhalten vom x230 deutlich besser gefällt als beim x220, welches deutlich lauter und vom Grundton nerviger ist.
 
Zuletzt bearbeitet:
Durch ein wenig herumgooglen habe ich herausgelesen, dass das Netzteil einerseits nur 75-80% Effizienz unter Vollast bietet (165-176W) und die Maxwell Architektur andererseits unter Umständen wohl deutlich mehr Strom und auch Spannung braucht als gemeinhin angegeben wird. Zumindest bei einer GTX970 finden sich Beiträge von Leuten mit ähnlichen Problemen. Das ich eine übertaktete GTX960 habe macht die Sache nicht unwahrscheinlicher :)
Somit wird das Szenario, dass die Karte schlichtweg zuviel Strom zieht immer wahrscheinlicher (was aber den Gen2 Eintrag in GPU-Z immer noch nicht erklärt^^).

1.) Effizienz bedeutet wieviel letztendlich aus der Steckdose gezogen wird, das Netzteil bringt die 216W, an der Steckdose zieht es dann bis zu 270W oder so.
2.) Eine GTX960 braucht ca. 130W, wenn man sie optimiert unter 100W ! (http://www.tomshardware.de/gtx-960-htpc-cube-mini-itx-leistungsaufnahme,testberichte-241753-3.html), ich glaube nicht das das Netzteil limitiert, es sei denn es ist defekt.

Lass doch mal die Benchmarks weg - funktioniert die Karte denn mit dem was du machen willst ?
 
1.) Effizienz bedeutet wieviel letztendlich aus der Steckdose gezogen wird, das Netzteil bringt die 216W, an der Steckdose zieht es dann bis zu 270W oder so.
2.) Eine GTX960 braucht ca. 130W, wenn man sie optimiert unter 100W ! (http://www.tomshardware.de/gtx-960-htpc-cube-mini-itx-leistungsaufnahme,testberichte-241753-3.html), ich glaube nicht das das Netzteil limitiert, es sei denn es ist defekt.

Lass doch mal die Benchmarks weg - funktioniert die Karte denn mit dem was du machen willst ?
Hab mir mal ein Strommessgerät besorgt und die Peaks sind bei knapp 170 Watt, die 130 Watt überschreitet sie unter Last locker. Die Karte macht auf dem x230 leider einige Probleme. NFS Most Wanted produziert z.B. Grafikfehler während es auf dem x220 problemlos läuft und auch sonst ist mir das Setup zu unintuitiv.

Bin jetzt gerade am überlegen welche Kombination ich behalten soll. Das x230 werde ich aufjedenfall zurückgeben da einer der beiden Ram Slots den Ram nicht richtig festhält (absolut kein Widerstand beim reinstecken bzw. "reinfallen lassen"), es mit meinem 1866er Ram aus dem x220 nicht läuft (ständige abstürze) und eben mehr Probleme mit der eGPU verursacht.
Ob ich die Grafikkarte behalte muss ich mir noch überlegen, da Sie für die in diesem Setup gebotene Leistung doch ein wenig teuer war. Werde mir die Tage die neue GTX950 von meinem Mitbewohner unter den Nagel reißen und mal schauen ob sich die Leistung deutlich nach unten bewegt.
 
Zuletzt bearbeitet:
Um es nochmal klar zu machen: Wenn das Strommessgerät bei Peaks 170W anzeigt muss man noch den Wirkungsgrad einrechnen.
Aus den 170W ab Dose werden bei 80% Wirkungsgrad also 0,8 * 170W = 136W, diese 136W bekommt die Karte in dem Moment und auch diese 136W muss in dem Moment nur das Netzteil leisten und nicht 170W.
Es ist also mit dem 220W Dell noch viel Luft nach oben. (Ich habe damit schon ein ganzes System aus Core i3 2120 3,3Ghz (quasi ein schnellerer i5 2520m) samt Board und HD5770 (ca. 100W) erfolgreich betrieben.)

Die geschilderten Probleme lassen ja auch darauf schließen das der Part eGPU mit dem x220 einwandfrei funktioniert.

Eine GTX950 sollte schon merklich langsamer sein, kann aber für deine Zwecke immer noch ausreichend sein. Deutlich billiger ist die GTX950 aber nicht, im Gegenteil ist das P/L Verhältnis noch schlechter als bei der GTX960.

Mein Tipp: Kauf eine gebrauchte 750Ti mit 2GB RAM für 80€ oder so, theoretisch kannst du dann sogar ein 100W oder 120W Netzteil verwenden und das ganze wird noch kompakter.
 
The 3dmark06 (directX 9.0) of eGPU GT 730 GD5 using expresscard x1 2.0 link using NVidia optimus, under T420, is 13648, windows 8.0 x64 (i7-2640).

With exactly the same overclocking specs, using normal PCI-e slot (see attached information PCI-E 2.0 x8 @ x8 1.1, i3-3220, motherboard asustek P8B75-V), the same test made in windows 7.0 x64 (i3-3220) by someone else using a desktop pc, achieved a score of 14527 . So a difference 6% between the 2 tests exists. The difference is due to using the faster PCI-e x16 slot of desktop motherboard which is faster than the laptops express card bus speed (x1 2.0 link , with compression). The difference to my surprise is minimal in the EXP GDC V8.3E dock due to using Optimus compression (using laptop display). The compression of Optimus with intel hd 3000 using Kepler chip found in the Nvidia GT 730 through express card is excellent with minimal loss of performance. This solution gives me a perfect GPU upgrade for my laptop, compared to buying another expensive laptop with a better dedicated graphics card.

Intel HD 3000 achieved a 3dmark06 of just 5475 (at same resolution) which is bout 2.5 times less that the GT 730, similar to the 3D passmark performance test ratio in my previous postings. (https://thinkpad-forum.de/threads/170582-Erfahrungsbericht-Quadcore-im-T420-Mod-Bios-inside/page30)

3dmark06b.jpg

1299893.jpg

For this reason I totally recommend GT730 or any other Nvidia Kepler graphics card, like GT 740 GD5, with Lenovo T420. Thank you Nvidia for providing this technology.
 

Anhänge

  • 3dmark06b.jpg
    3dmark06b.jpg
    95 KB · Aufrufe: 21
Zuletzt bearbeitet:
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben