Tutorial: Externe PCIe-Grafikkarte an Thinkpad anschließen

elarei

Well-known member
Themenstarter
Registriert
2 Aug. 2009
Beiträge
3.287
1) Worum geht es?
Hier wird eine Möglichkeit beschrieben, ein Thinkpad mit handelsüblichem ExpressCard-Anschluss mithilfe eines Adapters des taiwanesischen Herstellers HWTools um eine externe Desktop-Grafikkarte (PCIe) zu erweitern. Das macht z.B. dann Sinn, wenn man nur über eine schwache, integrierte Intel-Grafikkarte verfügt und gerne 3D-intensive Spiele spielen möchte. Die Grafikleistung kann sich hier gegenüber den Intel-Standard-Chipsatzgrafiken bis zu verzehnfachen. Achtung: das funktioniert nur an einem externen Monitor "richtig", bei Verwendung des internen Displays hingegen nimmt die Leistung deutlich ab. Beachte: Seit der "Sandy Bridge"-Generation ist die Leistung über den ExpressCard-Adapter deutlich höher, die effektive Leistung ist um etwa Faktor 1,5 erhöht und unterscheidet sich nicht mehr maßgeblich von Desktopleistungen.

vgl. http://hardforum.com/showthread.php?t=1522180

Zunächst ein paar Zahlen (gemessen mit 3DMark06):
Flory: x201 tablet, i7 640LM 2.13Ghz, 6GB RAM, HD 5770 1GB, PCIe 1x: 10987 3DMarks06
Flory: x201 tablet, i7 620LM 2.00Ghz, 6 GB RAM, HD 5770 1GB, PCIe 1x: 9927 3DMarks06
Flory: R400, T6670 2.2Ghz, 3GB RAM, HD 5770 1GB, PCie 1x: 7808 3DMarks06
Flory: x201 - i5 540M - 4GB RAM - ATI HD 5770 1GB - Win 7 64bit 11923 3D Marks06
Flory: x200, P8600, 6 GB RAM, HD 5770 1GB, PCIe 1x: 10232 3DMarks06
neonis: R61, ????, ?????, HD 5770 1GB, PCIe 1x: 9663 3DMarks06
elarei: x200s, SL9400 1.86Ghz, 4 GB RAM, HD 5750 1GB, PCIe 1x: 8360 3DMarks06
elarei: T400s, SP9400 2.4Ghz, 8 GB RAM, HD 5750 1GB, PCIe 1x: 9297 3DMarks06
elarei: x201, i5 540M, 3 GB RAM, ATI 5750 1GB, PCIe 1x: 11269 3DMarks06
Malloc: x200s, SL9400 1.86Ghz, 4 GB RAM, HD 5770 1GB, PCIe 1x: 7749 3DMarks06
die_matrix: R60, T5600 1.83GHz, 3GB RAM, GF 8800GT 512MB, PCIe 1x: 3905 3DMarks06
die_matrix: R60, T5600 1.83GHz, 3GB RAM, HD5750 1GB, PCIe 1x: 7769 3DMarks 06
x220t: X220 Tablet, i5-2520 3.00GHz, ..., GTX560Ti, PCIe 1x: 17200 3DMarks06
ckx2: W520, i5-2540 3.00GHz, ..., GTX570, PCIe 1x: 17750 3DMarks06
diablo666: T430 i7 3630QM, 16GB, GTX580, PCIe 1x: 23396 3DMarks06
Bitte lies zunächst den gesamten Post, besser noch das gesamte Thema sorgfältig durch, um dich zu informieren, ob das mit deinem Laptop und deiner Wunschhardware überhaupt funktionieren kann. Frage lieber nach, bevor du Geld in den Wind schießt.

974_0_w81.jpg

Warnung


Wer im Umgang mit technischem Equipment nicht versiert ist, sollte die Finger davon lassen. Das offene Betreiben von Desktop-Grafikkarten und -Netzteilen ist gefährlich und kann ernstzunehmende Schäden an Gesundheit und Hardware verursachen! Daher sollte jeder, der im Umgang mit den Innereien von Computerhardware nicht geschult ist, auf den Nachbau dieser Grafikkartenlösung verzichten!

Hardware muss vernünftig elektromagnetisch abgeschirmt werden (z.B. durch ein adäquates Gehäuse). Wird eine externe Grafikkartenlösung ohne Gehäuse betrieben, besteht die Möglichkeit, dass andere Geräte im Umfeld dadurch gestört werden. Eine solche Störung kann, sofern sie angezeigt und nachverfolgt wird, juristische Konsequenzen nach sich ziehen.
(Danke für den Hinweis an .matthias)

2) Benötigte Hardware
Benötigt wird für den Aufbau:
- der notwendige Adapter von HWTools PE4H mit allem Zubehör
- ein externes ATX-Netzteil mit ausreichend Power (>350W sollte reichen), wie sie in Desktops verbaut werden
- eine handelsübliche PCIe-Grafikkarte, wie sie in Desktops verbaut werden
- ggf. ein zusätzliches mHDMI-mHDMI-Kabel, da das mitgelieferte sehr kurz ist
- evtl. ein Gehäuse, um Explosionen und Todesgefahr zu vermeiden

Die Preise sind wie folgt zu kalkulieren:
- Adapter: ca. 80 Euro mit Versand von HWTools
- ATX-Netzteil: ca. 20-60 Euro nach Quelle und Leistung (z.B. ebay)
- PCIe-Grafikkarte: ca. 20-unendlich Euro nach Bedarf (bis 100€ sind realistisch)
- (optional) HDMI-Kabel: ca. 10 Euro (z.B. hier das)
- (optional) Gehäuse: ca. 50-unendlich Euro nach Geschmack (vgl. Seite 19)

3) Aufbau 1 (Hardware)
- Die Grafikkarte wird in den Adapter gesteckt.
- Der MOLEX-Stecker am Adapter wird an das Netzteil angeschlossen.
- Das mHDMI-Kabel wird an den Adapter gesteckt, an den "PCIe 1x"-Slot. (Das Kabel ist symmetrisch, die Richtung ist egal.)
- Das mHDMI-Kabel wird an der anderen Seite an den ExpressCard-Adapter gesteckt.
- Wenn die Grafikkarte einen externen PCIe-Stromanschluss besitzt, wird dieser angeschlossen.
- Der externe Monitor wird an die Grafikkarte angeschlossen.
- SWEX (kleine grüne Platine von HWTools) wird an das Netzteil am Motherboard-Connector angeschlossen. Bitte darauf achten, dass das Netzteil abgeschaltet bzw. nicht am Netz angeschlossen ist.
- SWEX wird auf "On" geschaltet.
- Netzteil anschließen und anschalten. Läuft der Grafikkartenlüfter an und es gibt keine komischen Piepstöne, funktioniert es.
- Notebook anschalten, in Windows booten und den ExpressCard-Adapter reinschieben.
- Wenige Sekunden warten, bis eine "VGA-Standardgrafikkarte" erkannt wird (evtl. auch gleich der Treiber installiert wird, je nach Karte/OS).

4) Aufbau 2 (Software)
- Treiber installieren. Vorzugsweise sollte man das manuell machen: einfach im Gerätemanager die "VGA-Standardgrafikkarte" rechtsklicken und den passenden ATI/NVidia-Treiber, den man vorher irgendwo hin entpackt hat, installieren.
- NICHT NEUSTARTEN, solange die externe Karte angeschlossen ist. Stattdessen in die Anzeigeoptionen wechseln und dort nach dem externen Monitor suchen, der da hoffentlich erschienen ist.
- Im Normalfall: Externen Bildschirm als Hauptbildschirm definieren, die anderen abschalten. Voilà!
- Nach Bedarf ATI Catalyst Control Center u.ä. installieren; das kann jedoch zu Instabilität führen.
- Jetzt die "Bekannten Probleme (6)" lesen.

5) Try it out
Am besten führt man nun erstmal ein Benchmark (bewährt ist z.B. 3DMark2006) aus: durch die untypische Anbindung über PCIe 1x statt 16x wird die eigentliche Leistung der Karte erheblich reduziert. (Man kann von ca. 60% der normalen Leistung ausgehen.)

Wer sich ein Gehäuse bauen will, findet hier (aktualisiert) eine Möglichkeit. Es ist dringend sinnvoll, ein Gehäuse zu nutzen, um die Unfallgefahr zu minimieren.

Ich würde mich jederzeit freuen, wenn mir Leute ihre Benchmarkwerte nennen oder im Thread posten, damit wir obige Liste möglichst aussagekräftig bekommen können.

6) Bekannte Probleme
Laptops booten nicht, wenn die Karte angeschlossen ist
Dafür gibt es bisher nur den Rauszieh-Workaround. (-> Erst im Betrieb anschließen oder vorher die Karte nicht mit Saft versorgen, z.B. über eine Kippschalter-Steckdose. Achtung, so eine Steckdose als regelmäßiger An-Aus-Schalter kann auf Dauer dem Netzteil Schmerzen bereiten.)

Laptops mit integrierter ATI- oder NVidia-Grafik
Wenn im Laptop eine ATI-Grafikkarte integriert ist, dann sollte man sich für die externe Lösung eine NVidia-Karte zulegen. Der Grund ist folgender: mehrere ATI-Treiber nebeneinander vertragen sich nicht; bei der Installation eines neuen ATI-Treibers (z.B. für eine HD5750) überschreibt dieser den alten ATI-Treiber (z.B. für eine integrierte Radeon-Grafik). Will man den Laptop wieder mit der internen Grafik betreiben (wenn man z.B. unterwegs ist), so muss man den Treiber installieren, womit man den Treiber der externen Karte überschreibt. Das Ganze ist also sehr unkomfortabel. Nach ersten Vermutungen und Beobachtungen dürfte das bei einer NVidia-Karte an einem ATI-Laptop nicht passieren.
Ob dasselbe Problem bei integrierter NVidia-Grafik und einer externen NVidia-Grafikkarte auftritt, ist bisher nicht klar.
Bei Switchable Graphics wird der ATI-Treiber ebenfalls überschrieben. Es ist empfehlenswert, bei der Nutzung einer externen ATI-Karte die Grafik im BIOS auf "Integrated Graphics" zu schalten und die Switchable-Funktion zu deaktivieren.

Lenovo Power Management (Driver) / Energiemanager
Mit dem Energiemanager und dem dazugehörigen Power Management Driver scheint es Probleme mit externen Grafikkarten zu geben, die zu Abstürzen bei der Verbindung mit der externen Karte führen. Eine Deinstallation des Power Managements reicht.

Systemabsturz bei Einstecken des Adapters
Es kann passieren, dass eine Verbindung mit der externen Karte bei einem Thinkpad konsequent zu Systemabstürzen, Bluescreens u.ä. führt. In solchen Fällen ist es ratsam, Windows neu aufzusetzen und nur ein absolut notwendiges Minimum an Treibern zu installieren (kein Powermanagement!), bevor man noch einmal probiert. In vielen Fällen sind alte Grafiktreiber ein Problem. Auch eine interne "Switchable Graphics" sollte deaktiviert sein (in diesem Falle im BIOS die "Integrated Graphics" wählen und die Switchable-Erkennung ganz deaktivieren).
Evtl. hilft es, den Laptop vor der Verbindung in den Energiesparmodus/Standby (Halbmond, NICHT Hibernation/Ruhezustand) zu versetzen und ihn erst nach dem Einstecken aufzuwecken.
Es gibt bei manchen Modellen Probleme in Verbindung mit HDMI-Anschlüssen. Dazu kann man das DIY-Setup-Programm einsetzen, das von HWTools erstellt wurde; eine Anleitung lieferte Benutzer tura weiter hinten im Thread. Auch für viele andere Arten von Problemen könnte dies abhelfen.

Miese Leistung
Die Leistung der Grafikkarten an dieser Adapterlösung ist nur ca. 50-70% so gut wie in "normalen" Szenarien. Dennoch ist das die drei- bis zehnfache Leistung der integrierten Grafikchips (Stand Mitte 2010) und locker spieletauglich. Sogar die Napalmbomber unter den Spielelaptops, die Alienware-Maschinen, sind nur 20-30% (bis zu ~15000 3DMark06-Punkte) stärker als ein stromspar-optimiertes Thinkpad x200s mit einer externen HD5750 (~10000 3DMark06-Punkte).

Wer es ausprobiert hat, kann sich ja hier mit Notebookmodell, Grafikkartenmodell und Punktewert bei PC Mark 2006 verewigen.

Gruß,
- elarei
 
Zuletzt bearbeitet:
Habt ihr euch für eure eGPU ein Gehäuse gebaut?
Oder habt ihr das einfach aufm Schreibtisch leigen?

Postet doch mal Pics davon :D .
 

Das klingt aber eher danach, als würde die Karte mit der niedrigeren Core-Spannung beim runtertakten im Leerlauf nicht klarkommen.
Mal zu sehr übertaktet und den Chip damit vielleicht gefährdet?
Ansonsten klingt das schon eher nach Hardwaredefekt. Wenns bei mehreren Leute auftritt dann vlt. im Sinne eines Serienfehlers...
 
Das klingt aber eher danach, als würde die Karte mit der niedrigeren Core-Spannung beim runtertakten im Leerlauf nicht klarkommen.
Mal zu sehr übertaktet und den Chip damit vielleicht gefährdet?
Ansonsten klingt das schon eher nach Hardwaredefekt. Wenns bei mehreren Leute auftritt dann vlt. im Sinne eines Serienfehlers...

Das würde erklären wieso das Bild einfriert.
Übertaktet habe ich bei dem Ding noch gar nichts.

Ich denke auch, dass die Karte eindeutig defekt ist aber solange es so funktioniert ist mir das egal. :D

Habe auch gerade mal nachgemessen. Jetzt hat sie einen IDLE Verbrauch von um die 60 Watt. Vollast zieht sie um die 200Watt.

Das Thinkpad zieht vielleicht nochmal 60Watt.

Ein Desktop PC mit der Leistung und 260Watt verbrauch werde ich nirgendwo finden.
Somit finde ich mich mit dem erhöhten IDLE Verbrauch ab.
 
Wenn keine Garantie mehr auf der Karte ist, würde ich vlt. mal gucken, ob man ds BIOS der Karte nicht flashen kann. Dann evtl. die Kern-Spannung für den Minimaltakt etwas anheben. Dann könnte sie wieder stabil laufen. Ist ja auch in etwa die vermutung aus dem von dir verlinkten Thread.
 
Klar geht sowas. Zumindest bei den meisten Karten. Viele Leute übertakten so. Die Kern-Spannung ist meist gesperrt. Über ein BIOS-Flash lässt sich diese dann ändern, was wiederum höhere Taktraten bringen kann.
Wie es genau geht, weiß ich auch nicht. Müsstest Du mal suchen. Ich weiß nur, dass es geht.
 
DANKE für den Tipp.

Nach anheben der Spannung um 0,125 Volt geht es nun. Wunderbar :)
 
Zuletzt bearbeitet:
Falls noch jemand eine sehr günstige Kombination aus Netzteil und mATX-Gehäuse sucht:
www.ebay.de/itm/110936574397

Für rund 10 EUR inkl. Versand erhält man ein schwarzes MaxData Gehäuse samt 300W SFX-Netzteil mit An/Aus-Schalter. Einziger Schönheitsfehler ist eine fehlende Laufwerksblende. Da ich dort aber wohl eh ein Laufwerk einsetzen werden, welches dann bei Bedarf via USB ans TP angeschlossen wird, stört mich das nicht.
Meine ATI 5770 passt rein, wenn man die mittigen PCI-Schächte nimmt. Dafür ist der Grafikkartenlüfter dann sehr nah an der Gehäusewand. Ich werde mir da mal die nächsten Tage die Temperaturen ansehen und dann ggf. entweder Löcher ins Blech bohren oder ein großes Loch reinmachen mit einem Lüftungsgitter davor.

Aber für 10 EUR gibt es da nichts zu meckern, zumal das Netzteil auch deutlich leiser ist als das bisherige ATX-Netzteil.

Gruß,
David
 
Ich denke auch, dass die Karte eindeutig defekt ist aber solange es so funktioniert ist mir das egal. :D

Habe auch gerade mal nachgemessen. Jetzt hat sie einen IDLE Verbrauch von um die 60 Watt. Vollast zieht sie um die 200Watt.

Das Thinkpad zieht vielleicht nochmal 60Watt.

Ein Desktop PC mit der Leistung und 260Watt verbrauch werde ich nirgendwo finden.
Somit finde ich mich mit dem erhöhten IDLE Verbrauch ab.

Hast du jetzt die Spannung erhöht ?

Mit den 260W muss ich dir leider widersprechen, inzwischen bringt jeder akutelle Desktop PC bei 260W diese Leistung.
Mei Core i3 2120 dürfte dem Zweikerner in dem X220 von der Leistung her noch überlegen sein. (Kann sein das ein paar Befehlssätze wie AES fehlen) Zusammen mit einer HD7850 oder einer GTX660 oder GTX650Ti erreicht man eine ähnliche Leistung, bleibt aber deutlich unter 200W.
Eine GTX560Ti ist an sich leider schon nicht sehr effizient.

Wenn die Karte jetzt läuft würde ich überlegen sie auf Ebay zu verticken und fürs gleiche Geld ne GTX650Ti zu kaufen, die ist minimal langsamer, braucht im Idle aber nur 10W und unter Last 60W. Dann brauchst du im Game mit Laptop zusammen maximal 130-140W.
Je nach Laufzeit lohnt sich das...

Vor allem Multimonitoring wäre für mich immer ein Grund ne sparsame Graka zu haben.
Wobei man bei dem x220 im Officebetrieb wohl eher die Intel HD verwenden sollte, die kann ja über die U-Base auch 2 Monitore ansteuern.
Ohne (teure) U-Base ist das schon wieder ne Überlegung wert:
GTX650Ti als ext. Graka und da dann 2 TFTs dran.
Braucht man wenn man nach Hause kommt nur die ExpressCard reinschieben.
Als Netzteil braucht es dann auch kein großes ATX Teil, sondern ein passives 12V Netzteil mit langem Kabel ist wie gemacht dafür unter den Tisch zu wandern. Lautlos, effizient und man kann es im Winter als Fußwärmer nutzen - das meine ich ernst.
 
Zuletzt bearbeitet:
Hast du jetzt die Spannung erhöht ?

Mit den 260W muss ich dir leider widersprechen, inzwischen bringt jeder akutelle Desktop PC bei 260W diese Leistung.
Mei Core i3 2120 dürfte dem Zweikerner in dem X220 von der Leistung her noch überlegen sein. (Kann sein das ein paar Befehlssätze wie AES fehlen) Zusammen mit einer HD7850 oder einer GTX660 oder GTX650Ti erreicht man eine ähnliche Leistung, bleibt aber deutlich unter 200W.
Eine GTX560Ti ist an sich leider schon nicht sehr effizient.

Wenn die Karte jetzt läuft würde ich überlegen sie auf Ebay zu verticken und fürs gleiche Geld ne GTX650Ti zu kaufen, die ist minimal langsamer, braucht im Idle aber nur 10W und unter Last 60W. Dann brauchst du im Game mit Laptop zusammen maximal 130-140W.
Je nach Laufzeit lohnt sich das...

Vor allem Multimonitoring wäre für mich immer ein Grund ne sparsame Graka zu haben.
Wobei man bei dem x220 im Officebetrieb wohl eher die Intel HD verwenden sollte, die kann ja über die U-Base auch 2 Monitore ansteuern.
Ohne (teure) U-Base ist das schon wieder ne Überlegung wert:
GTX650Ti als ext. Graka und da dann 2 TFTs dran.
Braucht man wenn man nach Hause kommt nur die ExpressCard reinschieben.
Als Netzteil braucht es dann auch kein großes ATX Teil, sondern ein passives 12V Netzteil mit langem Kabel ist wie gemacht dafür unter den Tisch zu wandern. Lautlos, effizient und man kann es im Winter als Fußwärmer nutzen - das meine ich ernst.

Jau, die Spannung habe ich erhöht und nun geht es auch ohne diesen Workaround.

Sind die Dektops wirklich so leistungsfähig geworden? Also mein Alter i7-860 mit HD 5830 hat seine 500Watt genommen. Und der ist doch signifikant langsamer als ein i7-2670qm mit einer GTX 560TI.
Multimonitoring brauch ich nicht. Die karte ist wirklich nur zum spielen, da ansonsten nur Linux verwendet wird und ich da mich auf die integrierte Nvidia Grafik verlasse. Ist mir sonst auch zu viel Bastellei.
 
Moin, bei mir flattert demnächst auch ein x230 in's Haus und da ich dann gerne meinen Desktoprechner abschaffen würde, kommt mir die eGPU Lösung sehr gelegen. Nun besteht für mich jedoch eine Frage, welche Platine sollte man denn nun nehmen? PE4H oder PE4L? Beide sollen ja PCIe 2.0 (wenn ich bei dem ganzen Wirrwarr durchgeblickt hab) beherrschen, oder tut dies wirklich nur die PE4L? Anschließen würde ich es über den Expresscardslot, falls das für die Entscheidung wichtig ist. Kann mir da jemand eine Antwort geben? Der PE4H hat halt den Vorteil des langen Anschlusses, was ich ganz gut finde, aber wenn der PE4L besser ist, werde ich natürlich zu diesem greifen.

Achja und lohnt es sich noch zu warten, falls eine Version mit PCIe 3.0 (wurde hier auf den letzten Seiten erwähnt) rauskommt, bzw. ist soetwas angekündigt worden, ich blick bei dem sehr langen original Thread nicht mehr richtig durch leider.

danke
Postfrosch
 
Ah, schon die erste schnelle Antwort, danke schön.

Dann darf mir der Freund aus den USA das Ding mal mitbringen.
 
Sind die Dektops wirklich so leistungsfähig geworden?
Ja. Schau her: http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650-ti/12/
Mit HD7850 braucht der Rechner 220W unter Last, mit der GTX650Ti nur 165W. Und die Karte ist fast so schnell wie eine GTX560Ti.

Mit einer nicht übertakteten CPU sind die Werte noch niedrieger, CB taktet den i5 3770k@4,5Ghz, das ist im Verbrauch schon noch ein Unterschied zu einem Core i3, letzter reicht im Grunde aber auch bei allen Games aus.
Der Unterschied zwischen der GTX650Ti und der HD7850 im Stromverbrauch ist bei CB eigenartigerweise sehr hoch, liegt eben auch daran das die CPU Last da mit einfließt, der Unterschied sollte eigentlich keine 60W ausmachen, eher 30-40W.
Bedeutet aber, das die HD7850 im System locker unter 200W Gesamtlast zu fahren ist.

Also mein Alter i7-860 mit HD 5830 hat seine 500Watt genommen.
Gemessen ab Steckdose ? Kann eigentlich gar nicht sein, es sei denn du hast extrem übertaktet gehabt, aber selbst dann kann ich mir 500W nicht vorstellen.

Und der ist doch signifikant langsamer als ein i7-2670qm mit einer GTX 560TI.
Ist der QM ein Quadcore ? Wenn nein, dann ist er auch nicht schneller als der i7 860.
Die Grafik ist etwas schneller als eine HD5830, das kann den Geschwindigkeitsunterschied machen.

Und was meinst du mit signifikant langsamer ?
Bei gleicher Ram Menge und gleich schnellen Massenspeicher kann das i7 860 System gar nicht signifikant langsamer gewesen sein.
 
Zuletzt bearbeitet:
Ach Laberkopf hat ein W520, deswegen der Quadcore.
Hatte schon vermutet das QM ein Quad ist, aber ich dachte er hat ein X2xx und da ist ein i7 ja kein Quadcore.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben