Tutorial: Externe PCIe-Grafikkarte an Thinkpad anschließen

elarei

Well-known member
Themenstarter
Registriert
2 Aug. 2009
Beiträge
3.286
1) Worum geht es?
Hier wird eine Möglichkeit beschrieben, ein Thinkpad mit handelsüblichem ExpressCard-Anschluss mithilfe eines Adapters des taiwanesischen Herstellers HWTools um eine externe Desktop-Grafikkarte (PCIe) zu erweitern. Das macht z.B. dann Sinn, wenn man nur über eine schwache, integrierte Intel-Grafikkarte verfügt und gerne 3D-intensive Spiele spielen möchte. Die Grafikleistung kann sich hier gegenüber den Intel-Standard-Chipsatzgrafiken bis zu verzehnfachen. Achtung: das funktioniert nur an einem externen Monitor "richtig", bei Verwendung des internen Displays hingegen nimmt die Leistung deutlich ab. Beachte: Seit der "Sandy Bridge"-Generation ist die Leistung über den ExpressCard-Adapter deutlich höher, die effektive Leistung ist um etwa Faktor 1,5 erhöht und unterscheidet sich nicht mehr maßgeblich von Desktopleistungen.

vgl. http://hardforum.com/showthread.php?t=1522180

Zunächst ein paar Zahlen (gemessen mit 3DMark06):
Flory: x201 tablet, i7 640LM 2.13Ghz, 6GB RAM, HD 5770 1GB, PCIe 1x: 10987 3DMarks06
Flory: x201 tablet, i7 620LM 2.00Ghz, 6 GB RAM, HD 5770 1GB, PCIe 1x: 9927 3DMarks06
Flory: R400, T6670 2.2Ghz, 3GB RAM, HD 5770 1GB, PCie 1x: 7808 3DMarks06
Flory: x201 - i5 540M - 4GB RAM - ATI HD 5770 1GB - Win 7 64bit 11923 3D Marks06
Flory: x200, P8600, 6 GB RAM, HD 5770 1GB, PCIe 1x: 10232 3DMarks06
neonis: R61, ????, ?????, HD 5770 1GB, PCIe 1x: 9663 3DMarks06
elarei: x200s, SL9400 1.86Ghz, 4 GB RAM, HD 5750 1GB, PCIe 1x: 8360 3DMarks06
elarei: T400s, SP9400 2.4Ghz, 8 GB RAM, HD 5750 1GB, PCIe 1x: 9297 3DMarks06
elarei: x201, i5 540M, 3 GB RAM, ATI 5750 1GB, PCIe 1x: 11269 3DMarks06
Malloc: x200s, SL9400 1.86Ghz, 4 GB RAM, HD 5770 1GB, PCIe 1x: 7749 3DMarks06
die_matrix: R60, T5600 1.83GHz, 3GB RAM, GF 8800GT 512MB, PCIe 1x: 3905 3DMarks06
die_matrix: R60, T5600 1.83GHz, 3GB RAM, HD5750 1GB, PCIe 1x: 7769 3DMarks 06
x220t: X220 Tablet, i5-2520 3.00GHz, ..., GTX560Ti, PCIe 1x: 17200 3DMarks06
ckx2: W520, i5-2540 3.00GHz, ..., GTX570, PCIe 1x: 17750 3DMarks06
diablo666: T430 i7 3630QM, 16GB, GTX580, PCIe 1x: 23396 3DMarks06
Bitte lies zunächst den gesamten Post, besser noch das gesamte Thema sorgfältig durch, um dich zu informieren, ob das mit deinem Laptop und deiner Wunschhardware überhaupt funktionieren kann. Frage lieber nach, bevor du Geld in den Wind schießt.

974_0_w81.jpg

Warnung


Wer im Umgang mit technischem Equipment nicht versiert ist, sollte die Finger davon lassen. Das offene Betreiben von Desktop-Grafikkarten und -Netzteilen ist gefährlich und kann ernstzunehmende Schäden an Gesundheit und Hardware verursachen! Daher sollte jeder, der im Umgang mit den Innereien von Computerhardware nicht geschult ist, auf den Nachbau dieser Grafikkartenlösung verzichten!

Hardware muss vernünftig elektromagnetisch abgeschirmt werden (z.B. durch ein adäquates Gehäuse). Wird eine externe Grafikkartenlösung ohne Gehäuse betrieben, besteht die Möglichkeit, dass andere Geräte im Umfeld dadurch gestört werden. Eine solche Störung kann, sofern sie angezeigt und nachverfolgt wird, juristische Konsequenzen nach sich ziehen.
(Danke für den Hinweis an .matthias)

2) Benötigte Hardware
Benötigt wird für den Aufbau:
- der notwendige Adapter von HWTools PE4H mit allem Zubehör
- ein externes ATX-Netzteil mit ausreichend Power (>350W sollte reichen), wie sie in Desktops verbaut werden
- eine handelsübliche PCIe-Grafikkarte, wie sie in Desktops verbaut werden
- ggf. ein zusätzliches mHDMI-mHDMI-Kabel, da das mitgelieferte sehr kurz ist
- evtl. ein Gehäuse, um Explosionen und Todesgefahr zu vermeiden

Die Preise sind wie folgt zu kalkulieren:
- Adapter: ca. 80 Euro mit Versand von HWTools
- ATX-Netzteil: ca. 20-60 Euro nach Quelle und Leistung (z.B. ebay)
- PCIe-Grafikkarte: ca. 20-unendlich Euro nach Bedarf (bis 100€ sind realistisch)
- (optional) HDMI-Kabel: ca. 10 Euro (z.B. hier das)
- (optional) Gehäuse: ca. 50-unendlich Euro nach Geschmack (vgl. Seite 19)

3) Aufbau 1 (Hardware)
- Die Grafikkarte wird in den Adapter gesteckt.
- Der MOLEX-Stecker am Adapter wird an das Netzteil angeschlossen.
- Das mHDMI-Kabel wird an den Adapter gesteckt, an den "PCIe 1x"-Slot. (Das Kabel ist symmetrisch, die Richtung ist egal.)
- Das mHDMI-Kabel wird an der anderen Seite an den ExpressCard-Adapter gesteckt.
- Wenn die Grafikkarte einen externen PCIe-Stromanschluss besitzt, wird dieser angeschlossen.
- Der externe Monitor wird an die Grafikkarte angeschlossen.
- SWEX (kleine grüne Platine von HWTools) wird an das Netzteil am Motherboard-Connector angeschlossen. Bitte darauf achten, dass das Netzteil abgeschaltet bzw. nicht am Netz angeschlossen ist.
- SWEX wird auf "On" geschaltet.
- Netzteil anschließen und anschalten. Läuft der Grafikkartenlüfter an und es gibt keine komischen Piepstöne, funktioniert es.
- Notebook anschalten, in Windows booten und den ExpressCard-Adapter reinschieben.
- Wenige Sekunden warten, bis eine "VGA-Standardgrafikkarte" erkannt wird (evtl. auch gleich der Treiber installiert wird, je nach Karte/OS).

4) Aufbau 2 (Software)
- Treiber installieren. Vorzugsweise sollte man das manuell machen: einfach im Gerätemanager die "VGA-Standardgrafikkarte" rechtsklicken und den passenden ATI/NVidia-Treiber, den man vorher irgendwo hin entpackt hat, installieren.
- NICHT NEUSTARTEN, solange die externe Karte angeschlossen ist. Stattdessen in die Anzeigeoptionen wechseln und dort nach dem externen Monitor suchen, der da hoffentlich erschienen ist.
- Im Normalfall: Externen Bildschirm als Hauptbildschirm definieren, die anderen abschalten. Voilà!
- Nach Bedarf ATI Catalyst Control Center u.ä. installieren; das kann jedoch zu Instabilität führen.
- Jetzt die "Bekannten Probleme (6)" lesen.

5) Try it out
Am besten führt man nun erstmal ein Benchmark (bewährt ist z.B. 3DMark2006) aus: durch die untypische Anbindung über PCIe 1x statt 16x wird die eigentliche Leistung der Karte erheblich reduziert. (Man kann von ca. 60% der normalen Leistung ausgehen.)

Wer sich ein Gehäuse bauen will, findet hier (aktualisiert) eine Möglichkeit. Es ist dringend sinnvoll, ein Gehäuse zu nutzen, um die Unfallgefahr zu minimieren.

Ich würde mich jederzeit freuen, wenn mir Leute ihre Benchmarkwerte nennen oder im Thread posten, damit wir obige Liste möglichst aussagekräftig bekommen können.

6) Bekannte Probleme
Laptops booten nicht, wenn die Karte angeschlossen ist
Dafür gibt es bisher nur den Rauszieh-Workaround. (-> Erst im Betrieb anschließen oder vorher die Karte nicht mit Saft versorgen, z.B. über eine Kippschalter-Steckdose. Achtung, so eine Steckdose als regelmäßiger An-Aus-Schalter kann auf Dauer dem Netzteil Schmerzen bereiten.)

Laptops mit integrierter ATI- oder NVidia-Grafik
Wenn im Laptop eine ATI-Grafikkarte integriert ist, dann sollte man sich für die externe Lösung eine NVidia-Karte zulegen. Der Grund ist folgender: mehrere ATI-Treiber nebeneinander vertragen sich nicht; bei der Installation eines neuen ATI-Treibers (z.B. für eine HD5750) überschreibt dieser den alten ATI-Treiber (z.B. für eine integrierte Radeon-Grafik). Will man den Laptop wieder mit der internen Grafik betreiben (wenn man z.B. unterwegs ist), so muss man den Treiber installieren, womit man den Treiber der externen Karte überschreibt. Das Ganze ist also sehr unkomfortabel. Nach ersten Vermutungen und Beobachtungen dürfte das bei einer NVidia-Karte an einem ATI-Laptop nicht passieren.
Ob dasselbe Problem bei integrierter NVidia-Grafik und einer externen NVidia-Grafikkarte auftritt, ist bisher nicht klar.
Bei Switchable Graphics wird der ATI-Treiber ebenfalls überschrieben. Es ist empfehlenswert, bei der Nutzung einer externen ATI-Karte die Grafik im BIOS auf "Integrated Graphics" zu schalten und die Switchable-Funktion zu deaktivieren.

Lenovo Power Management (Driver) / Energiemanager
Mit dem Energiemanager und dem dazugehörigen Power Management Driver scheint es Probleme mit externen Grafikkarten zu geben, die zu Abstürzen bei der Verbindung mit der externen Karte führen. Eine Deinstallation des Power Managements reicht.

Systemabsturz bei Einstecken des Adapters
Es kann passieren, dass eine Verbindung mit der externen Karte bei einem Thinkpad konsequent zu Systemabstürzen, Bluescreens u.ä. führt. In solchen Fällen ist es ratsam, Windows neu aufzusetzen und nur ein absolut notwendiges Minimum an Treibern zu installieren (kein Powermanagement!), bevor man noch einmal probiert. In vielen Fällen sind alte Grafiktreiber ein Problem. Auch eine interne "Switchable Graphics" sollte deaktiviert sein (in diesem Falle im BIOS die "Integrated Graphics" wählen und die Switchable-Erkennung ganz deaktivieren).
Evtl. hilft es, den Laptop vor der Verbindung in den Energiesparmodus/Standby (Halbmond, NICHT Hibernation/Ruhezustand) zu versetzen und ihn erst nach dem Einstecken aufzuwecken.
Es gibt bei manchen Modellen Probleme in Verbindung mit HDMI-Anschlüssen. Dazu kann man das DIY-Setup-Programm einsetzen, das von HWTools erstellt wurde; eine Anleitung lieferte Benutzer tura weiter hinten im Thread. Auch für viele andere Arten von Problemen könnte dies abhelfen.

Miese Leistung
Die Leistung der Grafikkarten an dieser Adapterlösung ist nur ca. 50-70% so gut wie in "normalen" Szenarien. Dennoch ist das die drei- bis zehnfache Leistung der integrierten Grafikchips (Stand Mitte 2010) und locker spieletauglich. Sogar die Napalmbomber unter den Spielelaptops, die Alienware-Maschinen, sind nur 20-30% (bis zu ~15000 3DMark06-Punkte) stärker als ein stromspar-optimiertes Thinkpad x200s mit einer externen HD5750 (~10000 3DMark06-Punkte).

Wer es ausprobiert hat, kann sich ja hier mit Notebookmodell, Grafikkartenmodell und Punktewert bei PC Mark 2006 verewigen.

Gruß,
- elarei
 
Zuletzt bearbeitet:
Ja das sollte locker gehen, guck dir mal die Benchmarks auf der ersten Seite an dazu ;-)

Also ich kann mit meinem x220t mit i7 2640m und 16GB RAM und der GTX 560ti Spiele wie Dirt 3 in max. Details auf FullHD ohne Probleme zocken. Bei COD 5 geht auch alles auf max bei FullHD. Mehr habe ich noch nicht wirklich ausprobiert, nutze die Graka hauptsächlich für CAD und Cuda in Matlab.

Mit einer stärkeren Graka sollte da noch einiges rauszuholen sein. Ich weiß allerdings nicht wie sich das mit den PCIe 3.x Grafikkarten verhält von der Leistung
 
Das hört sich alles schon sehr gut an.

Meine Bedenken gehen allerdings aktuell noch in die Richtung, dass der leistungsabfall, wenn ich das Bild über internen Display ausgebe zu hoch sein könnte, als das es sich lohnt. Hat irgendjemand das schon mal längere zeit ausprobiert?
 
Gibt es eigentlich Erfahrungen, in wiefern sich 4GB Grafikspeicher positiv auf die Leistung auswirken? Zwischen Karten mit 1GB und 2GB gibt es ja einen Leistungssprung, da die Karte nicht so oft Daten vom Thinkpad nachladen muss und der ExpressCard Engpass etwas entlastet wird.

Hab gestern günstig einen EXP GDX erstanden (35€ ohne Netzteil bei gearbest, steht aber leider keine Versionsnr. dabei) Und möchte mein x220 dann mit einer GTX 960 mit 4GB betreiben.
Dass die CPU für die Graka eigentlich zu schwach ist ist mir bewusst. Mir geht es aber auch primär um 4k@60hz und bräuchte deswegen min. eine 750TI mit Dp welche gerade mal 50€ günstiger wäre.

Die verbesserte Datenkompression bei der 9xx Serie sollte dann alles auch nochmal alles etwas effizienter machen

Und wenn das Thinkpad dann doch mal zu langsam wird, wird halt auf ein T430 mit QM mod aufgerüstet, dann auch mit pci-e Gen 3 , oder ich hoffe auf ein T470p mit Thunderbolt (abgesehen vom Preis und noch nicht vorhandener Testberichte leider der einzige Grund der gegen das kommende T460p spricht), oder ich bau mir einfach nen Desktop-Rechner um die Graka, das teuerste Bauteil ist ja dann wenigstens schon vorhanden^^.

Totally off topic: viel lieber wäre mir aber ein x230 mit 35W QM mod :thumbsup:, leider scheint es (auch kommerziell) niemanden zu geben der sowas löten könnte

lg
 
Der i5 mit HT ist doch schon recht gut, so stark limitiert der nicht, und falls die GTX960 zu groß ist nach einer GTX950 schauen, die kostet zwar nur knapp 40€ weniger als die GTX960 dürfte aber immer noch ein besseres P/L Verhältnis haben als die GTX750Ti. Welche der beiden Karten letztendlich wirklich das bessere Performance pro Watt Verhältnis hat kann ich nicht sagen, mit Undervolting und Untertakten kann man da was rausholen, ansonsten ist man doch eher bei einem 100W Netzteil als bei einem 65W Gerät, sodass eine super kompakte Lösung (Notebooknetzteil) eigentlich fast eh rausfällt.

Mein Tipp: Gebraucht GTX750(Ti) für 40-80€ kaufen.

Edit: Eine neue 2GB 750 Ti gibt es ja "schon" (so teuer war die auch vor 2 Jahren) ab 114€, da ist die Differenz zur GTX960 schon noch reichlich 70€ und nicht nur 50:
http://geizhals.de/?cat=gra16_512&xf=1439_GTX+960~1439_GTX+950~1439_GTX+750+Ti~132_2048#xf_top

- - - Beitrag zusammengeführt - - -

... oder ich bau mir einfach nen Desktop-Rechner um die Graka, das teuerste Bauteil ist ja dann wenigstens schon vorhanden^^.

Wirklich schneöer als der 2520m aus dem X220 oder gar T430 ist dann aber nur ein echter Quadcore mind. Sandybridge eher neuer, unter 100€ gibt es sowas nichtmal gebraucht und neu kostet Haswell Quadcore und neuer immernoch (inzwischen) 180€+...

Edit02: Wozu brauchst du 4k@60Hz ? Zocken kannst du das ja eh nicht wirklich, also nur Video und Co. Eine 750 Ti mit DP kostet 116€ (und die ist sogar lowProfile und somit perfekt für eGPU) statt 114€, beide neu..

Edit03: Hier ein Test von 4GB zu 2GB bei gleicher Kartenleistung, da sind angeblich 4GB sogar bei Full HD schneller, ich bezweifel das etwas aber wenn man auf Nummer sicher gehen will..:
http://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/

Ich würde dann aber eher nach einer gebrauchten HD7950/7970 oder R9 280(X) mit 3GB schauen, die gibt es für bis 150€.

Wobei die 4GB GTX960 inzwischen auch für glatt 200€ zu haben sind:
http://geizhals.de/kfa-geforce-gtx-...ck-96nqh8dhd8z4-a1345570.html?hloc=at&hloc=de
 
Zuletzt bearbeitet:
Der i5 mit HT ist doch schon recht gut, so stark limitiert der nicht, und falls die GTX960 zu groß ist nach einer GTX950 schauen, die kostet zwar nur knapp 40€ weniger als die GTX960 dürfte aber immer noch ein besseres P/L Verhältnis haben als die GTX750Ti. Welche der beiden Karten letztendlich wirklich das bessere Performance pro Watt Verhältnis hat kann ich nicht sagen, mit Undervolting und Untertakten kann man da was rausholen, ansonsten ist man doch eher bei einem 100W Netzteil als bei einem 65W Gerät, sodass eine super kompakte Lösung (Notebooknetzteil) eigentlich fast eh rausfällt.
Ja, die GTX950 hatte ich irgendwie übersehen, kommt aufjedenflal auch in die engere Auswahl.
Weiss nicht ob du mich damit ansprechen wolltest, da ich das nirgends erwähnt hab, aber das Performance/Watt Verhältnis ist mir ziemlich Wurst solange das Dell dp220 Netzteil (220W) das packt, und da sollten Maxwell sei Dank die Meisten neuen NVIDIA Karten passen.

Wozu brauchst du 4k@60Hz ? Zocken kannst du das ja eh nicht wirklich, also nur Video und Co. Eine 750 Ti mit DP kostet 116€ (und die ist sogar lowProfile und somit perfekt für eGPU) statt 114€, beide neu..
Ja, als ich das letzte Mal geschaut hab gab es glaub nur 1 Modell, welches auch DP hatte, mittlerweile scheint es sich dahingehend etwas gebessert zu haben.
Und 4k@60hz sind auch eher dazu gedacht, die Monitorgröße bei ähnlicher dpi-zahl signifikant zu erhöhen unter anderem auch deshalb weil der Monitor im WG-Zimmer für alles herhalten muss (Filme, Konsole, Arbeiten, ...). Geplant ist ein 40" Modell, warte aber im Moment noch auf etwas bessere Preise oder vielleicht doch noch auf ein neues Modell mit weniger Kinderkrankheiten (Ghosting, Blickwinkel, PWM, Reaktionszeit, ...).

Edit03: Hier ein Test von 4GB zu 2GB bei gleicher Kartenleistung, da sind angeblich 4GB sogar bei Full HD schneller, ich bezweifel das etwas aber wenn man auf Nummer sicher gehen will..:
Ging eher darum, wie sich das in Verbindung mit egpus verbessert, da einige Leute berichten, dass man z.B. mit 2GB vram weniger traffic auf der expressCard-Leitung verursacht wie mit einer 1GB Karte, da die Grafikkarte mehr Daten im eigenen Speicher vorhalten kann und das dann wohl auch tut und damit den Flaschenhals etwas abmildert. Die Frage war jetzt ob sich das mit 4GB vram noch steigern lässt.

Ich würde dann aber eher nach einer gebrauchten HD7950/7970 oder R9 280(X) mit 3GB schauen, die gibt es für bis 150€.
ATI bzw. AMD fällt trotz generell besserer P/L leider aus mehreren Gründen raus. Zum einen weil die aktuelle Generation noch deutlich zu viel Strom benötigt (zudem ist bei Maxwell im Idle lüfterloser Betrieb möglich, was mich auch sehr wichtig ist), weil NVIDIA eine Datenkompression hat was dem ExpressCard Engpass wieder zu gute kommt und weil (mein letzter nicht ganz aktueller Stand) Blender momentan nur die CUDA cpus und kein openCL von AMD zum rendern verwenden kann (<- geht wohl in der Zwischenzeit, scheint aber noch nicht ganz so rund zu laufen wie mit CUDAs).

Am Ende wirds darauf hinauslaufen, dass ich einfach mal mehrere Karten durchbenche (750ti, 950, 960 2gb, 960 4gb) und mich dann anhand der Resultate entscheide (erstmal hoffe ich, dass ich das halbwegs problemlos zum laufen bekomme^^).

Danke und lg


Wozu brauchst du 4k@60Hz ? Zocken kannst du das ja eh nicht wirklich, also nur Video und Co. Eine 750 Ti mit DP kostet 116€ (und die ist sogar lowProfile und somit perfekt für eGPU) statt 114€, beide neu..
 
Zuletzt bearbeitet:
Ok, na da der Preisunterschied bei der 960er mit 2GB und 4GB ja kaum vorhanden ist würde ich gleich zur 4GB Version greifen wenn die 199€ in Frage kommen und gar nicht erst die 750 etc. probieren.
 
Ok, na da der Preisunterschied bei der 960er mit 2GB und 4GB ja kaum vorhanden ist würde ich gleich zur 4GB Version greifen wenn die 199€ in Frage kommen und gar nicht erst die 750 etc. probieren.
Ja, aber wo bleibt denn da der Spass :D, außerdem könnte es ja auch sein, dass sich die dickere Karte gar nicht lohnt weil sie ausgebremst wird. Ein paar Seiten weiter vorne hatte ROB87 eine GTX960 in einem T430 mit eher mittelmäßigen Ergebnissen getestet (3DMark 11: 5600 Punkte).
Außerdem gäbs dann mal wieder aktuelle Vergleichswerte für den Thread, vielleicht kann ich sogar meinen Mitbewohner dazu überreden sein x230 rauzurücken um auch noch den direkten Vergleich zwischen den beiden Thinkpad Generationen zu haben :)

Da ich den Adapter aus Sparzwank via Schneckenpost aus China bestellt hab, wird das Ganze eh bis Ende Februar warten müssen, aber das Netzteil hab ich immerhin schonmal^^


lg
 
Pauschal kann man die Frage ob 2 oder 4 Gigabyte VRam zu empfehlen sind nicht beantworten. Wenn ich meine GTX 670 irgendwann mal in Rente schicken sollte, würde ich definitiv keine Karte mehr mit 2 Gb kaufen. Mechwarrior Online / CoH2 brauchen bei hohen Einstellungen schon die 2 Gb. Bei vielen aktuellen Titeln (Wichter III, Anno 2070, GTA V) sind 2 Gb definitiv nicht mehr zu empfehlen.

Für meine GTX 670 (bzw. eher 680 :thumbsup:) gibt es aber aktuell keine Lösung die mich in P/L zufrieden stimmt. Ich kann leider keine Karten verbauen die länger als 25 cm sind. Damit sind leider so gut wie alle Modelle von ATi aus dem Rennen (außer die 270(X) oder die Fury) . Gleiches gilt für die GTX 770/780. Mit der GTX 670 habe ich aber aktuell die Leistung einer GTX 960, einer 270X sowieso und von daher wüsste ich nicht auf was man aufrüsten sollte. Nur für das Mehr an VRam lohnt sich das einfach nicht. Vor allem da man die GTX 670 gebraucht für um die 100€ handelt. Zum Einkaufen gut, zum Verkaufen schlecht!
 
Zuletzt bearbeitet:
So, Mein EXP GDC ist gestern angekommen. Hab dummerweise im Eifer des Gefechts ein falsches Set mit mini pci-e anschluss statt expressCard bestellt :facepalm:.
Egal, Handballenauflage abgeschraubt, wwan Karte rausgeschmissen, adapter mit einer geliehenen Radeon 9500GT zum Testen drangehängt und mit win10 gebootet.

Leider beschränkt sich das Ergebnis bisher darauf, dass überhaupt nix passiert (nicht ganz richtig, das Lämpchen am EXP GDC geht an). Weder die Grafikkarte noch der usb-stick den ich zusätzlich noch in den usb-port des adapters gesteckt habe werden erkannt. Die Karte ist komplett passiv gekühlt, das heißt ich kann nicht sagen ob sie überhaupt läuft. Sie hat keinen externen Stromanschluss und ich weiß nicht ob der Adapter die Karte über PCIe mit Strom versorgt oder ob das ausschließlich über den 8-pin port geht (dessen Kabel mir dummerweise auch fehlt und unerwarteterweise auch kein Kabel von der Stange ist).

Wenn ich am mini-pcie rüttel stürzt immerhin der Rechner ab^^.
Bin für jeden Tipp dankbar.

lg
 
So, Mein EXP GDC ist gestern angekommen...

Also der Strom muss schon irgendwo herkommen. An den 8pin Port des Adapters muss eine Stromquelle dran. Normalerweise liegt immer ein Adapter von Motherboard 24(?)pin auf 8pin bei, damit man ein ATX Netzteil verwenden kann. Von Dell gibt es es Power Brick Netzteil mit passendem Anschluss.

Grüße
 
Also der Strom muss schon irgendwo herkommen. An den 8pin Port des Adapters muss eine Stromquelle dran. Normalerweise liegt immer ein Adapter von Motherboard 24(?)pin auf 8pin bei, damit man ein ATX Netzteil verwenden kann. Von Dell gibt es es Power Brick Netzteil mit passendem Anschluss.

Grüße
Dell Netzteil ist dran, mir geht es um den 6 Pin Ausgang vom EXP GDC der für den 6 oder 8 Pin Eingang einer Grafikkarte bestimmt ist die mehr Strom benötigt als der Steckplatz per Spezifikation liefern kann. Vielleicht ist auch einfach die Karte kaputt, wobei dann aber wenigstens der USB-Stick erkannt werden sollte.
 
Dann sollte es so funktionieren wie du es beschreibst. Schon ein paar Neustarts probiert? Kenne es nur über die Expresscard, aber vielleicht ist es über PCI-E nicht auf der Whitelist?
 
Dann sollte es so funktionieren wie du es beschreibst. Schon ein paar Neustarts probiert? Kenne es nur über die Expresscard, aber vielleicht ist es über PCI-E nicht auf der Whitelist?
Hatte ich auch schon dran gedacht, aber dann sollte ich ja eigentlich wenigstens ne Fehlermeldung bekommen.
Karte scheint Strom zu bekommen, der passive Kühler hat sich ein wenig erwärmt.

- - - Beitrag zusammengeführt - - -

Hab jetzt mal noch den anderen mini pcie ausprobiert und jetzt bekomm ich wenigstens mal den Whitlist Error :)

Werde auf den ExpressCard Adapter warten müssen ,es dann nochmal versuchen und hier dann hoffentlich etwas positivere Meldungen verlautbaren
 
Hi,

Ich habe mich vor Jahren in dem Thema mal eingelesen, dann aber aus den Augen verloren.
Ich plane primär eine Aufrüstung meines Athlon X4 Systems (AM2+) auf ZEN.
Da aber auch mein Thinkpad X200 mit Rauch und Gestank seinen mobilen Dienst quittiert hat, will ich mir demnächst ein T420 holen.
Nun, im X4-System habe ich 8GB DDR2-800 Ram, eine Samsung 850 Evo und eine XFX R9 280X DD BE (1050/1500Mhz) und 3GB VRam. Nun, da ZEN ja noch was auf sich warten lässt, das Notebook aber bald kommt, ist die Frage: Ist es sinnvoll den X4 in Rente zu schicken und stattdessen auf eGPU zu setzen mit meiner R9 280X? Ist der Geschwindigkeitsvorteil vom i5 2520m zum X4 630 deutlich zu spüren was Spiele angeht? Bremst die Expresskarte mit lediglich PCIe 2.0 1x des PE4C V3.0 die R9 280X extrem aus?

Was ich mir erhoffe:
- in FHD besser Zocken zu können als mit dem X4 630 (z.B. AC Syndicate ist aktuell nur ein Daumenkino)
- Stromkosten sparen (eGPU läuft nur, wenn ich sie wirklich brauche und die mobile i5 frisst nunmal weniger Strom als ein Propus...)
- Anschaffung des ZEN-Systems etwas hinauszögern (bis sich die Preise auf "normalem Niveau" eingependelt haben) , evtl durch Aufrüstung auf ein Quadcore vielleicht sogar bis 2018.
- Platzersparnis

Ist das realistisch?
 
Ich glaube eigentlich nicht das ein i5 2520m deutlich schneller ist als ein X4 630.
Aber es kann sein das der X4 hier die Schwachstelle des fehlenden L3 Caches zeigt und ein Phenom II X4 vielleicht besser gehen würde.

Hast du die Möglichkeit zu übertakten mit deinem Board ? So 3,4 oder 3,5Ghz sollten bei den Teilen machbar sein wenn der Kühler ok ist, das bringt noch ne Ecke.

Ansonsten bringt ein Core i mit 2 Kernen + HT wohl doch etwas bei den Minimum FPS:
http://www.tomshardware.de/Gaming-CPU-core-i3-2100-phenom-ii-x6-1075t,testberichte-240746-8.html
(Starcraft 2 war m.W. recht CPU Lastig)

Wenn du aber mit dem eGPU System liebäugelst kannst du dem T420 dann auch einen Quadcore spendieren, die 100€ sollten sich lohnen.
 
Zuletzt bearbeitet:
Hi,

laut hier: http://cpuboss.com/cpus/Intel-Core-i5-2520M-vs-AMD-Athlon-II-X4-630 ist der i5 im Single-Thread schneller, und sonst als Dualcore + HT gleichschnell. Wie gesagt, ich kann ja immer auf einen i7 Quad aufrüsten.

Ein Phenom lohnt sich für das AM2+ System nicht mehr und übertakten ist zwar möglich (hab 3 Ghz erreicht @ Standard VCore), aber da dadurch die Energiesparmodi verloren gehen, ich die CPU Temperatur nicht mehr auslesen kann, wenn ich was am Takt ändere, der Stromverbrauch immens steigt, ist das nicht unbedingt lohnenswert für 2FPS mehr.

Sofern ich mit dem i5 2520m zumindest GENAUSO gut spielen kann, wie mit dem X4, ist ja schonmal gut. Da spare ich pro Jahr bestimmt 50€ Stromkosten, sodass sich solch ein eGPU-Ding schnell armotisiert.
 
50€ Stromkosten pro Jahr halte ich für etwas utopisch es sei denn du bist Dauerzocker.

Ein T420 braucht unter Last sicherlich 50W, das AM2 System ohne ! Grafikkarte max. 200W (mit schlechtem Netzteil, aber eher weniger).
Macht also als Differenz max. 150W (ich denke eher 100W) - die Grafikkarte braucht ja so oder so Strom (und bei der Variante eGPU hast du zwei Netzteile).

50€ / 0,33€ /kWh = 150kWh = 150W * 1000 * 1h.

Bedeutet also du musst 1000 Stunden im Jahr spielen, bei 8700 Stunden die das Jahr hat finde ich das recht ambitioniert, realistisch sind es eher 1850 Stunden (0,27€ / kWh und 100W Stromunterschied, denn das Netzteil der eGPU hat ja auch ein Netzteil mit Wirkungsgrad etc.) und das ist schon sehr viel finde ich.

Im Idle ist der Unterschied ja nochmal geringer:
Das T420 braucht 10-20W nur die Komponenten und ein AM2/AM3 X4 System kann auch mit Grafikkarte auf 60-70W runterkommen, bleiben ca. 50W Differenz.
Und auch wenn du damit den eGPU Adapter reinholst, das T420 kostet ja trotzdem was.

Soll dir nicht den Spass verderben, aber besonders sparen tut man mit solchen Aktionen nie, kenn ich leider aus eigener Erfahrung ;)
 
Naja, ich sitze nach der Arbeit abends noch locker 6h am Rechner und arbeite weiter. Wochenends kann es auch nochmal 18h werden. Da sind die Zock-Sessions noch nicht mit einberechnet ;) meiste Zeit ist Office und Bildbearbeitung dran.

Mein System frisst im IDLE mit der R9 90W (untervoltet und die Grafikkarte auch noch untertaktet). Unter Volllast sind es 250W (mit einem guten 80+ Netzteil). Da bei einer eGPU ja die R9 nur laufen muss, wenn ich zocken will, ist da also der Unterschied schon gewaltig.

Das T420 ist eh geordert - habe zwar zwei Thinkpads und zwei Netbooks, jedoch haben alle das selbe Problem: sie sind nicht (mehr) mobil einsetzbar und arschlahm. Und wenn man unterwegs ist und Präsentationen halten will, dann ist ein funktionierendes Notebook schon ganz nett.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben