Tutorial: Externe PCIe-Grafikkarte an Thinkpad anschließen

Habt ihr euch für eure eGPU ein Gehäuse gebaut?
Oder habt ihr das einfach aufm Schreibtisch leigen?

Postet doch mal Pics davon :D .
 

Das klingt aber eher danach, als würde die Karte mit der niedrigeren Core-Spannung beim runtertakten im Leerlauf nicht klarkommen.
Mal zu sehr übertaktet und den Chip damit vielleicht gefährdet?
Ansonsten klingt das schon eher nach Hardwaredefekt. Wenns bei mehreren Leute auftritt dann vlt. im Sinne eines Serienfehlers...
 
Das klingt aber eher danach, als würde die Karte mit der niedrigeren Core-Spannung beim runtertakten im Leerlauf nicht klarkommen.
Mal zu sehr übertaktet und den Chip damit vielleicht gefährdet?
Ansonsten klingt das schon eher nach Hardwaredefekt. Wenns bei mehreren Leute auftritt dann vlt. im Sinne eines Serienfehlers...

Das würde erklären wieso das Bild einfriert.
Übertaktet habe ich bei dem Ding noch gar nichts.

Ich denke auch, dass die Karte eindeutig defekt ist aber solange es so funktioniert ist mir das egal. :D

Habe auch gerade mal nachgemessen. Jetzt hat sie einen IDLE Verbrauch von um die 60 Watt. Vollast zieht sie um die 200Watt.

Das Thinkpad zieht vielleicht nochmal 60Watt.

Ein Desktop PC mit der Leistung und 260Watt verbrauch werde ich nirgendwo finden.
Somit finde ich mich mit dem erhöhten IDLE Verbrauch ab.
 
Wenn keine Garantie mehr auf der Karte ist, würde ich vlt. mal gucken, ob man ds BIOS der Karte nicht flashen kann. Dann evtl. die Kern-Spannung für den Minimaltakt etwas anheben. Dann könnte sie wieder stabil laufen. Ist ja auch in etwa die vermutung aus dem von dir verlinkten Thread.
 
Klar geht sowas. Zumindest bei den meisten Karten. Viele Leute übertakten so. Die Kern-Spannung ist meist gesperrt. Über ein BIOS-Flash lässt sich diese dann ändern, was wiederum höhere Taktraten bringen kann.
Wie es genau geht, weiß ich auch nicht. Müsstest Du mal suchen. Ich weiß nur, dass es geht.
 
DANKE für den Tipp.

Nach anheben der Spannung um 0,125 Volt geht es nun. Wunderbar :)
 
Zuletzt bearbeitet:
Falls noch jemand eine sehr günstige Kombination aus Netzteil und mATX-Gehäuse sucht:
www.ebay.de/itm/110936574397

Für rund 10 EUR inkl. Versand erhält man ein schwarzes MaxData Gehäuse samt 300W SFX-Netzteil mit An/Aus-Schalter. Einziger Schönheitsfehler ist eine fehlende Laufwerksblende. Da ich dort aber wohl eh ein Laufwerk einsetzen werden, welches dann bei Bedarf via USB ans TP angeschlossen wird, stört mich das nicht.
Meine ATI 5770 passt rein, wenn man die mittigen PCI-Schächte nimmt. Dafür ist der Grafikkartenlüfter dann sehr nah an der Gehäusewand. Ich werde mir da mal die nächsten Tage die Temperaturen ansehen und dann ggf. entweder Löcher ins Blech bohren oder ein großes Loch reinmachen mit einem Lüftungsgitter davor.

Aber für 10 EUR gibt es da nichts zu meckern, zumal das Netzteil auch deutlich leiser ist als das bisherige ATX-Netzteil.

Gruß,
David
 
Ich denke auch, dass die Karte eindeutig defekt ist aber solange es so funktioniert ist mir das egal. :D

Habe auch gerade mal nachgemessen. Jetzt hat sie einen IDLE Verbrauch von um die 60 Watt. Vollast zieht sie um die 200Watt.

Das Thinkpad zieht vielleicht nochmal 60Watt.

Ein Desktop PC mit der Leistung und 260Watt verbrauch werde ich nirgendwo finden.
Somit finde ich mich mit dem erhöhten IDLE Verbrauch ab.

Hast du jetzt die Spannung erhöht ?

Mit den 260W muss ich dir leider widersprechen, inzwischen bringt jeder akutelle Desktop PC bei 260W diese Leistung.
Mei Core i3 2120 dürfte dem Zweikerner in dem X220 von der Leistung her noch überlegen sein. (Kann sein das ein paar Befehlssätze wie AES fehlen) Zusammen mit einer HD7850 oder einer GTX660 oder GTX650Ti erreicht man eine ähnliche Leistung, bleibt aber deutlich unter 200W.
Eine GTX560Ti ist an sich leider schon nicht sehr effizient.

Wenn die Karte jetzt läuft würde ich überlegen sie auf Ebay zu verticken und fürs gleiche Geld ne GTX650Ti zu kaufen, die ist minimal langsamer, braucht im Idle aber nur 10W und unter Last 60W. Dann brauchst du im Game mit Laptop zusammen maximal 130-140W.
Je nach Laufzeit lohnt sich das...

Vor allem Multimonitoring wäre für mich immer ein Grund ne sparsame Graka zu haben.
Wobei man bei dem x220 im Officebetrieb wohl eher die Intel HD verwenden sollte, die kann ja über die U-Base auch 2 Monitore ansteuern.
Ohne (teure) U-Base ist das schon wieder ne Überlegung wert:
GTX650Ti als ext. Graka und da dann 2 TFTs dran.
Braucht man wenn man nach Hause kommt nur die ExpressCard reinschieben.
Als Netzteil braucht es dann auch kein großes ATX Teil, sondern ein passives 12V Netzteil mit langem Kabel ist wie gemacht dafür unter den Tisch zu wandern. Lautlos, effizient und man kann es im Winter als Fußwärmer nutzen - das meine ich ernst.
 
Zuletzt bearbeitet:
Hast du jetzt die Spannung erhöht ?

Mit den 260W muss ich dir leider widersprechen, inzwischen bringt jeder akutelle Desktop PC bei 260W diese Leistung.
Mei Core i3 2120 dürfte dem Zweikerner in dem X220 von der Leistung her noch überlegen sein. (Kann sein das ein paar Befehlssätze wie AES fehlen) Zusammen mit einer HD7850 oder einer GTX660 oder GTX650Ti erreicht man eine ähnliche Leistung, bleibt aber deutlich unter 200W.
Eine GTX560Ti ist an sich leider schon nicht sehr effizient.

Wenn die Karte jetzt läuft würde ich überlegen sie auf Ebay zu verticken und fürs gleiche Geld ne GTX650Ti zu kaufen, die ist minimal langsamer, braucht im Idle aber nur 10W und unter Last 60W. Dann brauchst du im Game mit Laptop zusammen maximal 130-140W.
Je nach Laufzeit lohnt sich das...

Vor allem Multimonitoring wäre für mich immer ein Grund ne sparsame Graka zu haben.
Wobei man bei dem x220 im Officebetrieb wohl eher die Intel HD verwenden sollte, die kann ja über die U-Base auch 2 Monitore ansteuern.
Ohne (teure) U-Base ist das schon wieder ne Überlegung wert:
GTX650Ti als ext. Graka und da dann 2 TFTs dran.
Braucht man wenn man nach Hause kommt nur die ExpressCard reinschieben.
Als Netzteil braucht es dann auch kein großes ATX Teil, sondern ein passives 12V Netzteil mit langem Kabel ist wie gemacht dafür unter den Tisch zu wandern. Lautlos, effizient und man kann es im Winter als Fußwärmer nutzen - das meine ich ernst.

Jau, die Spannung habe ich erhöht und nun geht es auch ohne diesen Workaround.

Sind die Dektops wirklich so leistungsfähig geworden? Also mein Alter i7-860 mit HD 5830 hat seine 500Watt genommen. Und der ist doch signifikant langsamer als ein i7-2670qm mit einer GTX 560TI.
Multimonitoring brauch ich nicht. Die karte ist wirklich nur zum spielen, da ansonsten nur Linux verwendet wird und ich da mich auf die integrierte Nvidia Grafik verlasse. Ist mir sonst auch zu viel Bastellei.
 
Moin, bei mir flattert demnächst auch ein x230 in's Haus und da ich dann gerne meinen Desktoprechner abschaffen würde, kommt mir die eGPU Lösung sehr gelegen. Nun besteht für mich jedoch eine Frage, welche Platine sollte man denn nun nehmen? PE4H oder PE4L? Beide sollen ja PCIe 2.0 (wenn ich bei dem ganzen Wirrwarr durchgeblickt hab) beherrschen, oder tut dies wirklich nur die PE4L? Anschließen würde ich es über den Expresscardslot, falls das für die Entscheidung wichtig ist. Kann mir da jemand eine Antwort geben? Der PE4H hat halt den Vorteil des langen Anschlusses, was ich ganz gut finde, aber wenn der PE4L besser ist, werde ich natürlich zu diesem greifen.

Achja und lohnt es sich noch zu warten, falls eine Version mit PCIe 3.0 (wurde hier auf den letzten Seiten erwähnt) rauskommt, bzw. ist soetwas angekündigt worden, ich blick bei dem sehr langen original Thread nicht mehr richtig durch leider.

danke
Postfrosch
 
Ah, schon die erste schnelle Antwort, danke schön.

Dann darf mir der Freund aus den USA das Ding mal mitbringen.
 
Sind die Dektops wirklich so leistungsfähig geworden?
Ja. Schau her: http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650-ti/12/
Mit HD7850 braucht der Rechner 220W unter Last, mit der GTX650Ti nur 165W. Und die Karte ist fast so schnell wie eine GTX560Ti.

Mit einer nicht übertakteten CPU sind die Werte noch niedrieger, CB taktet den i5 3770k@4,5Ghz, das ist im Verbrauch schon noch ein Unterschied zu einem Core i3, letzter reicht im Grunde aber auch bei allen Games aus.
Der Unterschied zwischen der GTX650Ti und der HD7850 im Stromverbrauch ist bei CB eigenartigerweise sehr hoch, liegt eben auch daran das die CPU Last da mit einfließt, der Unterschied sollte eigentlich keine 60W ausmachen, eher 30-40W.
Bedeutet aber, das die HD7850 im System locker unter 200W Gesamtlast zu fahren ist.

Also mein Alter i7-860 mit HD 5830 hat seine 500Watt genommen.
Gemessen ab Steckdose ? Kann eigentlich gar nicht sein, es sei denn du hast extrem übertaktet gehabt, aber selbst dann kann ich mir 500W nicht vorstellen.

Und der ist doch signifikant langsamer als ein i7-2670qm mit einer GTX 560TI.
Ist der QM ein Quadcore ? Wenn nein, dann ist er auch nicht schneller als der i7 860.
Die Grafik ist etwas schneller als eine HD5830, das kann den Geschwindigkeitsunterschied machen.

Und was meinst du mit signifikant langsamer ?
Bei gleicher Ram Menge und gleich schnellen Massenspeicher kann das i7 860 System gar nicht signifikant langsamer gewesen sein.
 
Zuletzt bearbeitet:
Ach Laberkopf hat ein W520, deswegen der Quadcore.
Hatte schon vermutet das QM ein Quad ist, aber ich dachte er hat ein X2xx und da ist ein i7 ja kein Quadcore.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben