Quadro NVS 140M VS Intel GMA x3100 (t61 14.1)

Fresh

New member
Themenstarter
Registriert
16 Apr. 2007
Beiträge
126
Hallo Leute,

ich will mir ein T61 zulegen und überlege schon seit ewigkeiten nun welches modell! Was die Akkulaufzeit angeht komtm die frage auf

nVidia Quadro NVS 140M oder Intel Graphics Media Accelerator X3100????

mit der integrierten grafik hat man definitiv längere akkulaufzeiten! allerdings sind diese denn soviel besser? was empfehlt ihr?

was macht die nvidia karte eignetlich besonders?
hab schon öfter gehört das die nicht einmal für spieler tauglich ist? sondern nur für CAD oderso? gibts es vielleciht utner linux irgendwelche probleme mit einen von beiden lösungen?

Ich selbst bin kein Spieler und denke das ich auf die grafik verzichten könnte wenn es eine weitaus bessere Akkulaufzeit bietet. Dann würde ich auch einen 4-zellen + ultrabay akku benutzen! Was dann wiederum schicker aussieht als ein herausstehender akku!

Gruß
Fresh
 
Also ich würde ja das T61 mit der nVidia GraKa nehmen.

Die Quadro NVS 140M ist baugleich mit der GeForce 8400M GT, wenn ich mich nicht täusche. Also ist es eine GraKa der unteren Mittelklasse, was aber für die einen oder anderen Spiele völlig ausreicht. Mit den entsprechenden Treibern kann man sogar noch mehr aus der Quadro rausholen.
Hier kurz die 3DMark Ergebnisse laut Notebookcheck.com
3DMark01: 13747 Punkte
3DMark03: 5244 Punkte
3DMark05: 3177 Punkte
3DMark06: 1640 Punkte

Die Behauptung, dass die GMA X3100 GraKa sparsamer sei, stimmt laut Notebookcheck.com ja nicht:
NVIDIA Quadro NVS 140M: 10 Watt
Intel Graphics Media Accelerator (GMA) X3100: 13.5 Watt

Zum Vergleich die 3DMark Ergebnisse der X3100:
3DMark01: 6405 Punkte
3DMark03: 2916 Punkte
3DMark05: 922 Punkte
3DMark06: 603 Punkte

Außerdem "zapft" die GMA X3100 an den Arbeitsspeicher an, was das System etwas ausbremst.
 
Original von ThinkSamy
Die Behauptung, dass die GMA X3100 GraKa sparsamer sei, stimmt laut Notebookcheck.com ja nicht:
NVIDIA Quadro NVS 140M: 10 Watt
Intel Graphics Media Accelerator (GMA) X3100: 13.5 Watt

Dann sind die Messergebnisse unter verschiedenen Bedingungen gemacht worden.
Ich habe ein T61 7300 mit x3100 und SXGA+ Display und meine Stromaufnahme beträgt bei minimaler Displayheligkeit, WLAN an, Festplatte an unter 9 Watt..
Mit einer NVidia ist das nicht zu schafffen.

Außerdem "zapft" die GMA X3100 an den Arbeitsspeicher an, was das System etwas ausbremst.

Na und? 4GB RAM kosten deutlich unter 100,- Euro. Die paar MB für die Grafik kann man problemlos verkraften.

Ich mache mit meinem Notebook keine grafikintensiven Sachen und bin bisher noch NIE an einen Punkt gekommen, an dem ich mir mehr Grafikleistung gewünscht hätte. Für normalen Office Betrieb reicht die X3100 voll aus. Wenn man zocken möchte, ist die NVidia besser aber alle anderen Anwender sind mit der X3100 besser beraten,
 
Die 13W stimmen definitiv nicht. Ich hatte nen T61 mit 7500 und quadro 140M und kam nicht unter 11W wobei dort alles aus war und Helligkeit bei 5% oder so. Sogar das optische Laufwerk war aus! Und die CPU auf 600MHz und undervolted festgenagelt.


Wer zocken will, dem reichen beide Grafikkarten nicht aus, außer es werden nur ältere Spiele gespielt.

Wer oft CAD macht, dem dürfte die 140M auch nicht ausreichen (mein Bruder macht einiges an CAD und bereut die 140M etwas...er überlegt sich nochn dickes Dock mit bessere Graka zuzulegen).
 
Ok das klingt eigentlich als wäre die Nvidia karte nicht wirklich sehr sinnvoll für die leistung! aber andererseits bringt die integrierte grafik nicht sehr hohen vorteil in der laufzeit! hmm...
obs dann noch sinnvoll ist für die integrierte graka mer hzu zahlen! weil komischerweise sind die modelle mit integrierter grafik und gute aufgelösten display weitaus teurer!! :-(



@Phil42
WIeso hattest du ein T61? warst du unzufrieden? Kannst du eventuell grad deine eindrücke über die qualität auf folgendem thread niederschreiben
T61 14.1" Wide = wackeliger Lenovo Schrott???
 
Neee, es war schon supi das Book, nur halt nicht ganz meinen Anforderungen entsprechend (wollte ein noch etwas leichteres, mobileres mit mehr Akkulaufzeit).

Aber klar, ich schreib meine Eindrücke da mal rein, hatte es ja immerhin 13 Tage ^^.
 
Also ich hab die NVIDIA 140M und neben dem Nachteil der kürzen Akku-Betriebszeit (so jedenfalls die allgemeine Meinung, ich hab es nicht nachgeprüft) ist da noch die Wärmeentwicklung.
Mir persönlich ist der lange Akku-Betrieb nicht so wichtig (denn irgendwie ist die Akku-Laufzeit immer zu kurz - also wenn dann hab ich mein Netzteil mit).
Die Wärmeentwicklung der 140M stört mich hingegen schon. Auch wenn man den Prozessor auf Sparflamme hat, köchelt die 140M ganz schön vor sich hin. Speziell unter Vista kann man da auch nichts runtertakten (unter XP ist das IMHO möglich - weiß aber nicht was das bringt).

Ich spiele (dzt.) nur Mahjong und Ski Challenge: Das schafft die 140M problemlos. Aber auch mit der Intel-Grafik wird man diese Games (Mahjong jedenfalls; Ski Challenge event. mit etwas weniger Details/Schatten - was aber eigentlich nicht den Spielspass mindert) spielen können.

Ich habe mich für die NVIDIA-Grafik entschieden da mir das Konzept vom Shared Memory (u.a. auch "Verlust" von RAM-Bandbreite) generell nicht so gefällt. Und leider bin ich bei der NVIDIA auch zum Shared Memory gezwungen: Nennt sich TurboCache und zweigt (bei Bedarf) RAM vom Hauptspeicher ab - und leider kann ich das nicht ausschalten. NVIDIA will mich hier bevormunden. Ich komme jedoch mit den 128 MB Grafikspeicher aus und will selbst entscheiden können ob ich eventuell Hauptspeicher für die Grafikkarte zur Verfügung stellen will.

Also ich würde jetzt sicherlich die Intel-Grafik nehmen: Für mich sollte diese Lösung absolut ausreichen. Mich überzeugen die Vorteile der NVIDIA-Grafik nicht restlos oder besser gesagt: Die Nachteile (Hitze, TurboCache, Akku-Laufzeit) wiegen schwerer.

Für Hard-Core-Gamer ist ein Notebook IMHO ohnedies nicht die optimale Lösung.
 
Die 140M hat kein TurboCache!

Runtertakten bringt bei der Hitzentwicklung quasi nichts, nur einer Verringerung der Spannung hilft. Leider ist hier nVidia sehr undurchsichtig (geworden).

Aber eigentlich wird die Grafikkarte nicht sehr warm...bei meinem T61 wurde die Festplatte wärmer (wo liegt eigentlich genau die GPU? liegt die überhaupt bei einem Handballen? Die Tastatur ist überall angenehm temperiert (also kühl) und andere Stellen sind ja egal).
 
Bis mein T61 da ist habe ich hier noch ein MB mit einer integrierten Grafikkarte. Office und 1920x1200 geht ohne Probleme nur warm wird sie dabei. Vorher hatte ich ein MacBook Pro mit der tollen 8600er und merke für meinen Bedarf keinen Unterschied. Daher nehme ich lieber die Vorteile der integrierten Grafikkarte und habe auch entspr. so ein T61 bestellt.
 
Original von Phil42
Die 140M hat kein TurboCache!
Das glaubst aber auch nur du. Die 140M hat sehrwohl TurboCache: Technical Specifications

Aber eigentlich wird die Grafikkarte nicht sehr warm...bei meinem T61 wurde die Festplatte wärmer
Wie bitte? Die GPU-Temperatur ist bei weiten nicht so niedrig zu bekommen als die CPU-Temperatur (nicht volle Leistung). Bei mir im Energie-Schema "Energy Star" habe ich z.B. derzeit eine CPU-Core-Temperatur von ca. 40 °C, die NVIDIA hat eine Core-Temperatur von ca. 55 °C (derzeit ohne TPFC, Lüfter läuft derzeit. Die HDD hat 38 °C (S.M.A.R.T.).
Mit TPFC geht die CPU auf ca. 60 °C hoch, die GPU auf ca. 67 °C [jeweils Core-Temperatur] - bei meinen TPFC-Settings: Level=55 0, Level=63 1, SensorOffset4=2 - ohne den GPU-Offset läuft auch mit TPFC der Lüfter deutlich öfters und das oft wegen der NVIDIA. Ich war auch schon mit SensorOffset4=4 unterwegs und mit Level 1 bei 65 °C und dann blieb der Lüfter wirklich sehr sehr lange aus, aber das ganze Notebook wurde schon recht warm; am VGA-Anschluss konnte man sich fast verbrennen. Über die hohen Temperaturen der 140M kann man ja hier und in anderen Foren entsprechendes nachlesen.
Und hier nun meine aktuellen Werte mit TPFC (Log-File): CPU=60 °C, GPU =61°C (bei CPU-Core von ca. 57 °C und GPU-Core von ca. 68 °C). Grund: TPFC misst nicht die Core-Temperaturen sondern eigene Temperatursensoren des ThinkPads. Da CPU und GPU an der gleichen Heat-Pipe hängen (zumindest gehen beide Stränge in den gleichen Lüfter-Block) gleichen sich die externen Temperaturen von CPU und GPU aneinander an.
 
Original von ThinkSamy
NVIDIA Quadro NVS 140M: 10 Watt
Intel Graphics Media Accelerator (GMA) X3100: 13.5 Watt
Außerdem "zapft" die GMA X3100 an den Arbeitsspeicher an, was das System etwas ausbremst.

das ist beides ziemlich übel falsch.
Die Watt Werte auf Notebookcheck sind einfach nur die Specs. D.h. 13.5 watt ist wohl die TDP des Chipsets. 10 Watt der NVIDIA Grafik müsste man dann draufaddieren. Aber das hat für Praxis gar keine Aussage.

Arbeitsspeicher "anzapfen" bedingt gar keinen Performanceverlust. Das kann man ausrechnen und auch testen. War früher mal so, ist spätestens seit Santa Rosa und Dual Channel aber obsolet. Stattdessen ist das ein deutlich überlegenes Design, da gemeinsames Ram weniger Strom benötigt.

Die Nvidia müsste unter Windows in typischem Betrieb rund 5 Watt mehr verbrauchen als die x3100. Unter Linux soll dank besserer Treiber der Unterschied geringer ausfallen, wobei der Stromverbrauch des Gesamtsystems unter Linux sowieso deutlich geringer ist als mit Windows.
 
Naja etwas Geschwindigkeitsverlust ist teilweise schon vorhanden, da bei VRAM oft GDDR3-RAM verwendet wird (bei Notebooks aber wohl eher nur bei den höheren Karten) und teilweise auch schneller getaktet ist (wobei mit Penryn wohl nich mehr).

Früher war es so, dass der CPU-Controler die Dual-Channel-Geschinwindigkeit des RAMs nicht ausnutzen konnte, sondern immer nur maximal die einfache Geschwindigkeit hinbekommen hat. Hier war es quasi egal, ob die Grafikkarte nochmal was abzwackt.
Heutzutage nutzen die CPU's aber eigentlich die volle Bandbreite, wenn ich mich recht entsinne, wodurch hier theoretisch ein Verlust von Bandbreite durch die Grafikkarte entsteht.

Aber der größere Verlust dürfte schlicht und ergreifend die Architektur der integrierten Grafik sein...Intel ist nunmal nicht für Grafiklösungen bekannt und hat hier auch weniger Erfahrung. Außerdem will man Transistoren spare und verringert daher die Shader-Einheiten gegenüber den dedizierten, denke ich mal.

Zum Turbomemory: Laut der spec KANN die 140M Turbomemory nutzen, muss dies aber nicht (128 sind dediziert) und ich hatte bei mir auch keinerlei chance der Grafikkarte RAM zuzuweisen oder abzuzwacken, darüber hinaus hatte ich in Windows die vollen 3gb (32bit-system) frei zur Verfügung.

GPU-Temp. Also wenn du ne 140M hast, würde ich mir sorgen machen...bei mir war die CPU-Temp laut TPFanControl grundsätzlich 1-2° über der GPU-Temp. Sicher, dass die Stromsparfunktionen aktiv sind?
 
Original von Phil42
Heutzutage nutzen die CPU's aber eigentlich die volle Bandbreite
Nee. Grob gerechnet hat man bei Santa Rosa 800 Mhz FSB gegenüber 2x667 Mhz Ram Bandbreite, also reichlich Raum zum abzweigen. Reicht auch für SXGA+.
Die x3100 ist völlig ausreichend schnell. Gibt ja hier etliche Threads, welche Spiele damit laufen. Für normale Arbeiten oder auch CAD reicht das sowieso.
 
Original von Phil42
Zum Turbomemory: Laut der spec KANN die 140M Turbomemory nutzen, muss dies aber nicht (128 sind dediziert) und ich hatte bei mir auch keinerlei chance der Grafikkarte RAM zuzuweisen oder abzuzwacken, darüber hinaus hatte ich in Windows die vollen 3gb (32bit-system) frei zur Verfügung.
Ich nehme mal an du meinst TurboCache (und nicht "Turbomemory"; Turbo Memory wäre die Bezeichnung für eine Technologie von Intel (Codename Robson) und das ist für ReadyBoost und ReadyDrive). Auch das "KANN" verstehe ich nicht ganz: IMHO hat diese NVIDIA diese Technologie eingebaut und verwendet diese auch (bei Bedarf). Ich weiß auch nicht ob man dieses TurboCache überhaupt deaktivieren kann. Also die Grafikeinheit kann Hauptspeicher nutzen, nichtsdestotrotz ist die TurboCache-Technologie immer da.
"Die Bezeichnungen TurboCache (NVidia) und HyperMemory (ATI) sind marketingtechnisch aufgewertete Begriffe für Technologien bei Grafikkarten, die Shared Memory einsetzen. Sie kombinieren das Shared-Memory-Konzept mit einem (aus Kostengründen vergleichsweise kleinen) grafikkarten-eigenen Speicher, dadurch steht neben einem großen Shared Memory auch ein schneller Lokalspeicher zur Verfügung." (Quelle: Wikipedia

Siehe Systemsteuerung / Darstellung und Anpassung / Anpassung / Anzeige / Erweiterte Einstellungen / Tab Grafikkarte
Insgesamt verfügbarer Grafikspeicher: 895 MB
Dedizierter Grafikspeicher: 128 MB
Systemvideospeicher: 0 MB
Gemeinsam genutzter Speicher: 767 MB

Im Task-Manager wird ein physikalischer Speicher in insgesamt 3069 MB angezeigt. Ich denke das ist normal bei 4 GB unter Vista 32 Bit.

Was nicht ganz so klar ist:
Woher kommt dieser gemeinsam genutzter Speicher: Aus dem 4. GB (das in Vista nicht zur Verfügung steht da dort durch das BIOS diverse I/O-Bereiche gemapped werden)? Aber ich habe da doch meine Zweifel dass NVIDIA diesen Bereich nutzen kann obwohl er durch das BIOS eigentlich belegt ist. Ich befürchte daher dass die 767 MB von den 3096 MB - bei Bedarf - genommen werden. Hier wäre mir auch nicht ganz klar wie das funktioniert und ob hier dann auch der für Windows verfügbare Speicher zurückgeht (also von 3069 MB auf bis zu 2329 MB) oder ob ein Windows-Prozess (Grafiktreiber) einfach Speicher innerhalb dieser 3069 MB beansprucht.
Bisher konnte mir noch niemand diesen Punkt belegbar klären: Mehr als Spekulationen habe ich bisher nicht dazu erfahren.

Original von Phil42
GPU-Temp. Also wenn du ne 140M hast, würde ich mir sorgen machen...bei mir war die CPU-Temp laut TPFanControl grundsätzlich 1-2° über der GPU-Temp. Sicher, dass die Stromsparfunktionen aktiv sind?
Zum einen: Welche CPU und wie war die CPU-Temperatur (und die wie GPU-Temperatur)?
Zum anderen: Ich habe oben schon berichtet dass sich die externen Temperaturen von CPU und GPU (in TPFC) konstruktionsbedingt angleichen.
Und welche Stromsparfunktion meinst du???
 

Anhänge

  • NVIDIA.jpg
    NVIDIA.jpg
    31,6 KB · Aufrufe: 316
  • Task-Manager.jpg
    Task-Manager.jpg
    52,1 KB · Aufrufe: 306
Original von RAINIERIVS
Woher kommt dieser gemeinsam genutzter Speicher: Aus dem 4. GB (das in Vista nicht zur Verfügung steht da dort durch das BIOS diverse I/O-Bereiche gemapped werden)? Aber ich habe da doch meine Zweifel dass NVIDIA diesen Bereich nutzen kann obwohl er durch das BIOS eigentlich belegt ist.
Soweit ich weiß wird in die 4GB Adressbereich auch der Grafikspeicher eingeblendet. Hast Du dedizierten Speicher auf der Karte verfällt also ein Teil des Mainboard Rams, falls 4GB voll bestückt, weil der dann nicht mehr adressierbar ist (Ausnahme: entsprechendes Remapping und 64 Bit OS). Bei einer integrierten Karte verfällt nur der Ram Bereich, auf den I/O etc gemappt wird. Der im OS sichtbare Rest steht davon unabhängig zur Verfügung. Nun gibts aber noch den dynamischen Anteil, den sich die Graka zusätzlich vom Hauptspeicher abzwacken kann bei Bedarf. Wieviel sichtbar bleibt hängt im Einzelnen vom BIOS/Chipset ab. Dazu kann ich leider keine Erfahrungswerte geben.
 
ohje das ganze kann ja kein mensch verstehen worüber ihr euch unterhaltet!

wäre nicht schlecht wenn ihr das mal kurz und knapp zusammenfasst. Vor und Nachteile! Geht ja imerhin noch um den vergleich.
 
Original von Fresh
ohje das ganze kann ja kein mensch verstehen worüber ihr euch unterhaltet!

wäre nicht schlecht wenn ihr das mal kurz und knapp zusammenfasst. Vor und Nachteile! Geht ja imerhin noch um den vergleich.
Hier meine Zusammenfassung: Nvidia ist schneller, klar, aber halt nicht viel, wers genau wissen will sieht ja die Benchmark Zahlen und kann sich für das Spiel seines Interesses genaue Framerate Werte ergoogeln. Der Stromverbrauch unter Windows ist eklatant höher, ich hab die ja nicht aber 5 Watt sinds wohl auch bereits ohne Last. Wer damit stromsparend arbeiten will kommt z.Zt. nicht um Linux drumrum. Die Diskussion über Speicher ist eher nebensächlich.
 
Original von pibach
Original von Fresh
ohje das ganze kann ja kein mensch verstehen worüber ihr euch unterhaltet!

wäre nicht schlecht wenn ihr das mal kurz und knapp zusammenfasst. Vor und Nachteile! Geht ja imerhin noch um den vergleich.
Hier meine Zusammenfassung: Nvidia ist schneller, klar, aber halt nicht viel, wers genau wissen will sieht ja die Benchmark Zahlen und kann sich für das Spiel seines Interesses genaue Framerate Werte ergoogeln. Der Stromverbrauch unter Windows ist eklatant höher, ich hab die ja nicht aber 5 Watt sinds wohl auch bereits ohne Last. Wer damit stromsparend arbeiten will kommt z.Zt. nicht um Linux drumrum. Die Diskussion über Speicher ist eher nebensächlich.

Wobei mich das schon erstaunt. aut punktewert ist die Nvidia beim 3DMark06 drei (3!) mal so schnell.
Quelle:Notebookcheck Benchmarkliste Grafikkarten

Ich kann mir wohl vorstellen, dass da ein gewaltiger Unterschied im 3D-Rendering besteht, so man denn sowas machen will/muss.
 
was empfehlt ihr denn für jemand der 90% der zeit das notebook als desktop ersatz daheim nutzt! lohnt es da noch die intel lösung zu kaufen. die komischerweise noch teurer ist?!
 
Original von Phil42


Wer zocken will, dem reichen beide Grafikkarten nicht aus, außer es werden nur ältere Spiele gespielt.

.

Das stimmt so nicht, kann fast ohne Probleme Call of Duty 4 und Crysis zocken (natürlich alles etwas runtergeschraubt), werde mir aber dennoch mehr RAM zulegen, damit es noch besser wird.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben