FireGL v5250 -> X1700 maximale Spieleleistung?

BachManiac

Active member
Themenstarter
Registriert
13 Apr. 2005
Beiträge
1.903
Hi, hab anhand dieser Anleitung

http://forum.thinkpads.com/viewtopic.php?t=38568

die neuesten 7.2. Catalyst Treiber inkl. X1700 treiber installiert und gleich mal 3dmark laufen lassen:

3DMark05: 3906 Punkte

3DMark06: 1690 Punkte

Was sagt ihr, ist da noch was rauszuholen oder bin ich mit dem eh schon gut dabei? FireGL-Treiber hatten gleich von Anfang an Probleme gemacht, deshalb hab ich gleich mal den X1700-Trick ausprobiert.
 
na toll, bei den 3 benchmarks braucht man ja die original

spiele, die hab ich nicht da. Aber mit HL-2 kann ichs in ein

paar Tagen mal ausprobieren.

gibts nicht andere Benchmarks die brauchbar sind?


Den Final Fantasy XI - Benchmark hab ich ausprobiert:

http://www.playonline.com/ff11us/download/media/benchmark01.html?pageID=media





Standard-Takt:

Low Res: 6990
Hi Res: 4374

GPU-Temp: 85°


472,5 / 454,5 - Takt:

Low Res: 7222
Hi Res: 4647

GPU-Temp: 94°


Nunja, etwas hoch die Temperatur, aber das ist sie komischerweise bei Standardtakt auch schon....
 
Original von BachManiac
Original von chefweb
die V5200 kann mich nicht höher takten...

Na dann haltet euch fest:



3DMark 06: 2016 Punkte!!!


-X1700 Treiber aus den neuen Catalyst 7.3 (mit 7.2 dürfte es aber genauso gut gehen glaub ich)
-DNA Software drüber inkl. ATI Tray Tools
-Mit Hilfe von ATI Tray Tools übertaktet.

Von 432 / 324 auf 472,5 / 454,5!

X1700 Standardwerte sind 475 / 400 und Standard-3Dmark06 Punkte sind 1850. Somit brauch ich die FireGL v5250 sogar bei weitem nicht so stressen wie gerade eben um auf die 1850 Punkte zu kommen.

Hier noch die Beweisbilder:

3DMark06:


NHC:


AtiTrayTool:


Warum die Taktzahl unterschiedlich angezeigt wird, kann ich auch nicht sagen.

noch Fragen? 8)

also ich habe noch mal nachgeschaut und ich hatte mir einen core duo 2.16 und eine v5200 1720 punkte :) mit oc würde ich auch auf 2020 kommen, also ist der unterschied zu einer v5200 fast nicht vorhanden :)
 
Ist doch egal, wieviel Punkte die Karte erreicht ...

Hauptsache, ich kann C&C3 bunt und flüssig spielen :D
 
Aber du hast ja einen M780 und eine V3200, oder täusche ich mich?
 
Original von trixter


also ich habe noch mal nachgeschaut und ich hatte mir einen core duo 2.16 und eine v5200 1720 punkte :) mit oc würde ich auch auf 2020 kommen, also ist der unterschied zu einer v5200 fast nicht vorhanden :)


Und woher dann die Behauptung, dass diese Karte schlecht ist bei Games?

Die schnellste Karte im 14" / 15" - Segment (X1600, X1700) ist praktisch identisch dazu.
 
Original von BachManiac
Original von trixter


also ich habe noch mal nachgeschaut und ich hatte mir einen core duo 2.16 und eine v5200 1720 punkte :) mit oc würde ich auch auf 2020 kommen, also ist der unterschied zu einer v5200 fast nicht vorhanden :)


Und woher dann die Behauptung, dass diese Karte schlecht ist bei Games?

Die schnellste Karte im 14" / 15" - Segment (X1600, X1700) ist praktisch identisch dazu.

weil ich div. games mit der v5200 getestet habe und da der unterschied zu einer vc5250 gering ist, ist somit auch die v5250 nicht gut für aktuelle games
 
Hier Mal Benchmaks von Prey und Splinter Cell 3

------------------------------------------------------------------------

Mobility FireGL V5200 256MB

System Information
Operating system: Microsoft Windows XP
System memory: 1,0 GB
CPU: Genuine Intel(R) CPU T2600 @ 2.16GHz
CPU speed: 2160 MHz
Sound system: SoundMAX HD Audio
VGA Information
Graphics card: ATI MOBILITY FireGL V5200 (Omega 3.8.252)
Bustype: PCI Express x16
Memory: 256.0 MB
Current VPU speed: 459,00 MHz
Current memory speed: 459,00 MHz
Driver version: 6.14.0010.6614 (English)

---------------------------------------------------------------------------


Prey
-------------
Shader Detail: Highest
Antialiasing: None
Anisotropic filtering: None
Graphics BOOST: disabled

1400x1050
--------------
HWZone - 14.9
Guru3D - 13.6



Splinter Cell Chaos Theory
-------------
Settings - High
Parallax Mapping: Disabled
HQ Soft Shadows: Disabled
HDR: Disabled
ToneMapping: Disabled
Hardware Shadow Mapping: Disabled

1024x768
--------------
Lighthouse (SM1.1) - 31.53
Lighthouse (SM2.0) - 32.16
Guru3D_2 (SM1.1) - 24.11
Guru3D_2 (SM2.0) - 26.68


zwei Games lieferten aber denoch gute Perfo :)

HL2 und FarCry


Half Life 2
-----
Detail: Maximum quality
High Dynamic Range: None
Heapsize: 64 MB - default
Antialising mode: None
Filtering mode: Trilinear
Fast Z: Disabled

1400x1050
--------------
Highway - 56.70
Anticitizen - 52.40
Lost Coast - 40.90


FarCry
-----

Resolution - 1400x1050
Settings - Minimum
--------------
Vulvano - 131.15
Archive - 136.55
Steam - 89.31
Research - 132.60
Training - 129.77
Regulator - 99.25
Regulator(ubi) - 107.12
PGH - 90.40


Resolution - 1400x1050
Settings - Maximum
--------------
Vulvano - 42.75
Archive - 45.68
Steam - 36.19
Research - 54.98
Training - 44.36
Regulator - 37.07
Regulator(ubi) - 39.57
PGH - 41.31


Resolution - 1400x1050
Settings - Ultra
--------------
Steam - 36.45
Regulator - 37.28
PGH - 40.91
 
Die Auflösung fordert auch die Grafikkarten. Mit 1024x768 müssts aber tadellos flüssig laufen!
 
Original von trixter
zwei Games lieferten aber denoch gute Perfo :)

HL2 und FarCry

...

also HL2 ist sehr Prozessorabhängig, FarCry weiß ich nicht genau. das würde jedenfalls die guten Werte erklären
:D
 
farcry ist sehr gut bprogrammiert, die cpu und gfx sind beide wichtig, bei mittleren auflösungen ist ein schneller prozessor wichtig
 
Ich hab das Ganze mal mit meiner firegl 5200 probiert.
Das Ergebnis aber war sehr ernüchternd.

Getestet hatte ich allerdings lediglich mit 3dmark 06

Die gl5200 Treiber lieferten 1595 Punkte
Die X1600 Treiber 1605
und die X1700 1610 wobei die Unterschiede wohl auch bei gleichen Treibern ähnlich wären. Könnte also auch rein zufällig so eine Darstellung entstanden sein.

Für mich stellt es sich nun so dar, das das Defizit an Leistung nicht durch die Treiber sondern lediglich durch die geringere Taktrate der Karte entsteht, was entgegen jeglicher Behauptungen die im Netz zu finden sind steht. (aber berichtigt mich, fall ich falsch liege)

Ausserdem interessiert mich ob du noch weiters, ausser dem von dir Beschriebenem, unternommen hast um das Teil zu übertakten.
Ich kenne nun gerad nicht die standart Taktraten der gl5250 jedoch war es mir unmöglich deine Werte zu erreichen. Bei etwa 430 war bei der GPU Schluss, beim Speicher bereits bei etwa 350Mhz.

Der Aufwand stellt sich für mich im Verhältnis zum Nutzen als zu groß dar, so dass ich mich nun wieder mit den Standardtreibern auf der sicheren Seite wäge.

Mfg Eric
 
Original von Eric


Für mich stellt es sich nun so dar, das das Defizit an Leistung nicht durch die Treiber sondern lediglich durch die geringere Taktrate der Karte entsteht, was entgegen jeglicher Behauptungen die im Netz zu finden sind steht. (aber berichtigt mich, fall ich falsch liege)


Die Behauptungen lagen immer älteren Treibern zu Grunde. Früher waren die Karten mit FireGL-Treibern deutlich langsamerer. Heute sind sie praktisch gleich schnell.
 
Als Fazit also hat dann doch nur das Übertakten die Leistung gebracht... gut... Oder auch nicht...

Noch kurz ne Frage: Übertaktet habt ihr mit ATI Tray Tools, richtig?

Da ich meinen Speicher auf max 350Mhz gebracht hab, Prey es aber auf 459 grebracht hat fänd ich's klasse könntet ihr ne kleine Anleitung für den blöden Eric rein setzen.

Irgendwas muss er anders gemacht haben, so blöde kann ich mich nicht angestellt haben. Über 100Mhz Unterschied kann ich mir nicht erklären.

Mfg Eric
 
@Eric

was passiert denn wenn du zu hoch taktest? stürzt win ab?

das hatte ich auch öfters, aber schon bei viel niedrigerem Takt, bis ich draufgekommen bin, dass sich ATI Tray Tools irgendwie nicht mit der Powerplay - Funktion verträgt. Catalyst hatte ich sowieso schon deinstalliert, jedoch nutzt NHC noch die Powerplay funktion um die Karte automatisch runterzutakten im Batteriebetrieb.

-> NHC beendet und die Abstürze waren auch weg. :)


Ich muss ehrlich sagen, ich hab die Karte nicht übertaktet bis ich oben angestanden bin, sprich hatte einfach aufgehört, da ich ohnehin schon die X1700 bei weitem übertraf, hatte also bis zuletzt keine Takt- oder temperaturabhängigen Abstürze.
 
Beim Übertakten der GPU über 430 oder 440 bekom ich Grafikfehler, beim Speicher über 350 nen Bluescreen mit Verweis auf die ATI Treiber.

Dann werd ich dan Catalyst Kram mal runter schmeissen.

Danke für den Tipp.
 
wie is das eigentlich mit dem übertakten, wird man da inner regel vorher durch systemabstürze oder ähnliches gewarnt, bevor man ernsthaft was kaputt machen kann?
Dass ein restrisiko bleibt is klar, hab halt noch nie großartig was übertaktet und wollte mal leute mit mehr erfahrung fragen.

cu
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben