T44 wann wird es soweit sein?

lamborghini2

New member
Themenstarter
Registriert
7 Dez. 2004
Beiträge
168
Liebes Forum
Ich habe eine Frage. Ich möchte mir so gern ein neues Thinkpad zulegen, doch das es nicht eilt würde ich eigentlich noch auf das T44 warten wollen, weil dann vielleicht endlich mal alles perfekt sein wird.
Wann ist denn nur ungefähr das neue Modell geplant. Ich weiß ihr könnt nur spekulieren, doch das würde mich schon helfen
Danke
 
Ich vermute kurz nach Jahreswechsel, da dann AFAIK die neuen mobilen
Pentiums rauskommen (mit Dual Core). Oder war es doch ein anderer
Termin für die neuen Dual Cores?? *grübel*
 
Hallo,

ich denke, wenn ein Thinkpad mit Dual-Core-CPU rauskommt, dass es dann nicht mehr ein T4x sein wird sondern eher ein T5x.

Gruß
Günni
 
Also ich würde auch auf nächstes Jahr Tippen.
Die Regel ist ca. 1 Jahr Produktlaufzeit.
Das p-Modell etwa 2 Monate später.

Bei ThinkWiki habe ich einen Chronik gesehen, die das Timing bestätigt.
 
kann aber durchaus noch sein dass im Herbst ein Refresh des T43 rauskommt, evtl. mit S-Ata Platte und sonstigen Features die der Sonoma Chipsatz unterstützt aber noch nicht umgesetzt wurden.
 
Intel musste doch das Erscheinen vom Centrino 3 Paket auf März/April 2006 verschieben.
IBM, Dell und Co haben sich wegen den kurzen Produktzyklen beschwert. :arrow: Sie konnten und können nicht alles Neues in so kurzer Zeit implentieren.

Wäre eher ein Grund für ein "Aufrüstung" mit SATA, etc.


Oder ist das auch nicht mehr aktuell? :roll:
 
An ein Herbst-Refresh glaube ich nicht. Was hätte der Kunde z.B. von
einem S-ATA Interface?
 
Theoretisch sinkt der Strom-Verbrauch, auch wenn die Elektronik bzw. das Interface im Vergleich zur Mechanik eh nicht so viel braucht. Wobei bei SATA II auch die Mechanik durch NCO etwas entlastet werden könnte (die Platte "denkt nach" und optimiert die Schreib-Lesezugriffe auch in Bezug auf Minimierung der Bewegungen der Köpfe). Auch eher theoretischer Natur ;-)
Ein Interface welches auch nativ Hotplug-fähig ist, macht im Notebook sicher auch Sinn.
Wenn die Hersteller es konsequent umsetzten kommt man auch gleich mit einem externen SATA-Anschluss. Was bei Notebooks schon viel Sinn macht, da man ja eben gern auch eine externe Platte anschließen möchte, und USB 2.0 stößt bereits jetzt an seine Grenzen.

Auch wenn 2,5" Platten aus Geschwindigkeitsgründen kein SATA brauchen, Sinn macht es mittelfristig schon.
 
Ich denke, dass ein T44 resp. R53 noch eine ganze Weile brauchen wird.
Im Moment sieht es dabei eher weniger nach Dual-Core (wozu eigentlich im Notebook?) sondern eher nach "Maintenance-Update" aus.

Bekannterweise ist der derzeit aktuelle PCIx-Chipsatz ein ziemlicher Schuss in den Ofen, da er gegenüber seinem Vorgänger mit den klassischen Bridges zu PCI viel zu viel Strom braucht.

Solange Intel das Problem mit den Leckströmen nicht behoben hat, wird sich produktmässig nicht viel tun. Ich schätze mal, dass es wohl noch ein halbes Jahr dauern wird, bis Intel einen "gefixten" Nachfolger in Produktionsstückzahlen liefern kann.

Der wird dann so schnell wie der T43 und so leise und "langläufig" wie der T41/T42 sein. Hoffentlich.
Und danach alles weitere ...

Gruss
Anfänger
 
Original von Anfänger

Ich denke, dass ein T44 resp. R53 noch eine ganze Weile brauchen wird.
Im Moment sieht es dabei eher weniger nach Dual-Core (wozu eigentlich im Notebook?) sondern eher nach "Maintenance-Update" aus.

Bekannterweise ist der derzeit aktuelle PCIx-Chipsatz ein ziemlicher Schuss in den Ofen, da er gegenüber seinem Vorgänger mit den klassischen Bridges zu PCI viel zu viel Strom braucht.

Solange Intel das Problem mit den Leckströmen nicht behoben hat, wird sich produktmässig nicht viel tun. Ich schätze mal, dass es wohl noch ein halbes Jahr dauern wird, bis Intel einen "gefixten" Nachfolger in Produktionsstückzahlen liefern kann.

Der wird dann so schnell wie der T43 und so leise und "langläufig" wie der T41/T42 sein. Hoffentlich.
Und danach alles weitere ...

Gruss
Anfänger

Die Prozessoren brauchen auch mehr Strom beim höheren FSB und lassen sich nicht mehr ganz so weit runtertakten (800 statt 600), was dann zusätzlich ins Gewicht fällt.
 
@Anfänger: Dual-Core wird immer mehr zur Notwendigkeit werden, da
die Anwendungen durch die Verbreitung der Dektop-Dual-Prozessoren
immer mehr darauf getrimmt werden. Wenn die Notebooks von der
Leistung Anschluß halten wollen, dann müssen sie auch Dual-Cores
integrieren.

Ein doppelter Prozessor ist ja wesentlich mehr als z.B. Hyperthreading
bei den aktuellen Pentium 4. Wenn eine Anwendung gut darauf ge-
trimmt ist wird man knapp die doppelte Leistung erreichen.
 
Original von inTrance

@Anfänger: Dual-Core wird immer mehr zur Notwendigkeit werden, da
die Anwendungen durch die Verbreitung der Dektop-Dual-Prozessoren
immer mehr darauf getrimmt werden. Wenn die Notebooks von der
Leistung Anschluß halten wollen, dann müssen sie auch Dual-Cores
integrieren.

Ein doppelter Prozessor ist ja wesentlich mehr als z.B. Hyperthreading
bei den aktuellen Pentium 4. Wenn eine Anwendung gut darauf ge-
trimmt ist wird man knapp die doppelte Leistung erreichen.

Man kann auch gut einen Kern abschalten, wenn die Leistung nicht benötigt wird. Das ist dann natürlich noch effizienter als Speedstep jetzt schon. Selbst wenn die Anwendungen nicht unbedingt darauf ausgelegt sind, macht es auch gerade in normalen Arbeitsumgebungen mit den sehr umfangreichen Betriebssystemen durchaus Sinn, die Anwendung im Vordergrund auf dem einen und das ganze Backend auf dem anderen Kern laufen zu lassen. Wenn man sich heute allein mal die CPU-Zeiten von Virenscanner & Co anschaut...
 
Wenn eine Anwendung gut darauf ge-
trimmt ist wird man knapp die doppelte Leistung erreichen.
... und das dann bei doppeltem Stromverbrauch!
Da bist Du dann bei deutlich über 50 W und bei deutlich unter einer Stunde Laufzeit bei einem Normalakku. Ich seh da nicht unbedingt einen Fortschritt!

Das sind dann halt tragbare Workstations. Mit einem Notebook hat das nichts mehr zu tun!

Für die üblichen Office-Anwendungen langt auch heute noch ein PII/300 oder wenns denn aktuelle Technologie sein soll ein ULV Celeron oder ein XScale.

Das meiste Performance-Potential liegt in knapp und sauber geschriebenen Programmen. Dass das auch heute noch geht sieht man an vielen embedded-Programmen.
Grafik sollte man in/mit XiBase oder Trolltech's QT programmieren und nicht mit Visual irgendetwas, aber das ist ein ganz anderes Thema ...

Frieden und jedem das Seine!
Anfänger
 
Dual Core mal hin oder her...

...was meint ihr...

werden die 64-Bit Architekturen auch einzug in unsere kleinen Dinger halten?

Machen wir hier mal ein Tread für Visionäre und Zukunftsdenker draus:
 
Klar irgendwann schon ;), jetzt macht das aber nicht wirklich sinn.
 
Original von Koffee-Junkee

Dual Core mal hin oder her...

...was meint ihr...

werden die 64-Bit Architekturen auch einzug in unsere kleinen Dinger halten?

Machen wir hier mal ein Tread für Visionäre und Zukunftsdenker draus:

D0die Latte hat AMD mit dem Turion schon gelegt....intel hat es ja in seiner kommenden Generation wieder herausgenommen, aber eben dafür DualCore...
Da Apple ja aber auch zu den Kunden gehören wird, könnte das Thema 64bit und Mobil bei Intel ja auch ganz schnell wieder auf dem Tisch liegen.
 
Da, wo ich die 64 bit wirklich brauchen kann, habe ich sie bereits jetzt:
In der Grafikkarte!

Ansonsten:
Was will ich bei maximal 2 GB RAM mit 64 Bit?
Die kann ich mit 32 bit ja locker direkt adressieren und für die Geschwindigkeit brauche ich in der CPU nun wirklich keine 64 bit, solange ich keine Schreibtischunterlage aus Asbest habe...

Gruss
Anfänger
 
Diese lustigen Argumente gab es schon bei 16 zu 32 bit.
Ganz abgesehen von der Adressierung laufen schon von den wenigen heute portierten Anwendungen in 64bit einige schneller. Es sind keine Welten, aber es kann ja nur so herum funktionieren, erst die CPUs mit 64 Bit zu versehen und viel später die Anwendungen und OS konsequent nur noch so umzusetzen.
 
Diese lustigen Argumente gab es schon bei 16 zu 32 bit.
Einspruch, Euer Ehren!
Das Hauptargument für 32 bit waren damals Mitte der 80er Jahre der mindestens 4 mal höhere Busdurchsatz und vor allem direkte Adressierbarkeit und das intelligentere (virtuelle) Speichermanagement der 32-Bit Betriebssysteme.
Und es hatte damals bei vielen Anwendungen 5 bis über 10 Jahre gedauert, bis all die 16-Bit-Overlay-Technik-Reste aus den Programmen verschwunden sind. Man hat damals die ersten 5 Jahre erst einmal gar nichts getan und dann innerhalb von weiteren 5 bis 8 Jahren die Software grösstenteils neu geschrieben (gut) oder cross-assembliert und debuggt (schlecht). Das Geld hat heute keine Firma mehr und die programmierer die sowas (noch) konnten sind entweder ver"harzt" (4-fach) (viele) oder sind wegen Reichtum ausgewandert (wenige).

Die Hoffnung der Menschheit liegt auf dem Java-Altar, wo die virtuelle Maschine vom Anwender unbemerkt ihre Opfer wahlweise mit 32- oder 64bit -Kohle brutzelt.
Aber wieviele technisch-wissenschaftliche Software ist schon in Java geschrieben?
In den Zeiten von wireless LAN und UMTS brauche ich keinen Mörderflop-Rechner sondern eine sichere, transparente und intelligente Echtzeitanbindung meines dünnen Klienten an meinen Megamonsterserver mit Dual (intel) oder Quadro (TM) ,(AMD) Core im Büro.

Nur meine bescheidene Meinung.

Anfänger

>>> Wer sich auf zeitgerechte Portierung von Software verlässt, muss es entweder selber machen oder schon arg naiv sein... (S.W.) <<<
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben