Wenn du den Stromverbrauch vergleichen willst, dann musst du auch CPUs mit gleicher Leistung vergleichen. Das ist so als würdest du einen Porsche 911 und einen VW Lupo vergleichen und dann ganz toll finden, dass der Lupo weniger Benzin verbraucht.
Ankündigung
Einklappen
Keine Ankündigung bisher.
CPU und Co, worauf kommt es an und wo führt uns die Zukunft hin?
Einklappen
X
-
Christianity: The belief that some cosmic Jewish zombie can make you live forever if you symbolically eat his flesh and telepathically tell him that you accept him as your master, so he can remove an evil force from your soul that is present in humanity because a rib-woman was convinced by a talking snake to eat from a magical tree.
Makes perfect sense.
-
Zitat von Scotty Beitrag anzeigenAber nur wenn du die C2Ds außen vor lässt. Bei den P4s mag das stimmen, aber die werden nun ja nur nur in den billigsten PCs verbaut.
Bei den aktuellen AMDs ist ja schon fast alles ausgeschöpft, da geht nicht mehr, wenn dann geht der Stromhunger extrem nach oben.
Link
Hinzu kommt noch, daß beim X2 der Speicherkontroller integriert ist, beim C2D ist er ein extra stromverbrauchender Chip auf dem MB. Deswegen lassen sich mit X2 EEs sparsamere Systeme bauen.
Der 690G ist das erste Produkt nach der Übernahme von Grafik- und Chipsatzhersteller ATI durch AMD. Das Chipset unterstützt bis zu zwei digitale Ausgänge - ein derzeit am Markt einzigartiges Feature. Was sonst noch im 690G steckt, zeigt der ZDNet-Test.
Hier hat der E6600 Recher Idle einen 28 W höheren Stromverbrauch als der X2 4600+ und @ harmarkis, es wird auch nicht besser wenn man gleich schnelle CPUs hier vergleicht, denn sie erster Link, der E6300 ( vergleichbar mit dem X2 4600+ ) verbraucht idle sogar mehr als ein E6600 ....
Etwas besser ist da ein 4300+ mit dem neuen L2 Stepping, der verbraucht idle ~12 W, also 3 W weniger als ein E6600 ... der ist allerdings auch wiederum schwächer als ein X2 4600+
Günstiger sieht es für den C2D eigentlich nur aus, wenn man den Rechner die ganze Zeit unter Last betreibt. Dort erst schneidet der C2D günstiger ab - nur insgesamt ( Mischbetrieb idle, Last ) , für die Stromrechnung ist man mit einem X2 EE trotzdem besser dran.
Kommentar
-
Da wurde aber nur der Verbrauch beim runter takten gemessen, der neue C2D kann aber, sofern das BIOS das schon unterstützt, auch diverse Teile des Prozessorkern abschalten (wenn ich mich nicht irre?), was auch nochmal so einiges einspart."...To boldly go where no man has gone before."
...BASED UPON "STARTREK" CREATED BY GENE RODDENBERRY...
Kommentar
-
Nic
Wie war das mit dem magischen dreieick^^
Athlon -- Asus --- Ati^^
sicherlich ist intel, nvidia,... besser. Aber dafür n bissl teurer. naa
Kommentar
-
Zitat von Nic Beitrag anzeigenWie war das mit dem magischen dreieick^^
Athlon -- Asus --- Ati^^
sicherlich ist intel, nvidia,... besser. Aber dafür n bissl teurer. naa
Und was Office Anwendung betrifft, das meinte ich eigentlich nicht. Eher sowas wie Adobe Photoshop CS2 (als beispiel) öffnet mal ein foto mit ner auflösung von 10 megapixeln, das dauert mit AMD wesentlich länger als mit einem Intel. Wenn intressiert schon der strom verbrauch, das ist mir ehrlich gesagt sch... egal ob der intel einpaar jämerliche watt zahlen mehr verbraucht wie der AMD, wenigstens die Leistung stimmt. Ihr müsst zugeben das Intel und NVIDIA die bessere wahl sind, wie heißt es so schon Qualität hat seinen Preis...
Der Intel Arbeitet nun mal mit seinem gleichnamigen Mainboard chip nun mal OPTIMAL zusammen. Eine große rolle spielt auch der Mainboard Chip, ich bilde mir das sicherlich nich ein das ein Intel system viel bessa läuft als ein AMD. Hab täglich im laden mit den dingern zu tun.
Kommentar
-
Erzähl das mal jemandem, der viele Server betreibt! Da wirst du staunen wieviel Strom man mit AMD sparen kann. Besser ist ein viel zu subjektiver Ausdruck und wird von jedem anders definiert.Textemitter, powered by C8H10N4O2
It takes the Power of a Pentium to run Windows, but it took the Power of 3 C-64 to fly to the Moon!
Kommentar
-
Ati ist ja grundsätzlich nicht schlecht. Ihr Problem besteht meiner Meinung nach in den Treibern, die kaum aktuell und grottenschlecht sind. Ausserdem verstehe ich nicht, warum man für den Catalyst zwingend das .Net Framework haben muss? gut, bei Vista ist es schon dabei und da macht es keinen Unterschied, aber bei XP frage ich mich da schon sehr, was sie sich dabei gedacht haben.
Aber hoffentlich ändert sich da bald mal was, zumal Ati jetzt zu AMD gehört. Erst kürzlich hat AMD ja wieder die Preise gesenkt und wir somit interessant für Low-/Middleend PCs. mal schauen, wie es weitergeht.Textemitter, powered by C8H10N4O2
It takes the Power of a Pentium to run Windows, but it took the Power of 3 C-64 to fly to the Moon!
Kommentar
-
Zitat von AyaBenzer1984 Beitrag anzeigenWenn intressiert schon der strom verbrauch, das ist mir ehrlich gesagt sch... egal
Schade ist das das Thema Strom sparen noch nicht so wirklich bei den GPU Herstellern angekommen ist und was mich auch mal freuen würde, dass es auch mal bei den Festplatten voran geht.
Zitat von ayin Beitrag anzeigenAti ist ja grundsätzlich nicht schlecht. Ihr Problem besteht meiner Meinung nach in den Treibern, die kaum aktuell und grottenschlecht sind. Ausserdem verstehe ich nicht, warum man für den Catalyst zwingend das .Net Framework haben muss? gut, bei Vista ist es schon dabei und da macht es keinen Unterschied, aber bei XP frage ich mich da schon sehr, was sie sich dabei gedacht haben.
Ich bin ja nun kein Spieler, daher ist mir das auch egal ob es nun ATI oder NVIDIA ist.
Bei meinen neuen PC wo nun eine ATI Karte drin ist, hat mich das mit dem Catalyst aber schon ziemlich erschreckt. So ein Monstrum für so einen Kleinkram wie die Einstellungen, zumal man das in so gut wie jedem Spiel oder anderen Programm auch meist separat und direkt einstellen kann.
Hier sollte es wieder so wie früher sein, dass man die Einstellungen direkt über einen hinzugefügten Karteireiter einstellen kann.
Ich habe mir daher auf Arbeit auch den Displaytreiber raus extrahiert und installiere den ATI Treiber manuell über den Gerätemanager, so fahre ich besser."...To boldly go where no man has gone before."
...BASED UPON "STARTREK" CREATED BY GENE RODDENBERRY...
Kommentar
Kommentar