Hallo Community,
ich denke schon länger darüber nach wie eine reine crunching Maschine ausschauen müsste, die wobei der Schwerpunkt auf Effizienz gelegt wird.
Dazu wäre erstmal eine Definition von Effizienz angebracht, was bedeutet Effizient?
Etwas kann in vielerlei Hinsicht effizient sein jedoch bei anderer Sichtweise sehr ineffizient.
Unter der Annahme das Geld keine Rolle Spielt, die Unterhaltskosten ebenso wenig, bleibt für mich nur noch die elektrische Energie übrig.
Wie müsste eurer Meinung nach so ein Rechner ausschauen der 24/7 nur für BOINC da ist und die meisten Berechnungen pro Energie erreicht.
Es wäre vl. noch sinnvoll zu definieren was mit meisten Berechnungen gemeint ist, die höchsten synthetischen benchmark werte, oder spezielle WU's der Boinc Projekte.
Ich glaube das die Boinc Projekte nicht vergleichbar sind, bleiben nur die BOINC eigenen synth Benchmarks als Auswahl Kriterium.
Aber ich bin mir sicher das die Community sinnvollere Vorschläge vorweisen kann.
Um möglichst hohe Synth. Werte pro el. Leistung zu erreichen sollten die Peripheren Geräte am besten auf das notwendigste reduziert werden.
Ich hatte auf meinem alten BOINC account, folgende PC am laufen:
Intel MB mit ATOM330 1.6GHz
4GB RAM
ein 4GB USB Stick als Speicher
und eine 60Watt Pico-PSU
OS: Debian ohne GUI
Das Perverse war das die Peripherie mehr Strom verbraucht hat als die CPU. Ich glaube der Verbrauch des Systems lag bei ca. 30Watt.
Und später habe ich mal beim Tomshardware.de gelesen das die Effiezinz flöten geht weil die CPU für einen Benchmark so lange gebraucht hat. das sie mehr Energie für die Berechnung brauchte als ein i3 oder i5....
Ich muss mal den Rechner ausgraben und und neu aufsetzen, um herauszufinden was der BOICN syn Benchmark hergibt.
Was sind eure Systeme und wie hoch ist eure Leistungsaufnahme an der Steckdose wenn ihr vom Boinc den Benchmark Laufen lasst.
Die Zeitdauer wird auch benötigt. Denn ein i7 wird den Benchmark wahrscheinlich in einer kürzeren Zeit abgearbeitet haben als ein i3.
PS: Wie würde meiner Meinung eine effiziente Maschine ausschauen:
Ich habe aber irgendwie im Gefühl das nur ein serverRack die Charts anführen kann.
Denn das hohe Verhältnis der CPUs zu Peripherie (incl. Netzteil) ist glaub ich ausschlaggebend. Weiters kann man ein abgespecktes OS direkt im RAM als Ramdisk laden. Somit wird außer eine SSD für den Master keine weitere SSD gebraucht.
Ergebnis 1 bis 21 von 21
-
- Titel
- Neuling
- Bewertung
- Registriert am
- 30.09.2019
- Beiträge
- 14
- Danke
0
0
02.10.2019, 11:57 #1Die effizienteste Maschine zum crunchen
-
02.10.2019, 17:36 #2
Es gibt nicht den Cruncher, es kommt immer auf das Projekt an und was man pro Monat ausgeben will an Stromkosten. Spielt letzteres keine Rolle, weil man es per eigener Stromerzeugung unterhält, tja, dann Kerne + Taktrate + schnelles RAM. Damit bekommst du die beste Effiziens bei Credits/Watt, wenn man bissel mit Undervolting arbeitet. Problem an der Stelle ist, dass man nun einiges an Kühlung der großen CPUs investieren muß. Bei so einem Ryzen 3900X kann man da nicht mehr alle Kerne konstant nutzen, weil er zuviel Hitze entwickelt. Das hängt aber auch vom Projekt ab. Bei Prime Grid müßte man den evtl. ins Gefrierfach hauen, damit er mit an die 100% laufen kann.
Die Atom und Co. verbrauchen wenig Strom, aber sind langsam was das Crunchen angeht.
Als Beispiel kann ich aber nur meine 24/7 Cruncher anführen. 2015 hab ich einen J2900 als iTX mit 4GB RAM zusammen gebaut. Das System mit allen 4 Kernen bei voller Taktleistung 2,67GHz lief bei 30Watt.
Dieses Jahr hab ich ihn durch einen i3 8300 ersetzt. Da lasse ich aber nur 3 der 4 Kerne laufen, weil ich somit auf ca. 50Watt komme und entsprechend 10€/Monat.
Beim J2900 langte ein passiver Kühlkörper + 80er langsam laufender Lüfter. Der rechnete praktisch lautlos. Beim i3 ist dann ein 90mm Noctua auf die CPU gekommen + der 80er als Gehäuselüfter. Im ganzen recht leise, aber hörbar.
Der i3 ist je nach Projekt 3x (Seti V8) und bis zu 6x (Universe) schneller als der J2900 bei nicht mal 50% mehr Verbrauch. Bei Prime Grid dürfte in Richtung 10x schneller gehen.
Ob die Boinc Benchmark dir da jetzt soviel hilft, glaub ich nicht. Wie gesagt, man muß sich auf ein oder zwei Projekte einschränken, um was handfestes sagen zukönnen. So ein serverRack dürfte auch schon gut am Optimum liegen, aber die sind auch sehr laut wegen der Kühlung und auch teuer. Kenne mich aber damit ehr weniger aus und weiß auch nicht was die CPUs dafür so leisten können.Ciao Norman
Ryzen 5 3600 @4GHz, 3x RX 5700, 32GB DDR4//FX8370 @4GHz, 16GB DDR3 1600, RX 470 + R9 270X// Dauercruncher i3 8300, 8GB RAM // Läppi B940 @2GHz
-
- Titel
- Esel
- Bewertung
- Registriert am
- 07.07.2007
- Ort
- Osterode / Göttingen
- Beiträge
- 15.866
- Danke
155
1.724
Anzahl Awards: 1402.10.2019, 18:36 #3Dass die Projekte nicht vergleichbar sind, ist richtig. Allerdings dürfte der BOINC-Benchmark noch weniger mit den Projekten vergleichbar sein als die Projekte untereinander, da er immer nur die Leistung eines CPU-Kerns misst und recht anspruchslose Berechnungen durchführt. Der effizienteste Rechner wird dafür also einer mit nur einem aktivierten, aber bei gegebener Spannung möglichst hoch getakteten CPU-Kern und minimalen übrigen Komponenten sein. Für praktisch jede reale Anwendung wird dieser Rechner aber kein Effizienzwunder sein: Entweder sind die Berechnungen ziemlich anspruchslos, dann werden aber Rechner mit mehreren CPU-Kernen effizienter sein, weil sich darauf mehrere parallel laufende WUs nicht behindern und die näherungsweise gleiche Leistungsaufnahme der übrigen Komponenten praktisch auf mehrere Kerne verteilt wird; oder die Berechnungen sind so anspruchsvoll, dass sich mehrere parallel laufende WUs gegenseitig ausbremsen würden, dann wird aber sehr wahrscheinlich der RAM oder eine andere Komponente der Flaschenhals sein. Im Gegensatz dazu wird etwa der effizienteste Rechner für Universe@home auch bei Rosetta@home noch halbwegs passabel laufen und umgekehrt.
Gruß
Patrick
"Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]
-
- Titel
- Neuling
- Bewertung
- Registriert am
- 30.09.2019
- Beiträge
- 14
- Danke
0
0
02.10.2019, 23:56 #4ich kann Eure Gedanken nachvollziehen. Ein Synthetischer Benchmark bleibt synthetisch und reale WU's sind so unterschiedlich, das es nicht die eine Konfiguration gibt.
Zum Thema hoch getaktete CPU, natürlich je höher desto schneller, außer das System wird vom RAM oder Thermische Belastung ausgebremst. In dem Moment wo man Verstärkt el. Leistung für die Kühlung aufwenden muss wird das ganze System wieder ineffizienter.
@pschoefer du hast die Problematik mit single oder multicore voll ins schwarze getroffen.
Und von der Rechenleistungsdichte sind auch grenzen gesetzt, bei einem ATOM330 hat das Mainboard mehr Strom verbraten als die CPU unter Volllast. Und bei einem OC High end CPU geht auch ein prozentuell höherer Anteil an Energie für die Kühlung flöten. Also wird irgendwo das Maximum zu finden sein.
Es gibt dazu ein Analogen wie schnell muss ich fahren um einen Strecke abzufahren und dabei den geringsten Treibstoff Verbrauch mit einem Fahrzeug zu haben.
Angenommen es ist ein Benzinmotor, wenn ich möglichst schnell fahre ist der Luftwiderstand dominant, und ich habe auf der ganzen strecke einen hohen verbrauch gehabt obwohl ichschneller ans ziel kam. Wenn ich wie ein Schnecke schleiche dann werde ich auch einen leeren tank haben bis ich ankomme... also irgendwo in der Mitte wird die effizienteste Reisegeschwindigkeit sein.
-
03.10.2019, 09:30 #5
Du darfst nicht immer nur die CPU betrachten, sondern immer den ganzen Rechner. Das bei deinem Atom die Peripheren mehr Saft gezogen haben als die CPU glaub ich fast nicht. Der Atom ist mit 8W angegeben, aber das kannst du knicken bei Volllast, die Hürde überspringt er locker.
Du willst, hohe Rechengeschwindigkeit bei möglichst wenig Stromverbrauch. Vergleichen wir deinen Atom mit meinem J2900, dürfte eindeutig werden, aber nur weil bei System den gleichen Verbrauch haben. Auf einen Kern runter gerechnet wird der J2900 noch mehr zum Sieger. Nehmen wir einen Ryzen 3700 mit 8 Kernen und lassen das ganze System 200Watt ziehen liegen wir bei 25Watt pro Kern oder 12,5Watt pro Threads. Der wird aber locker 10x so schnell sein wie mein J2900. Um das ins Verhältnis zusetzen müßte man den Quotient aus Verbrauch und Zeit und Punkte machen.
Angenommen der Ryzen braucht 1h für eine WU...dann wären wir 12,5W/h und 12,5W/WU, 1h/WU, der J2900 mit seinen 10x länger wäre bei 7,5W/h aber bei 75W/WU und 10h/WU. Welcher von beiden wäre jetzt besser? Du mußt dich entscheiden, entweder Verbrauch pro Zeit oder Verbrauch pro WU. Nimmst du die CPU die in der Mitte dieser Werte liegt, bekommst du nur den besten im Druchschnitt, aber nix effizientes.
Und wie schon gesagt, das müßte man jetzt für jedes Projekt machen. Ding der Unmöglichkeit. Man muß sich einfach fest legen was man crunchen will und dann kann man bissel in Richtung Effiziens schauen.Ciao Norman
Ryzen 5 3600 @4GHz, 3x RX 5700, 32GB DDR4//FX8370 @4GHz, 16GB DDR3 1600, RX 470 + R9 270X// Dauercruncher i3 8300, 8GB RAM // Läppi B940 @2GHz
-
03.10.2019, 12:26 #6
Beim Atom war der Chipsatz der Stromfresser da wurden Uraltbestände verbaut. Habe auch einen 330 als Notfall Hardware.
Unter Boinc wird so ziehmlich alles eingesetzt was läuft. Vom Neusten bis hin zu Methusalems die schon über Jahre ihren Diest schieben. Bei Serversystemen lässt sich nicht viel optimieren die sind eher auf haltbarkeit ausgelegt. Auf ein paar Watt hin oder her kommt es da nicht an. Bei Desktops kann man ein je nach dem einiges an Watt einsparen. Wenn man sich die Zeit nimmt um alles auszutesten.
Momentan setzt AMD mit Ryzen neue Mastäbe, wenn Intel wieder was neues bringt kann sich das auch wieder ändern.Geändert von Petrus (03.10.2019 um 19:01 Uhr)
AMD Ryzen 3900X Linux Ubuntu
Es gibt zwei Dinge die unendlich sind. Das Weltall und die Dummheit der Menschen. Vom erstren bin ich mir nicht ganz sicher.
Albert Einstein
-
- Titel
- Neuling
- Bewertung
- Registriert am
- 30.09.2019
- Beiträge
- 14
- Danke
0
0
03.10.2019, 13:11 #7ok, angenommen ich entscheide mich nur für ein Projekt und das Ziel ist die Funktion f zu maximieren.
die Einheit von f geschrieben in [f] = BoincCredits/Wh, sprich Punkte/Energie.
die Funktion f kann ich so modellieren, wie gut es mit der Realität passt ist ja Modellsache.
G............... BoincCredits
P_cpu........ el. Leistung der CPU
C............... umrechnungskonstante die systemspezifisch ist (CPU, RAM, etc) in [C] = BoincCredits/W
k................ der Anteil der zur CPU dazugerechnetwerden muss zwecks Kühlung, mit Werten zw. [1 .. 1.2]
P_periph.... el. Leistung der Peripherie
P_ges........ gesamte el. Leistung
G = P_cpu * C
P_ges = k * P_cpu + P_periph
f = G/P_Ges = C / (k + P_periph/P_cpu )
ideal wären also der Wert von C hoch, k bei 1 und P_periph so gering wie möglich.
*k gleich 1 würde eine passive CPU Kühlung bedeuten, das ist auch bei hohen Leistungen möglich
*P_perph ist leicht abzuschätzen, einfach ein Board nehmen das nur die allernötigsten features mit sich bringt.
*C abzuschätzen ist schon komplizierter, hier stecken die meisten Unsicherheiten. Einmodellansatz ist
C = C(Architektur, CPU_Taktfrequenz, RAM_Taktfrequenz, n_Speichercontroller)
das lässt sich auch anschreiben als:
C = CPU_Taktfrequenz *C0(Architektur, RAM_Taktfrequenz, n_Speichercontroller)
Das Modell kann noch verfeinert werden:
P_cpu = C_cpu * U_cpu^2 * f_CPU + P_cpu0
C_cpu........ Kapazität von der CPU
U_cpu........ CPU_Spannung
f_cpu......... CPU_Taktfrequenz
P_cpu0...... Parasitäre Leistung in der CPU
P_periph = P_periph0 +C_ram * U_ram^2 * f_ram
C_ram........ Kapazität vom RAM
U_ram........ RAM_Spannung
f_ram......... RAM_Taktfrequenz
P_periph0.. Parasitäre Leistung in der CPU
Um für ein System das Optimum zu finden, wäre jetzt erstmal ein reproduzierender Lastfall gut, ein Benchmark am besten mit einer WU die man selbst immer abarbeiten könnte und die BOINCCredits selbst auszurechnen.
Dann wäre interessant wieviele Messungen man machen müsste. Pro Unbekannte min. 1 Messungen damit das Modell komplett ist und die suche nach dem optimum gefunden werden kann.
Bei dem Modell gibt es 8 Unbekannte, wobei für die ersten Interation der Hausverstand schon sagt, runter mit der Spannung rauf mit den Frequenzen.
Ob jetzt die el. Leistung der CPU mehr auf höhere Verlustleistung oder mehr auf "strom sparen" getrimmt ist hängt davon ab wie hoch die Kühlung also der k Faktor ist.
Ist der k Faktor bei hohen Werten, so wird man eine höhere Effizienz erreichen die el. Leistung der CPU zu reduzieren,, zwar rechnet man auch Langsamer aber das Verhältnis von BOINCCredits/Wh verbessert sich.
Ist hingegen der kFaktor bei 1, dann wird man für ganz wenig aktive Kühlung eine viel höhere Verlustleistung der CPU dementsprechend auch eine höhere Rechenleistung erwarten.
-
03.10.2019, 23:08 #8
Moinsen,
ich kann Dir nicht ganz folgen, allerdings sollte Dir bewusst sein, dass die gewährten Credits pro WU bei Boinc in aller Regel (es gibt Ausnahmen) nicht konstant sind im Hinblick auf Laufzeit oder was auch immer; hier gibt es weitere Abhängigkeiten (und hier reden wir auch nicht von der reinen elektrischen Leistung des Prozessors, da bspw. die eingesetzten Plattformen als Ganze, oder aber die Feature-Sets von CPUs und GPUs oder auch das eingesetzte Betriebssystem im Speziellen, oder auch ständig angepasste/veränderte WUs, je nach Projektanforderung, unterschiedliche Einflüsse haben und somit eine entscheidene Rolle in dieser Betrachtung spielen), so dass solcherlei Rechnungen höchstens hinreichend abschätzbar sind. Solltest Du Projekte mit Quorum 2 rechnen, sieht es noch einmal komplizierter aus, denn hier bekommt man afaik meist das Minimum an geforderten Credits beider Teilnehmer (heisst: sollte Dein Client für Deine WU 100 Credits fordern und Dein Wingman nur 90, bekommt Ihr nach eindeutig verifiziertem Ergebnis beide 90 Credits gutgeschrieben). Dein Modell resp. Deine Abstraktionsebene halte ich daher für etwas übersimplifiziert. Das Thema ist äußerst komplex und dynamisch. Ich habe da auch nur bedingt Erfahrungen, es gibt hier aber Leute im Forum, die auf diesem Gebiet Genies sind.
Achso, und es gibt verschiedene Credit-Systeme... ^^
Viele Grüße
walliGeändert von walli (04.10.2019 um 00:56 Uhr)
-
- Titel
- Gold Member
- Bewertung
- Registriert am
- 05.02.2017
- Ort
- NRW
- Beiträge
- 1.239
- Danke
18
28
Anzahl Awards: 11
-
- Titel
- ist hier zu Hause
- Bewertung
- Registriert am
- 05.04.2008
- Beiträge
- 2.593
- Danke
204
35
Anzahl Awards: 24
-
-
- Titel
- Freie Cruncher
- Bewertung
- Registriert am
- 07.10.2012
- Ort
- Darmstadt
- Beiträge
- 1.273
- Danke
12
9
Anzahl Awards: 17
-
- Titel
- Neuling
- Bewertung
- Registriert am
- 30.09.2019
- Beiträge
- 14
- Danke
0
0
04.10.2019, 11:11 #13Geändert von eMJay (04.10.2019 um 11:12 Uhr) Grund: Probleme mit Aktualisieren gehabt
-
- Titel
- Freie Cruncher
- Bewertung
- Registriert am
- 07.10.2012
- Ort
- Darmstadt
- Beiträge
- 1.273
- Danke
12
9
Anzahl Awards: 1704.10.2019, 13:49 #14Das Projekt ist nci (not computing intensive), d.h. Du kannst es zusätzlich laufen lassen, denn es wird kein kompletter Kern belegt, sondern nur ein Bruchteil davon.
Die WUs laufen jeweils 6 Stunden und zeichnen in der Zeit auf, welches Projekt wie lange läuft. Auf den Webseiten des Projekts kannst Du die Ergebnisse einsehen.
Wenn Du bei den Resultaten links das Menu anklickst, kannst Du die Ergebnisse nach Rechenzeit, CPU, GPU, OS und weiteren Punkten sortiert anschauen.
Edit:
Bei mir läuft das Projekt seit Jahren auf allen Rechnern standardmäßig mit.
Eine Beschränkung gibt es bei der Verwendung von weiteren BOINC-Instanzen auf einem Rechner - dort gestattet der Administrator nur die Nutzung des Projekt in so vielen Instanzen wie der Rechner Kerne (nicht Threads!) besitzt.Geändert von Roadranner (04.10.2019 um 13:55 Uhr)
-
- Titel
- Full Member
- Bewertung
- Registriert am
- 11.01.2018
- Ort
- TeAm AnandTech
- Beiträge
- 192
- Danke
1
0
05.10.2019, 09:31 #15Falls es um maximale Punkte* pro KiloJoule geht, so sind natürlich große Server-CPUs bzw. große Server-Grafikkarten** optimal. Genau daraufhin wurden diese getrimmt.
In CPU-Projekten erreichen die derzeit energie-effizientesten Desktopcomputer (solche mit Ryzen 3000 = erste 7nm-Generation) Punkte/kJ in der Größenordnung von --- bis leicht besser als --- vorgestrige, für numerische Simulation konzipierte Server (solche mit high-core-count-Modellen des Broadwell-EP = erste 14nm-Generation).
--------
*) in Projekten mit sinnvoller Punktevergabe, also nicht solche, wo Punkte nach Zufall oder nach Laufzeit vergeben werden
**) Bei Server-Grafikkarten gibt es in der Praxis mit den verfügbaren Anwendungen in BOINC-Projekten allerdings gewisse Hürden; hier kann man mit entsprechend eingestellten Consumer-Grafikkarten ähnliche oder gar bessere Ergebnisse erzielen, d.h. je nach Anwendung sinnvoll große GPUs, die auf niedrige Spannung eingestellt wurden.Geändert von xii5ku_AT (05.10.2019 um 09:43 Uhr) Grund: Server ist nicht gleich Server; ich meinte natürlich auf rechenintensive Anwendungen ausgelegte Geräte
-
- Titel
- Neuling
- Bewertung
- Registriert am
- 30.09.2019
- Beiträge
- 14
- Danke
0
0
05.10.2019, 11:52 #16Das habe ich mir schon gedacht das HighPerfomanceComputing Komponenten die höchste Rechenleistung pro Energiemenge Bereitstellen können.
Ich glaube mal gelesen zu haben das Standard Serverschränke für HPC in einer Größenordnung von 50kW el. Leistung verbraten, die müssen natürlich wieder abgeführt werden.
Ich bin jetzt bei WUProp@home dabei und schaue mir mal heute welche Erkenntnisse das Projekt aus den Datensätzen gewonnen hat.
-
07.10.2019, 13:18 #17
Moinsen zusammen,
Rechenleistung pro Energiemenge, das ist sehr pauschal ausgedrückt, denn auf den Anwendungsfall und den Optimierungsgrad kommt es an. Falls Du mal Richtung Mining schaust, wirst Du sehen, dass (generische, modulare) "PCs" im Vergleich zu den dort eingesetzten ASICs bei vielen *coin-Projekten keinerlei Chance (mehr) haben. Auch zwischen AMD und Intel gibt es solcherlei Unterschiede, weswegen man bspw. bei PrimeGrids meisten Subprojekten sagt, dass man eher Intel-CPUs einsetzen sollte (Stichwort: AVX) - oder bei Projekt XY lieber AMD-GPUs statt Nvidia... Je exotischer natürlich die Hardware wird (vor einiger Zeit bspw. Xeon Phis, oder KI-Beschleuniger, oder, oder, oder...) desto geringer die Chance, dass es von BOINC unterstützt wird, denn BOINC ist auf die "breite Masse" ausgelegt, wo dann auch mal der "kleinste gemeinsame Nenner" wichtiger ist als eine "bestmögliche Optimierung".
Wenn man hingegen nicht sonderlich selektiv für BOINC rechnet, sondern projektmäßig quer durch die Bank, ist das natürlich alles relativ und man kann weiterhin salopp sagen, dass die dicksten Rechner auch die höchste Leistung bringen.
Viele Grüße und einen guten Start in die Woche
walli
-
08.10.2019, 12:23 #18
Moinsen
Ich betrachte das mal von der GPU-Seite , die sind im Moment am Efektivsten.
AMD ist wie bekannt ein Energiefresser.
NVidia ist hier mein Favorit , hatte mir auch um Energie zu sparen eine MSI GTX1660 Amor zugelegt braucht für 2 Einstein WU's 45W. Bei ca.5100GFlops beachtlich.
Meine alte MSI GTX 1080 Gaming X liegt da im Vergleich bei 110W. ca.9100 Gflops
Die Turing-Chips sind echte Sparwunder.
(Hier ist das Einstein-Projekt nur ein Vergleich, ist ansonsten ja eher AMD lastig.)
Wenn man Projekte zum Vergleich heranzieht sollte man auch darauf achten wie effektiv sie programmiert sind.
Im Moment ist Ryzen und Turing die beste Wahl für einen energie-effizienten PC.
Allerdings ist das leider nicht die günstigste Variante.
-
09.10.2019, 13:17 #19
Wobei bei deinem GTX-Vergleich auch die Zeiten wichtig wären. Da dürfte die 1080 durch ihre 256bit bei Einstein profitieren. Braucht die 1080 nur die halbe Zeit für die WU, dann kann man sie ja in der Leistung reduzieren und kommt dann evtl. auch bei 50W und der Laufzeit der 1660 raus.
Ciao Norman
Ryzen 5 3600 @4GHz, 3x RX 5700, 32GB DDR4//FX8370 @4GHz, 16GB DDR3 1600, RX 470 + R9 270X// Dauercruncher i3 8300, 8GB RAM // Läppi B940 @2GHz
-
10.10.2019, 16:06 #20
Hi Norman,
soweit runter kommst mit der GTX 1080 nicht.
GPU-Crunchen kostet nunmal.
Als Kleincruncher ist es völlig egal ob Fullpower oder effiziente Karten hast, letztlich ist der Spaß der Gleiche.
Ich hatte auch erst aufgrüstet war auf 750W Verbrauch gekommen 2 PC (5GPU's, mittlerweile wieder runter auf 500Watt pro Stunde.
Hatte MSI GTX 1080 ; GTX 1070 TI; 2 R9 Nano und GTX 1650 (750W/h)
Jetzt MSI GTX 1080 ; GTX1660, 1 R9 Nano und GTX1650 (500W/h)
Habe Noctua Lüfter in die R9 Nano eingebaut und demnächst die Gigabyte GTX 1650 Winforce mit MSI Fan ausstatten ,dann ist das System schön leise.
Die MSI GTX 1660 Armor wird nur 55 Grad warm, echt der Hammer .
-
27.10.2019, 10:59 #21
Wollte mal berichten.
Ich habe die GTX1650 Winforce jetzt mit MSI-Lüfter ausgestattet.
Die Karte ist jetzt 12 °C kühler.
Ähnliche Themen
-
Virtuelle Maschine
Von AgentSchatten im Forum WikiAntworten: 35Letzter Beitrag: 30.03.2014, 11:46 -
crunchen
Von Mosch im Forum Das HauptforumAntworten: 3Letzter Beitrag: 31.03.2013, 16:48 -
Pc zum Crunchen
Von Phiulipp im Forum Hardware - Probleme, Tuning, Benchmark usw.Antworten: 16Letzter Beitrag: 18.04.2012, 23:27 -
Seit kurzem keine erfolgreichen Berechungen mehr auf einer Debian-6-Maschine
Von proteino.de im Forum Software - Installation, Probleme usw.Antworten: 10Letzter Beitrag: 14.10.2011, 00:31 -
FH-Forscherteam will Maschine für den Bau von Teleskoplinsen entwickeln
Von Ameisenhaufen im Forum WissenschaftsforumAntworten: 0Letzter Beitrag: 20.07.2008, 20:24
Stichworte
Single Sign On provided by vBSSO