Ergebnis 1 bis 20 von 20

  1. Titel
    Neuling

    Bewertung

    Registriert am
    30.09.2019

    Beiträge
    14

    Danke
    Danke gesagt 0   Danke erhalten 0

    #1

    Standard Die effizienteste Maschine zum crunchen

    Hallo Community,

    ich denke schon länger darüber nach wie eine reine crunching Maschine ausschauen müsste, die wobei der Schwerpunkt auf Effizienz gelegt wird.

    Dazu wäre erstmal eine Definition von Effizienz angebracht, was bedeutet Effizient?

    Etwas kann in vielerlei Hinsicht effizient sein jedoch bei anderer Sichtweise sehr ineffizient.

    Unter der Annahme das Geld keine Rolle Spielt, die Unterhaltskosten ebenso wenig, bleibt für mich nur noch die elektrische Energie übrig.

    Wie müsste eurer Meinung nach so ein Rechner ausschauen der 24/7 nur für BOINC da ist und die meisten Berechnungen pro Energie erreicht.

    Es wäre vl. noch sinnvoll zu definieren was mit meisten Berechnungen gemeint ist, die höchsten synthetischen benchmark werte, oder spezielle WU's der Boinc Projekte.

    Ich glaube das die Boinc Projekte nicht vergleichbar sind, bleiben nur die BOINC eigenen synth Benchmarks als Auswahl Kriterium.

    Aber ich bin mir sicher das die Community sinnvollere Vorschläge vorweisen kann.

    Um möglichst hohe Synth. Werte pro el. Leistung zu erreichen sollten die Peripheren Geräte am besten auf das notwendigste reduziert werden.

    Ich hatte auf meinem alten BOINC account, folgende PC am laufen:
    Intel MB mit ATOM330 1.6GHz
    4GB RAM
    ein 4GB USB Stick als Speicher
    und eine 60Watt Pico-PSU
    OS: Debian ohne GUI

    Das Perverse war das die Peripherie mehr Strom verbraucht hat als die CPU. Ich glaube der Verbrauch des Systems lag bei ca. 30Watt.
    Und später habe ich mal beim Tomshardware.de gelesen das die Effiezinz flöten geht weil die CPU für einen Benchmark so lange gebraucht hat. das sie mehr Energie für die Berechnung brauchte als ein i3 oder i5....

    Ich muss mal den Rechner ausgraben und und neu aufsetzen, um herauszufinden was der BOICN syn Benchmark hergibt.

    Was sind eure Systeme und wie hoch ist eure Leistungsaufnahme an der Steckdose wenn ihr vom Boinc den Benchmark Laufen lasst.
    Die Zeitdauer wird auch benötigt. Denn ein i7 wird den Benchmark wahrscheinlich in einer kürzeren Zeit abgearbeitet haben als ein i3.


    PS: Wie würde meiner Meinung eine effiziente Maschine ausschauen:
    Ich habe aber irgendwie im Gefühl das nur ein serverRack die Charts anführen kann.
    Denn das hohe Verhältnis der CPUs zu Peripherie (incl. Netzteil) ist glaub ich ausschlaggebend. Weiters kann man ein abgespecktes OS direkt im RAM als Ramdisk laden. Somit wird außer eine SSD für den Master keine weitere SSD gebraucht.

  2. Avatar von nexiagsi16v
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.12.2014

    Beiträge
    1.571

    Danke
    Danke gesagt 15   Danke erhalten 0

    #2

    Standard

    Es gibt nicht den Cruncher, es kommt immer auf das Projekt an und was man pro Monat ausgeben will an Stromkosten. Spielt letzteres keine Rolle, weil man es per eigener Stromerzeugung unterhält, tja, dann Kerne + Taktrate + schnelles RAM. Damit bekommst du die beste Effiziens bei Credits/Watt, wenn man bissel mit Undervolting arbeitet. Problem an der Stelle ist, dass man nun einiges an Kühlung der großen CPUs investieren muß. Bei so einem Ryzen 3900X kann man da nicht mehr alle Kerne konstant nutzen, weil er zuviel Hitze entwickelt. Das hängt aber auch vom Projekt ab. Bei Prime Grid müßte man den evtl. ins Gefrierfach hauen, damit er mit an die 100% laufen kann.

    Die Atom und Co. verbrauchen wenig Strom, aber sind langsam was das Crunchen angeht.

    Als Beispiel kann ich aber nur meine 24/7 Cruncher anführen. 2015 hab ich einen J2900 als iTX mit 4GB RAM zusammen gebaut. Das System mit allen 4 Kernen bei voller Taktleistung 2,67GHz lief bei 30Watt.
    Dieses Jahr hab ich ihn durch einen i3 8300 ersetzt. Da lasse ich aber nur 3 der 4 Kerne laufen, weil ich somit auf ca. 50Watt komme und entsprechend 10€/Monat.
    Beim J2900 langte ein passiver Kühlkörper + 80er langsam laufender Lüfter. Der rechnete praktisch lautlos. Beim i3 ist dann ein 90mm Noctua auf die CPU gekommen + der 80er als Gehäuselüfter. Im ganzen recht leise, aber hörbar.

    Der i3 ist je nach Projekt 3x (Seti V8) und bis zu 6x (Universe) schneller als der J2900 bei nicht mal 50% mehr Verbrauch. Bei Prime Grid dürfte in Richtung 10x schneller gehen.

    Ob die Boinc Benchmark dir da jetzt soviel hilft, glaub ich nicht. Wie gesagt, man muß sich auf ein oder zwei Projekte einschränken, um was handfestes sagen zukönnen. So ein serverRack dürfte auch schon gut am Optimum liegen, aber die sind auch sehr laut wegen der Kühlung und auch teuer. Kenne mich aber damit ehr weniger aus und weiß auch nicht was die CPUs dafür so leisten können.
    Ciao Norman

    FX8370 @4GHz, 16GB DDR3 1600, 1x RX 470 + 1x R9 270X// FX6300 @3,5Hz, 8GB DDR1600, 1x RX 470// Dauercruncher I3 8300, 8GB RAM // Läppi B940 @2GHz

  3. Avatar von pschoefer
    Titel
    Administrator

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    15.111

    Danke
    Danke gesagt 147   Danke erhalten 1.638

    #3

    Standard

    Zitat Zitat von eMJay Beitrag anzeigen
    Ich glaube das die Boinc Projekte nicht vergleichbar sind, bleiben nur die BOINC eigenen synth Benchmarks als Auswahl Kriterium.
    Dass die Projekte nicht vergleichbar sind, ist richtig. Allerdings dürfte der BOINC-Benchmark noch weniger mit den Projekten vergleichbar sein als die Projekte untereinander, da er immer nur die Leistung eines CPU-Kerns misst und recht anspruchslose Berechnungen durchführt. Der effizienteste Rechner wird dafür also einer mit nur einem aktivierten, aber bei gegebener Spannung möglichst hoch getakteten CPU-Kern und minimalen übrigen Komponenten sein. Für praktisch jede reale Anwendung wird dieser Rechner aber kein Effizienzwunder sein: Entweder sind die Berechnungen ziemlich anspruchslos, dann werden aber Rechner mit mehreren CPU-Kernen effizienter sein, weil sich darauf mehrere parallel laufende WUs nicht behindern und die näherungsweise gleiche Leistungsaufnahme der übrigen Komponenten praktisch auf mehrere Kerne verteilt wird; oder die Berechnungen sind so anspruchsvoll, dass sich mehrere parallel laufende WUs gegenseitig ausbremsen würden, dann wird aber sehr wahrscheinlich der RAM oder eine andere Komponente der Flaschenhals sein. Im Gegensatz dazu wird etwa der effizienteste Rechner für Universe@home auch bei Rosetta@home noch halbwegs passabel laufen und umgekehrt.
    Gruß
    Patrick
    Trinity, ein paar Taschenrechner und der UL1-SG-Booster - laufende WUs

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]


  4. Titel
    Neuling

    Bewertung

    Registriert am
    30.09.2019

    Beiträge
    14

    Danke
    Danke gesagt 0   Danke erhalten 0

    #4

    Standard

    ich kann Eure Gedanken nachvollziehen. Ein Synthetischer Benchmark bleibt synthetisch und reale WU's sind so unterschiedlich, das es nicht die eine Konfiguration gibt.
    Zum Thema hoch getaktete CPU, natürlich je höher desto schneller, außer das System wird vom RAM oder Thermische Belastung ausgebremst. In dem Moment wo man Verstärkt el. Leistung für die Kühlung aufwenden muss wird das ganze System wieder ineffizienter.

    @pschoefer du hast die Problematik mit single oder multicore voll ins schwarze getroffen.

    Und von der Rechenleistungsdichte sind auch grenzen gesetzt, bei einem ATOM330 hat das Mainboard mehr Strom verbraten als die CPU unter Volllast. Und bei einem OC High end CPU geht auch ein prozentuell höherer Anteil an Energie für die Kühlung flöten. Also wird irgendwo das Maximum zu finden sein.

    Es gibt dazu ein Analogen wie schnell muss ich fahren um einen Strecke abzufahren und dabei den geringsten Treibstoff Verbrauch mit einem Fahrzeug zu haben.
    Angenommen es ist ein Benzinmotor, wenn ich möglichst schnell fahre ist der Luftwiderstand dominant, und ich habe auf der ganzen strecke einen hohen verbrauch gehabt obwohl ichschneller ans ziel kam. Wenn ich wie ein Schnecke schleiche dann werde ich auch einen leeren tank haben bis ich ankomme... also irgendwo in der Mitte wird die effizienteste Reisegeschwindigkeit sein.

  5. Avatar von nexiagsi16v
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.12.2014

    Beiträge
    1.571

    Danke
    Danke gesagt 15   Danke erhalten 0

    #5

    Standard

    Du darfst nicht immer nur die CPU betrachten, sondern immer den ganzen Rechner. Das bei deinem Atom die Peripheren mehr Saft gezogen haben als die CPU glaub ich fast nicht. Der Atom ist mit 8W angegeben, aber das kannst du knicken bei Volllast, die Hürde überspringt er locker.

    Du willst, hohe Rechengeschwindigkeit bei möglichst wenig Stromverbrauch. Vergleichen wir deinen Atom mit meinem J2900, dürfte eindeutig werden, aber nur weil bei System den gleichen Verbrauch haben. Auf einen Kern runter gerechnet wird der J2900 noch mehr zum Sieger. Nehmen wir einen Ryzen 3700 mit 8 Kernen und lassen das ganze System 200Watt ziehen liegen wir bei 25Watt pro Kern oder 12,5Watt pro Threads. Der wird aber locker 10x so schnell sein wie mein J2900. Um das ins Verhältnis zusetzen müßte man den Quotient aus Verbrauch und Zeit und Punkte machen.
    Angenommen der Ryzen braucht 1h für eine WU...dann wären wir 12,5W/h und 12,5W/WU, 1h/WU, der J2900 mit seinen 10x länger wäre bei 7,5W/h aber bei 75W/WU und 10h/WU. Welcher von beiden wäre jetzt besser? Du mußt dich entscheiden, entweder Verbrauch pro Zeit oder Verbrauch pro WU. Nimmst du die CPU die in der Mitte dieser Werte liegt, bekommst du nur den besten im Druchschnitt, aber nix effizientes.
    Und wie schon gesagt, das müßte man jetzt für jedes Projekt machen. Ding der Unmöglichkeit. Man muß sich einfach fest legen was man crunchen will und dann kann man bissel in Richtung Effiziens schauen.
    Ciao Norman

    FX8370 @4GHz, 16GB DDR3 1600, 1x RX 470 + 1x R9 270X// FX6300 @3,5Hz, 8GB DDR1600, 1x RX 470// Dauercruncher I3 8300, 8GB RAM // Läppi B940 @2GHz

  6. Avatar von Petrus
    Titel
    Senior Member

    Bewertung

    Registriert am
    22.02.2009

    Ort
    zu Hause

    Beiträge
    299

    Danke
    Danke gesagt 2   Danke erhalten 2

    #6

    Standard

    Beim Atom war der Chipsatz der Stromfresser da wurden Uraltbestände verbaut. Habe auch einen 330 als Notfall Hardware.

    Unter Boinc wird so ziehmlich alles eingesetzt was läuft. Vom Neusten bis hin zu Methusalems die schon über Jahre ihren Diest schieben. Bei Serversystemen lässt sich nicht viel optimieren die sind eher auf haltbarkeit ausgelegt. Auf ein paar Watt hin oder her kommt es da nicht an. Bei Desktops kann man ein je nach dem einiges an Watt einsparen. Wenn man sich die Zeit nimmt um alles auszutesten.

    Momentan setzt AMD mit Ryzen neue Mastäbe, wenn Intel wieder was neues bringt kann sich das auch wieder ändern.
    Geändert von Petrus (03.10.2019 um 18:01 Uhr)
    AMD Ryzen 3900X Linux Ubuntu
    Es gibt zwei Dinge die unendlich sind. Das Weltall und die Dummheit der Menschen. Vom erstren bin ich mir nicht ganz sicher.
    Albert Einstein


  7. Titel
    Neuling

    Bewertung

    Registriert am
    30.09.2019

    Beiträge
    14

    Danke
    Danke gesagt 0   Danke erhalten 0

    #7

    Standard

    ok, angenommen ich entscheide mich nur für ein Projekt und das Ziel ist die Funktion f zu maximieren.

    die Einheit von f geschrieben in [f] = BoincCredits/Wh, sprich Punkte/Energie.

    die Funktion f kann ich so modellieren, wie gut es mit der Realität passt ist ja Modellsache.
    G............... BoincCredits
    P_cpu........ el. Leistung der CPU
    C............... umrechnungskonstante die systemspezifisch ist (CPU, RAM, etc) in [C] = BoincCredits/W
    k................ der Anteil der zur CPU dazugerechnetwerden muss zwecks Kühlung, mit Werten zw. [1 .. 1.2]
    P_periph.... el. Leistung der Peripherie
    P_ges........ gesamte el. Leistung

    G = P_cpu * C
    P_ges = k * P_cpu + P_periph

    f = G/P_Ges = C / (k + P_periph/P_cpu )

    ideal wären also der Wert von C hoch, k bei 1 und P_periph so gering wie möglich.

    *k gleich 1 würde eine passive CPU Kühlung bedeuten, das ist auch bei hohen Leistungen möglich

    *P_perph ist leicht abzuschätzen, einfach ein Board nehmen das nur die allernötigsten features mit sich bringt.

    *C abzuschätzen ist schon komplizierter, hier stecken die meisten Unsicherheiten. Einmodellansatz ist
    C = C(Architektur, CPU_Taktfrequenz, RAM_Taktfrequenz, n_Speichercontroller)
    das lässt sich auch anschreiben als:
    C = CPU_Taktfrequenz *C0(Architektur, RAM_Taktfrequenz, n_Speichercontroller)


    Das Modell kann noch verfeinert werden:
    P_cpu = C_cpu * U_cpu^2 * f_CPU + P_cpu0
    C_cpu........ Kapazität von der CPU
    U_cpu........ CPU_Spannung
    f_cpu......... CPU_Taktfrequenz
    P_cpu0...... Parasitäre Leistung in der CPU

    P_periph = P_periph0 +C_ram * U_ram^2 * f_ram
    C_ram........ Kapazität vom RAM
    U_ram........ RAM_Spannung
    f_ram......... RAM_Taktfrequenz
    P_periph0.. Parasitäre Leistung in der CPU


    Um für ein System das Optimum zu finden, wäre jetzt erstmal ein reproduzierender Lastfall gut, ein Benchmark am besten mit einer WU die man selbst immer abarbeiten könnte und die BOINCCredits selbst auszurechnen.

    Dann wäre interessant wieviele Messungen man machen müsste. Pro Unbekannte min. 1 Messungen damit das Modell komplett ist und die suche nach dem optimum gefunden werden kann.
    Bei dem Modell gibt es 8 Unbekannte, wobei für die ersten Interation der Hausverstand schon sagt, runter mit der Spannung rauf mit den Frequenzen.

    Ob jetzt die el. Leistung der CPU mehr auf höhere Verlustleistung oder mehr auf "strom sparen" getrimmt ist hängt davon ab wie hoch die Kühlung also der k Faktor ist.
    Ist der k Faktor bei hohen Werten, so wird man eine höhere Effizienz erreichen die el. Leistung der CPU zu reduzieren,, zwar rechnet man auch Langsamer aber das Verhältnis von BOINCCredits/Wh verbessert sich.
    Ist hingegen der kFaktor bei 1, dann wird man für ganz wenig aktive Kühlung eine viel höhere Verlustleistung der CPU dementsprechend auch eine höhere Rechenleistung erwarten.

  8. Avatar von walli
    Titel
    Full Member

    Bewertung

    Registriert am
    12.06.2016

    Ort
    Bochum

    Beiträge
    131

    Danke
    Danke gesagt 2   Danke erhalten 0

    #8

    Standard

    Moinsen,

    ich kann Dir nicht ganz folgen, allerdings sollte Dir bewusst sein, dass die gewährten Credits pro WU bei Boinc in aller Regel (es gibt Ausnahmen) nicht konstant sind im Hinblick auf Laufzeit oder was auch immer; hier gibt es weitere Abhängigkeiten (und hier reden wir auch nicht von der reinen elektrischen Leistung des Prozessors, da bspw. die eingesetzten Plattformen als Ganze, oder aber die Feature-Sets von CPUs und GPUs oder auch das eingesetzte Betriebssystem im Speziellen, oder auch ständig angepasste/veränderte WUs, je nach Projektanforderung, unterschiedliche Einflüsse haben und somit eine entscheidene Rolle in dieser Betrachtung spielen), so dass solcherlei Rechnungen höchstens hinreichend abschätzbar sind. Solltest Du Projekte mit Quorum 2 rechnen, sieht es noch einmal komplizierter aus, denn hier bekommt man afaik meist das Minimum an geforderten Credits beider Teilnehmer (heisst: sollte Dein Client für Deine WU 100 Credits fordern und Dein Wingman nur 90, bekommt Ihr nach eindeutig verifiziertem Ergebnis beide 90 Credits gutgeschrieben). Dein Modell resp. Deine Abstraktionsebene halte ich daher für etwas übersimplifiziert. Das Thema ist äußerst komplex und dynamisch. Ich habe da auch nur bedingt Erfahrungen, es gibt hier aber Leute im Forum, die auf diesem Gebiet Genies sind .

    Achso, und es gibt verschiedene Credit-Systeme... ^^

    Viele Grüße

    walli
    Geändert von walli (03.10.2019 um 23:56 Uhr)

  9. Avatar von Urs
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    05.02.2017

    Ort
    NRW

    Beiträge
    886

    Danke
    Danke gesagt 12   Danke erhalten 14

    #9

    Standard

    Nicht zu vergessen das sich einzelne wus, je nach Projekt, trotz gleichen Typs, deutlich in Laufzeit und Anforderung unterscheiden.

  10. Avatar von Uwe-Bergstedt
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.04.2008

    Ort
    Die schönste Stadt der Welt=Hamburg

    Beiträge
    2.210

    Danke
    Danke gesagt 165   Danke erhalten 34

    #10

    Standard

    Vielleicht solltet Ihr das mal alles Zusammenfassen und als Boinc Projekt starten

  11. Avatar von walli
    Titel
    Full Member

    Bewertung

    Registriert am
    12.06.2016

    Ort
    Bochum

    Beiträge
    131

    Danke
    Danke gesagt 2   Danke erhalten 0

    #11

    Standard

    ... und als Boinc Projekt starten
    Eh, wie meinen?

  12. Avatar von Roadranner
    Titel
    Freie Cruncher

    Bewertung

    Registriert am
    07.10.2012

    Ort
    Darmstadt

    Beiträge
    1.144

    Danke
    Danke gesagt 12   Danke erhalten 9

    #12

    Standard

    Das Projekt existiert zumindest in Teilen schon und heisst WUProp@home.


  13. Titel
    Neuling

    Bewertung

    Registriert am
    30.09.2019

    Beiträge
    14

    Danke
    Danke gesagt 0   Danke erhalten 0

    #13

    Standard

    Zitat Zitat von Roadranner Beitrag anzeigen
    Das Projekt existiert zumindest in Teilen schon und heisst WUProp@home.
    Kannst du es mir erklären, wie das Projekt genau funktioniert?
    Sammelt das Projekt "nur" spezifische Informationen oder muss man dabei auch aktiv Rechnen lassen und das Projekt belegt CPU-Kerne

    Und Gibt es zu den gesammelten Informationen schon Auswertungen?
    Geändert von eMJay (04.10.2019 um 10:12 Uhr) Grund: Probleme mit Aktualisieren gehabt

  14. Avatar von Roadranner
    Titel
    Freie Cruncher

    Bewertung

    Registriert am
    07.10.2012

    Ort
    Darmstadt

    Beiträge
    1.144

    Danke
    Danke gesagt 12   Danke erhalten 9

    #14

    Standard

    Das Projekt ist nci (not computing intensive), d.h. Du kannst es zusätzlich laufen lassen, denn es wird kein kompletter Kern belegt, sondern nur ein Bruchteil davon.
    Die WUs laufen jeweils 6 Stunden und zeichnen in der Zeit auf, welches Projekt wie lange läuft. Auf den Webseiten des Projekts kannst Du die Ergebnisse einsehen.
    Wenn Du bei den Resultaten links das Menu anklickst, kannst Du die Ergebnisse nach Rechenzeit, CPU, GPU, OS und weiteren Punkten sortiert anschauen.

    Edit:

    Bei mir läuft das Projekt seit Jahren auf allen Rechnern standardmäßig mit.
    Eine Beschränkung gibt es bei der Verwendung von weiteren BOINC-Instanzen auf einem Rechner - dort gestattet der Administrator nur die Nutzung des Projekt in so vielen Instanzen wie der Rechner Kerne (nicht Threads!) besitzt.
    Geändert von Roadranner (04.10.2019 um 12:55 Uhr)


  15. Titel
    Full Member

    Bewertung

    Registriert am
    11.01.2018

    Ort
    TeAm AnandTech

    Beiträge
    133

    Danke
    Danke gesagt 1   Danke erhalten 0

    #15

    Standard

    Falls es um maximale Punkte* pro KiloJoule geht, so sind natürlich große Server-CPUs bzw. große Server-Grafikkarten** optimal. Genau daraufhin wurden diese getrimmt.

    In CPU-Projekten erreichen die derzeit energie-effizientesten Desktopcomputer (solche mit Ryzen 3000 = erste 7nm-Generation) Punkte/kJ in der Größenordnung von --- bis leicht besser als --- vorgestrige, für numerische Simulation konzipierte Server (solche mit high-core-count-Modellen des Broadwell-EP = erste 14nm-Generation).

    --------
    *) in Projekten mit sinnvoller Punktevergabe, also nicht solche, wo Punkte nach Zufall oder nach Laufzeit vergeben werden
    **) Bei Server-Grafikkarten gibt es in der Praxis mit den verfügbaren Anwendungen in BOINC-Projekten allerdings gewisse Hürden; hier kann man mit entsprechend eingestellten Consumer-Grafikkarten ähnliche oder gar bessere Ergebnisse erzielen, d.h. je nach Anwendung sinnvoll große GPUs, die auf niedrige Spannung eingestellt wurden.
    Geändert von xii5ku_AT (05.10.2019 um 08:43 Uhr) Grund: Server ist nicht gleich Server; ich meinte natürlich auf rechenintensive Anwendungen ausgelegte Geräte


  16. Titel
    Neuling

    Bewertung

    Registriert am
    30.09.2019

    Beiträge
    14

    Danke
    Danke gesagt 0   Danke erhalten 0

    #16

    Standard

    Das habe ich mir schon gedacht das HighPerfomanceComputing Komponenten die höchste Rechenleistung pro Energiemenge Bereitstellen können.
    Ich glaube mal gelesen zu haben das Standard Serverschränke für HPC in einer Größenordnung von 50kW el. Leistung verbraten, die müssen natürlich wieder abgeführt werden.

    Ich bin jetzt bei WUProp@home dabei und schaue mir mal heute welche Erkenntnisse das Projekt aus den Datensätzen gewonnen hat.

  17. Avatar von walli
    Titel
    Full Member

    Bewertung

    Registriert am
    12.06.2016

    Ort
    Bochum

    Beiträge
    131

    Danke
    Danke gesagt 2   Danke erhalten 0

    #17

    Standard

    Moinsen zusammen,

    Rechenleistung pro Energiemenge, das ist sehr pauschal ausgedrückt, denn auf den Anwendungsfall und den Optimierungsgrad kommt es an. Falls Du mal Richtung Mining schaust, wirst Du sehen, dass (generische, modulare) "PCs" im Vergleich zu den dort eingesetzten ASICs bei vielen *coin-Projekten keinerlei Chance (mehr) haben. Auch zwischen AMD und Intel gibt es solcherlei Unterschiede, weswegen man bspw. bei PrimeGrids meisten Subprojekten sagt, dass man eher Intel-CPUs einsetzen sollte (Stichwort: AVX) - oder bei Projekt XY lieber AMD-GPUs statt Nvidia... Je exotischer natürlich die Hardware wird (vor einiger Zeit bspw. Xeon Phis, oder KI-Beschleuniger, oder, oder, oder...) desto geringer die Chance, dass es von BOINC unterstützt wird, denn BOINC ist auf die "breite Masse" ausgelegt, wo dann auch mal der "kleinste gemeinsame Nenner" wichtiger ist als eine "bestmögliche Optimierung".

    Wenn man hingegen nicht sonderlich selektiv für BOINC rechnet, sondern projektmäßig quer durch die Bank, ist das natürlich alles relativ und man kann weiterhin salopp sagen, dass die dicksten Rechner auch die höchste Leistung bringen .

    Viele Grüße und einen guten Start in die Woche

    walli

  18. Avatar von Lichti
    Titel
    Full Member

    Bewertung

    Registriert am
    25.09.2017

    Ort
    Hannover

    Beiträge
    110

    Danke
    Danke gesagt 2   Danke erhalten 0

    #18

    Standard

    Moinsen

    Ich betrachte das mal von der GPU-Seite , die sind im Moment am Efektivsten.

    AMD ist wie bekannt ein Energiefresser.
    NVidia ist hier mein Favorit , hatte mir auch um Energie zu sparen eine MSI GTX1660 Amor zugelegt braucht für 2 Einstein WU's 45W. Bei ca.5100GFlops beachtlich.
    Meine alte MSI GTX 1080 Gaming X liegt da im Vergleich bei 110W. ca.9100 Gflops

    Die Turing-Chips sind echte Sparwunder.
    (Hier ist das Einstein-Projekt nur ein Vergleich, ist ansonsten ja eher AMD lastig.)

    Wenn man Projekte zum Vergleich heranzieht sollte man auch darauf achten wie effektiv sie programmiert sind.

    Im Moment ist Ryzen und Turing die beste Wahl für einen energie-effizienten PC.
    Allerdings ist das leider nicht die günstigste Variante.

  19. Avatar von nexiagsi16v
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.12.2014

    Beiträge
    1.571

    Danke
    Danke gesagt 15   Danke erhalten 0

    #19

    Standard

    Wobei bei deinem GTX-Vergleich auch die Zeiten wichtig wären. Da dürfte die 1080 durch ihre 256bit bei Einstein profitieren. Braucht die 1080 nur die halbe Zeit für die WU, dann kann man sie ja in der Leistung reduzieren und kommt dann evtl. auch bei 50W und der Laufzeit der 1660 raus.
    Ciao Norman

    FX8370 @4GHz, 16GB DDR3 1600, 1x RX 470 + 1x R9 270X// FX6300 @3,5Hz, 8GB DDR1600, 1x RX 470// Dauercruncher I3 8300, 8GB RAM // Läppi B940 @2GHz

  20. Avatar von Lichti
    Titel
    Full Member

    Bewertung

    Registriert am
    25.09.2017

    Ort
    Hannover

    Beiträge
    110

    Danke
    Danke gesagt 2   Danke erhalten 0

    #20

    Standard

    Hi Norman,

    soweit runter kommst mit der GTX 1080 nicht.
    GPU-Crunchen kostet nunmal.

    Als Kleincruncher ist es völlig egal ob Fullpower oder effiziente Karten hast, letztlich ist der Spaß der Gleiche.
    Ich hatte auch erst aufgrüstet war auf 750W Verbrauch gekommen 2 PC (5GPU's, mittlerweile wieder runter auf 500Watt pro Stunde.

    Hatte MSI GTX 1080 ; GTX 1070 TI; 2 R9 Nano und GTX 1650 (750W/h)
    Jetzt MSI GTX 1080 ; GTX1660, 1 R9 Nano und GTX1650 (500W/h)

    Habe Noctua Lüfter in die R9 Nano eingebaut und demnächst die Gigabyte GTX 1650 Winforce mit MSI Fan ausstatten ,dann ist das System schön leise.
    Die MSI GTX 1660 Armor wird nur 55 Grad warm, echt der Hammer .

Ähnliche Themen

  1. Virtuelle Maschine
    Von AgentSchatten im Forum Wiki
    Antworten: 35
    Letzter Beitrag: 30.03.2014, 10:46
  2. crunchen
    Von Mosch im Forum Das Hauptforum
    Antworten: 3
    Letzter Beitrag: 31.03.2013, 15:48
  3. Pc zum Crunchen
    Von Phiulipp im Forum Hardware - Probleme, Tuning, Benchmark usw.
    Antworten: 16
    Letzter Beitrag: 18.04.2012, 22:27
  4. Seit kurzem keine erfolgreichen Berechungen mehr auf einer Debian-6-Maschine
    Von proteino.de im Forum Software - Installation, Probleme usw.
    Antworten: 10
    Letzter Beitrag: 13.10.2011, 23:31
  5. FH-Forscherteam will Maschine für den Bau von Teleskoplinsen entwickeln
    Von Ameisenhaufen im Forum Wissenschaftsforum
    Antworten: 0
    Letzter Beitrag: 20.07.2008, 19:24

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Single Sign On provided by vBSSO