Seite 25 von 26 Erste ... 15 23 24 25 26 Letzte
Ergebnis 601 bis 625 von 640
  1. Avatar von nexiagsi16v
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.12.2014

    Beiträge
    2.450

    Danke
    Danke gesagt 23   Danke erhalten 2

    #601

    Standard

    Willst du dann Einstein rechnen? Ich weiß nicht ob dieses Projekt das Beste für die Karte ist. Die entstammt ja wohl der GTX970 und die brauchen wohl so um die 19 Minunten für die Gamma-ray pulsar binary search #1. Deine wird evtl. noch ein wenig drüber liegen, weil weniger Takt.
    Meine alte RX 470 brauchte dafür ca. 13,5 Minuten bei unter 120W...eine RX 5700 nur 6 Minunten, nimmt sich aber bis zu 180W. Einstein ist grundsätzlich ATI/AMD-Land. Bei den ganzen anderen Projekten hämmert oft die Nvidiafraktion deutlich schneller Holz vom Stamm. Evtl. gibt es da besser geeignete Projekte für deine Quadro.... Beim Überfliegen hab ich gelesen, das sie sich für Berechnungen mit doppelter Präzision nicht eignet. Welche Projekte das fordern, weiß ich aber nicht.
    Ciao Norman

    Ryzen 5 3600 @4GHz, 3x RX 5700, 32GB DDR4//FX8370 @4GHz, 16GB DDR3 1600, RX 470 + R9 270X// Dauercruncher i3 8300, 8GB RAM // Läppi B940 @2GHz

  2. Avatar von spun
    Titel
    Neuling

    Bewertung

    Registriert am
    26.09.2013

    Ort
    Berlin

    Beiträge
    48

    Danke
    Danke gesagt 0   Danke erhalten 2

    #602

    Standard

    Mein Liebling ist asteroids@home. Darauf hin will ich optimieren. Dies ist auch ein Cuda Projekt, daher klar Nvidia als GPU.
    Geändert von spun (10.12.2020 um 18:20 Uhr)
    „Wenn es zwei oder mehrere Möglichkeiten gibt, eine Aufgabe zu erledigen und eine davon in einer Katastrophe enden kann, dann wird es jemand genau so machen.“

  3. Avatar von nexiagsi16v
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.12.2014

    Beiträge
    2.450

    Danke
    Danke gesagt 23   Danke erhalten 2

    #603

    Standard

    NVIDIA Quadro 600 434.0 (433.3-436.7)
    NVIDIA Quadro K2200 75.9 (62.6-92.9)
    NVIDIA Quadro K620 108.6 (108.4-109.0)
    NVIDIA Quadro P3200 35.7 (18.3-54.3)
    NVIDIA Quadro P400 128.8 (128.3-135.2)

    Das sind mal Zeiten von WUPorp geklaut. Da siehste was andere Quadros so leisten können. Leider ist das Projekt aktuell bissel down, daher weiß ich nicht ob man da mehrere WUs auf der GPU laufen lassen kann. Steht evtl. aber schon im Projektthread hier im Forum....
    Ciao Norman

    Ryzen 5 3600 @4GHz, 3x RX 5700, 32GB DDR4//FX8370 @4GHz, 16GB DDR3 1600, RX 470 + R9 270X// Dauercruncher i3 8300, 8GB RAM // Läppi B940 @2GHz

  4. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.269

    Danke
    Danke gesagt 14   Danke erhalten 75

    #604

    Standard

    Zitat Zitat von spun Beitrag anzeigen
    Die GPU wird eine Quadro M4000
    Ich hoffe, die kaufst du nicht extra für BOINC? Die ist wahrscheinlich bei dem alten Server / Workstation eh mit dabei, oder?

    Die M4000 ist eine niedriger getaktete GTX970 mit doppelt so viel RAM. Letzteres ist für BOINC meist egal. Die Eckdaten sind 120 W Verbrauch und 2,6 TFlops SP32 Rechenleistung. Letzteres ist deutlich niedriger als bei der GTX970 (3,9 TFlops), da die M4000 nur ca. 2/3 des Taktes erreicht.

    Zum Vergleich: die GTX1650 GDDR6 schafft 2,9 TFlops SP32 bei 75 W Verbrauch. Sie kostet neu 150€ und kostet im 24/7-Betrieb bei normalem deutschen Strompreis gut 150€/Jahr an Strom, während die M4000 gut 240€/Jahr an Strom kostet.

    Alte GPUs würde ich nicht 24/7 für BOINC laufen lassen, da zahlt man meist innerhalb von 1-2 Jahren drauf. Zum experimentieren oder für gelegentliches Crunchen sieht das natürlich anders aus

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002

  5. Avatar von pschoefer
    Titel
    Esel

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    16.288

    Danke
    Danke gesagt 158   Danke erhalten 1.761

    #605

    Standard

    Da es konkret um Asteroids@home geht, würde ich zum Thema Effizienz auch noch anmerken, dass GPUs dort generell nicht gerade effizient sind. Moderne CPUs mit AVX/AVX2 sehen dort unheimlich gut aus. Bei der genannten CPU/GPU-Kombination würde die GPU vielleicht noch gewinnen, weil diese AMD-CPU-Generation bei AVX noch recht schwach war. Aber wenn eine Aufrüstung aus Effizienzgründen eine Option ist, wäre konkret für dieses Projekt schon ein Ryzen 5 die deutlich bessere Wahl als eine GTX 1650 (ganz grob per WUProp geschätzt: 2 WUs pro Stunde auf einer GTX 1650, 10 WUs pro Stunde auf einem R5 3600, Stromverbrauch vermutlich recht ähnlich). Wobei die CPU im vorliegenden Fall natürlich nicht so leicht getauscht wäre wie die GPU.
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  6. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.269

    Danke
    Danke gesagt 14   Danke erhalten 75

    #606

    Standard

    Danke Patrick, wichtige Info! Meine Zahlen gelten eher für Projekte wie GPU-Grid, wo wirklich die rohe Rechenleistung und Architektur der GPU zählen.

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002

  7. Avatar von spun
    Titel
    Neuling

    Bewertung

    Registriert am
    26.09.2013

    Ort
    Berlin

    Beiträge
    48

    Danke
    Danke gesagt 0   Danke erhalten 2

    #607

    Standard

    Da eine Quadro auf Cudaberechnungen ausgelegt ist, würde ich mich eher für ein solches Model entscheiden.

    Um hier aber nicht zu viel offtopic zu posten würde ich vorschlagen, dass Projektthemen eher im entsprechenden Forum zu diskutieren.

    Daher nur kurz;

    Ich kann noch nichts sagen, wie effizient GPU's im Vergleich zu CPU's abschneiden.

    Muss aber sagen, dass die Anwendung schon etwas in die Jahre gekommen ist und es super finden würde, wenn nach dem beheben der Hardwareprobleme sich der Anwendung gewidmet wird.
    Neben Optimierungen würde auch eine vbox Unterstützung beziehungsweise eine bessere Nutzunge der Cudatechnik sehr helfen mehr herauszuholen.

    Ich halte das Projekt für sehr wichtig, man sollte da etwas pushen.
    „Wenn es zwei oder mehrere Möglichkeiten gibt, eine Aufgabe zu erledigen und eine davon in einer Katastrophe enden kann, dann wird es jemand genau so machen.“

  8. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.269

    Danke
    Danke gesagt 14   Danke erhalten 75

    #608

    Standard

    Da eine Quadro auf Cudaberechnungen ausgelegt ist, würde ich mich eher für ein solches Model entscheiden.
    Es sind die gleichen Chips, die Technik ist grundlegend die gleiche. Unterschiede gibt's bei ECC-DRAM, niedrigeren Taktraten für die Profi-Karten und der Unterstützung einiger Software-Features für professionelle Visualisierung (OpenGL), die nichts mit CUDA zu tun haben. Ansonsten gibt's bei den größten Chips inzwischen größere Unterschiede in Form von viel mehr FP64 Einheiten oder im Fall Volta sogar eine Architektur, die im Desktop-Bereich übersprungen wurde. Wurde mit Turing & Ampere aber wieder zusammengeführt.

    In wie fern soll vbox noch mehr herausholen? Ist doch nur eine weitere Software-Schicht dazwischen, oder? (um auch mal eine dumme Frage zu stellen...)

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002

  9. Avatar von nexiagsi16v
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.12.2014

    Beiträge
    2.450

    Danke
    Danke gesagt 23   Danke erhalten 2

    #609

    Standard

    Für die VM spricht immer, das nur für eine Plattform entwickelt werden muss, man spart also da schon mal Manpower. Dazu kann man Projektseitig die VM optimal konfigurieren und muss nicht auf die Befindlichkeiten des Rechners Rücksicht nehmen. Das bringt auch noch mal ein Plus auf der Habenseite.
    Ciao Norman

    Ryzen 5 3600 @4GHz, 3x RX 5700, 32GB DDR4//FX8370 @4GHz, 16GB DDR3 1600, RX 470 + R9 270X// Dauercruncher i3 8300, 8GB RAM // Läppi B940 @2GHz

  10. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.269

    Danke
    Danke gesagt 14   Danke erhalten 75

    #610

    Standard

    OK, das ergibt Sinn!

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002

  11. Avatar von bossmaniac
    Titel
    Senior Member

    Bewertung

    Registriert am
    16.06.2012

    Beiträge
    433

    Danke
    Danke gesagt 0   Danke erhalten 3

    #611

    Standard

    Mal ne Mac Frage. Wenn man den neuen M1 Mac für Boinc einspannen lassen wollte, worauf muss man achten? Das es eine Anwendung für Mac OS gibt oder ob es eine ARM-Anwendung gibt?
    To bodly crunch what no man has crunched before...
    http://stats.free-dc.org/cpidtagb.ph...heme=14&cols=3

  12. Avatar von fufu
    Titel
    Full Member

    Bewertung

    Registriert am
    03.07.2007

    Beiträge
    221

    Danke
    Danke gesagt 18   Danke erhalten 1

    #612

    Standard

    Es muss nur eine Anwendung für MacOS geben. Das Betriebssystem emuliert dir einen x86 Chip, wenn nötig. Ideal ist es natürlich wenn auch noch ARM supported wird. Dann läuft das ganze nochmal schneller. Wobei die Emulation gar nicht mal schlecht kauften soll. Allerdings reicht hier keine ARM Linux Applikation. Es muss explizit MacOS ARM sein.

    Achte darauf dass du die 16GB RAM Variante nimmst. Hab jetzt schon häufiger im WCG Forum gelesen, dass manche Kerne idlen weil der 8GB RAM voll ausgelastet ist. Diesen kann man leider nicht nachrüsten.

    Falls Du Dich im Detail einlesen möchtest.

  13. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.269

    Danke
    Danke gesagt 14   Danke erhalten 75

    #613

    Standard

    Wie schlagen sich die Teile denn in WCG?

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002

  14. Avatar von fufu
    Titel
    Full Member

    Bewertung

    Registriert am
    03.07.2007

    Beiträge
    221

    Danke
    Danke gesagt 18   Danke erhalten 1

    #614

    Standard

    Ich habe selbst keinen, daher kann ich das gar nicht konkret beantworten. Ich meine, dass die Zeiten auf jeden Fall schlechter waren als bei den aktuellen AMDs und Intels. Allerdings ist die Effizienz (Output/Energieverbrauch) deutlich besser.

  15. Avatar von nexiagsi16v
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.12.2014

    Beiträge
    2.450

    Danke
    Danke gesagt 23   Danke erhalten 2

    #615

    Standard

    Bei MCM liegen die Zeiten wohl zwischen 1,6 und 3,8h für den Mini M1 mit 8GB.
    Für das selbe Geld bekommt man einen MiniPC mit 16GB RAM. Echte 8 Kerne und SMT...also 16 Threads. CPU wäre z.b. ein Ryzen 4750GE, der vom Papier über einem 4800H liegt und somit auch besser als der M1 sein sollte.
    Denn so ein 4800H Ryzen liegt bei MCM besser im Wasser, wenn man WUprop befragt. So ein Laptop mit 4800H braucht dann 50W und evtl. bissel drüber. Schaut man entsprechend bei den Mac Books mit ähnlicher Ausstattung (RAM, Speicherplatz), liegen auch 60W Netzteile bei. Dabei hat man nur 13" Display...bei den Ryzen war es ein 17" und das ca. 1/3 günstiger in der Anschaffung.

    So ganz erschließt ich mir nicht, wieso der M1 so das Überding sein soll. Er deklassiert die älteren CPUs in den Applegeräten deutlich, aber das machen aktuelle AMDs auch mit der Generation von vor 2 oder 3 Jahren. Dazu waren die Applegeräte damals auch keine Überflieger und wie immer, verdammt teuer. Aber evtl. übersehe ich hier etwas, was die Teile wirklich so inovativ macht bzw. besser?
    Ciao Norman

    Ryzen 5 3600 @4GHz, 3x RX 5700, 32GB DDR4//FX8370 @4GHz, 16GB DDR3 1600, RX 470 + R9 270X// Dauercruncher i3 8300, 8GB RAM // Läppi B940 @2GHz

  16. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.269

    Danke
    Danke gesagt 14   Danke erhalten 75

    #616

    Standard

    Das besondere am M1 ist meiner Meinung nach, dass Apple konkurrenzfähig ist und extem schnell aufgeholt hat. Das man prozentual starke Leistungssteigerungen erreicht, wenn man quasi bei 0 anfängt ist klar. Aber nicht im Spitzenbereich, in dem Intel von Sandy Bridge bis Skylake nur inkrementelle Verbesserungen pro Takt erreicht hatte. Und dass Apple beim M1 einen super-fetten Kern baut, der bei 3 GHz so schnell rechnet wie Intel & AMD bei 4-5 GHz und trotzdem sehr effizient ist. Das ist schon ein Ausrufezeichen. Legen sie noch mal so eine Steigerung nach, überholen sie klar.

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002

  17. Avatar von nexiagsi16v
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.12.2014

    Beiträge
    2.450

    Danke
    Danke gesagt 23   Danke erhalten 2

    #617

    Standard

    Bissel schwer Daten zu finden wo der M1 per Benchmarks mit anderen CPUs verlgeichen werden. Single Core ist der M1 wirklich gut im Bereich von 8 Kernern, wenn man Benchmarks nutzt die dem M1 liegen. Z.b. Cinebench R23 Single Core. Schaut man sich Cinebench R20 Single Core an, dann dreht es sich fast um. So ein 8 Kerner Ryzen für moblie Geräte liegt da um 10-25% vorn.

    Apple selber hat den M1 mit Ryzen pro 4750U verglichen...liegen ja beide bei 15W Stromaufnahme. Hab mal einige Benchmarkwerte zusammen getragen.

    Cinebench R20 Single
    M1 407
    4750U 460

    Cinebench R20 alle Kerne
    M1 2100
    4750U 3000

    Cinebench R23 Single
    M1 1500
    4750 1200

    Cinebench R23 Multi
    M1 7800
    4750U 8100

    Bei Geekbench wird das RAM mit einbezogen. Bei Apple DDR4 4266. Das Lenovo, was sie zum Vergleich hatten, war mit DDR4 3200er bestückt.

    Geekbench 5 Single
    M1 1700
    4750U 1200

    Geekbench 5 Multi
    M1 7500
    4750U 4900

    Letztere Benchmark ist wohl eine der neueren Benchmark und somit können die Zen2 mobile von AMD nur bedingt was leisten, da sie ja schon gut 1 Jahr auf dem Markt sind. Sie test vorallem für zukünftige Software. Bei jetzt, aktuelle Software, die ja auch der neue M1 kann, liegen andere CPUs vor ihm. Aber du hast recht, für eine neue CPU, die wohl vorallem passiv gekühlt werden soll, echt stark.
    Aber so wirkliche Tests mit Stromaufnahme und Taktrate bei Dauerlast usw. hab ich nicht gefunden. Dazu sind Vergleichsgeräte besser ausgestattet und mit größeren Bildschirm, wenn man mal die Laptops betrachtet.
    Die iGPU des M1 ist aber wirklich stark und momentan die Benchmark.
    Ciao Norman

    Ryzen 5 3600 @4GHz, 3x RX 5700, 32GB DDR4//FX8370 @4GHz, 16GB DDR3 1600, RX 470 + R9 270X// Dauercruncher i3 8300, 8GB RAM // Läppi B940 @2GHz

  18. Avatar von lugu
    Titel
    Gold Member

    Bewertung

    Registriert am
    23.02.2016

    Beiträge
    1.094

    Danke
    Danke gesagt 33   Danke erhalten 0

    #618

    Standard

    Ich will auch mal wieder dumm fragen: Kann es sein, dass es keinen BOINC-Client für iPhones gibt?
    Hauptrechner: i7-6700K @ 4.00 GHz | GeForce GTX 1080 | 16 GB DDR4 | Windows 10 | BOINC 7.14.2
    Nebenrechner: i3-7300 @ 4.00 GHz | GeForce GTX 1050 Ti | 8 GB DDR4 | Windows 10 | BOINC 7.8.3
    Nebenrechner: i3-6100 @ 3.70 GHz | Intel HD Graphics 530 | 8 GB DDR4 | Windows 10 | BOINC 7.6.33
    Statistiken | Badges


  19. Titel
    Full Member

    Bewertung

    Registriert am
    13.03.2014

    Ort
    Siegen

    Beiträge
    127

    Danke
    Danke gesagt 0   Danke erhalten 0

    #619

    Standard

    Zitat Zitat von lugu Beitrag anzeigen
    Ich will auch mal wieder dumm fragen: Kann es sein, dass es keinen BOINC-Client für iPhones gibt?
    Boinc gibt es für das Telefon nur für Androiden.

    https://boinc.berkeley.edu/download_all.php

  20. Avatar von walli
    Titel
    Senior Member

    Bewertung

    Registriert am
    12.06.2016

    Ort
    Bochum

    Beiträge
    336

    Danke
    Danke gesagt 6   Danke erhalten 5

    #620

    Standard

    Apples Politik ist da sehr restriktiv. Es gibt bereits seit Jahren Diskussionen zu diesem Thema, u.a. auf Github.

    Einige Knackpunkte in der Kurzfassung:
    • Apple erlaubt es wohl nicht, ausführbaren Programmcode in einer App nachträglich herunterzuladen; hier müsste man große Umwege in Kauf nehmen (bspw. alle Projekt-Programme direkt mitliefern)
    • Hintergrundausführung von Apps sind problematisch, insbesondere, wenn das Smartphone am Laden ist
    • Apple kann jederzeit nach eigenem Gutdünken eine App aus dem Store werfen, weswegen man den enormen Aufwand einer Portierung und Pflege schon im Vorfeld infrage stellen kann/muss

    Viele Grüße

    walli

  21. Avatar von pschoefer
    Titel
    Esel

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    16.288

    Danke
    Danke gesagt 158   Danke erhalten 1.761

    #621

    Standard

    Offensichtlich werden bei der Teamzuordnung in der projektübergreifenden Statistik nur "aktive" Projekte berücksichtigt. Am 1. Januar wurde bei BOINCstats SETI@home zu den inaktiven Projekten verschoben, sodass nun alle, die ausschließlich bei SETI@home Punkte hatten oder bei ihren anderen Projekten einem anderen oder keinem Team beigetreten sind, in der projektübergreifenden Statistik eben keinem Team mehr zugeordnet werden können. Andere Teams mit starkem Fokus auf SETI@home haben daher auch massiv Mitglieder "verloren".

    Letztlich zeigt das nur einmal mehr, wie wenig robust diese projektübergreifende Statistik ist. Bei den Statistiken für einzelne Projekte ist alles beim Alten.
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  22. Avatar von pschoefer
    Titel
    Esel

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    16.288

    Danke
    Danke gesagt 158   Danke erhalten 1.761

    #622

    Standard

    Das sind diejenigen, die auch andere, noch aktive Projekte crunch(t)en, dort aber in einem anderen Team sind. Die werden seit dem Wegfall von S@h nun eben in der projektübergreifenden Statistik dem anderen Team zugeordnet. Wenn du dir die Mitgliederwanderung bei den einzelnen Projekten anschaust, gab es nirgendwo so eine Massenflucht am 1. Januar.
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  23. Avatar von HaWe
    Titel
    Senior Member

    Bewertung

    Registriert am
    29.01.2015

    Ort
    Sachsen-Anhalt

    Beiträge
    343

    Danke
    Danke gesagt 2   Danke erhalten 2

    #623

    Standard

    Da ich hier schon schlaue Antworten auf meine dummen Fragen bekommen habe, schildere ich mal ein Problem, dass ich gern gerlöst hätte:
    Ich habe 2 unterschiedliche Grafikkarten. die ich je nach Lage für BOINC einsetze und zwar NVIDIA Geforce 1070 Ti und 1050 Ti. Mein Netzteil liefert 700 Watt. Kann man auch beide Karten auf einem Motherboard laufen lassen ohne dass da Rauch aufsteigt? Mir ist klar, dass die Leistung sich nicht addiert und dabei der Stromverbrauch steigt. Mit dem Treiber gibt es offensichtlich keine Probleme, denn beide laufen ohne ihn zu wechseln obwohl ich das bisher nach einiger Zeit immer gemacht habe (mit Driver Booster 8) . Eventuell könnte man sehen, ob die Rechenzeiten kürzer werden und ob man dann auch lieber 2 Kerne der CPU für die Karten frei lässt.
    Gruß,
    HaWe
    Boincstats
    Mein Rechenknecht: Gigabyte X 470 AORUS Ultra Gaming-CF, AMD Ryzen 7 2700, WaKü, 32 GB DRAM, NVIDIA GeForce GTX 1070 Ti ZOTAC Mini oder MSI Geforce GTX 1050 Ti, Win 10 Pro

  24. Avatar von Handicap SG-FC
    Titel
    Freie Cruncher

    Bewertung

    Registriert am
    06.04.2012

    Ort
    Norden von Deutschland

    Beiträge
    3.283

    Danke
    Danke gesagt 21   Danke erhalten 34

    #624

    Standard

    HaWe,

    Du müsstest mal die genauen Daten zum NT angeben bitte.

    700 Watt reicht nicht aus um das zu beurteilen.

  25. Avatar von nexiagsi16v
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.12.2014

    Beiträge
    2.450

    Danke
    Danke gesagt 23   Danke erhalten 2

    #625

    Standard

    Diese NTs sollten entweder 25A auf der 12V-Schiene haben und davon dann zwei. Oder sie haben eine, die dann halt 50A liefert. Steht auch auf dem NT drauf bzw. sollte man im Handbuch bzw. Herstellerseite finden.
    Wenn man 2 Schienen hat, muss man schauen. Hin und wieder sind sie unterschiedlich stark ausgelegt...also eine Schiene z.b. 20A, die andere 30A. Da würde ich die stärkere Karte evtl. auf die 30A anschließen.

    Deine GPUs ziehen zusammen hoch gegriffene 350W...was bei 12V 30A sind. Also dürfte das passen.

    Aber Handi hat recht, sag uns mal was du für ein NT hast, um wirklich eine brauchbare Aussage machen zu können.
    Ciao Norman

    Ryzen 5 3600 @4GHz, 3x RX 5700, 32GB DDR4//FX8370 @4GHz, 16GB DDR3 1600, RX 470 + R9 270X// Dauercruncher i3 8300, 8GB RAM // Läppi B940 @2GHz

Ähnliche Themen

  1. "Hallo" an alle "Neuen"
    Von Frank [SG] im Forum Neue Mitglieder & Begrüßungen
    Antworten: 106
    Letzter Beitrag: 02.11.2018, 11:08
  2. Antworten: 1
    Letzter Beitrag: 27.10.2011, 11:29
  3. Antworten: 18
    Letzter Beitrag: 03.07.2009, 17:27
  4. Planet 3DNow! - Forum für "AMD Fragen"
    Von Dirk im Forum Hardware - Probleme, Tuning, Benchmark usw.
    Antworten: 20
    Letzter Beitrag: 19.04.2009, 11:48
  5. Einstein@Home nach SETI-Optimierung "auch" schneller
    Von grisueitorf im Forum Einstein@Home
    Antworten: 1
    Letzter Beitrag: 11.06.2008, 22:19

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Single Sign On provided by vBSSO