Seite 44 von 44 Erste ... 34 42 43 44
Ergebnis 1.076 bis 1.097 von 1097
  1. Avatar von Holger
    Titel
    Junior Member

    Bewertung

    Registriert am
    09.04.2016

    Ort
    Höxter

    Beiträge
    87

    Danke
    Danke gesagt 2   Danke erhalten 0

    #1076

    Standard

    Zitat Zitat von Roadranner Beitrag anzeigen
    Konkurrenzfähiger sollte da die Radeon 7990 sein, die bei gleichem Stromverbrauch wie die 6990 etwa 50% mehr Leistung bietet.
    Jedoch liegen hier die Preise für gebrauchte Karten immer noch (zu) hoch.
    Naja, ist aber trotzem erschreckend das die neueren Karten da nicht mithalten können.

    Die app_config.xml habe ich noch ein bissel geändert, sind nun 149-154sec pro WU

    <app_config>
    <app>
    <name>milkyway</name>
    <gpu_versions>
    <gpu_usage>0.5</gpu_usage>
    <cpu_usage>0.1</cpu_usage> <!-- ist halt ein kleiner J3710 (6.5W TDP) darum mehr zugewiesen -->
    </gpu_versions>
    </app>
    </app_config>

  2. Avatar von taurec
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    30.06.2008

    Ort
    Allerorten

    Beiträge
    3.862

    Danke
    Danke gesagt 211   Danke erhalten 55

    #1077

    Standard

    Sind halt alles Spiele-Karten, nix für Boinc optimiert - da juckt DoublePrecision nicht.
    Eine Radeon HD6900 von mir bringt wahrscheinlich auch mehr als die GTX970 bei ca. gleichem Verbrauch, aber ich kann nicht noch mehr Rechner in Betrieb nehmen ....
    Ciao taurec

  3. Avatar von lugu
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    23.02.2016

    Beiträge
    844

    Danke
    Danke gesagt 26   Danke erhalten 0

    #1078

    Standard



    Ich bin heute auch bei Milkyway@Home eingestiegen und hab noch zweieinhalb kleine Fragen:

    - Gilt das noch, dass das Projekt eigentlicht für ATI-Karten optimiert ist? Mit meiner GeForce GTX 1060 brauche ich ca. 240 s pro WU.
    - Ich würde gern zwei WUs parallel laufen lassen. Reicht es, wenn ich "<name>milyway</name>" in die app_info.xml schreibe, wie es Holger gemacht hat oder muss da die genaue App-Bezeichnung rein? Wie wichtig ist der Wert für die CPU Usage?

  4. Avatar von Holger
    Titel
    Junior Member

    Bewertung

    Registriert am
    09.04.2016

    Ort
    Höxter

    Beiträge
    87

    Danke
    Danke gesagt 2   Danke erhalten 0

    #1079

    Standard

    Hi lugu,

    ja das ist schon so richtig, hier nochmal komplett meine app_config.xml :

    <app_config>
    <app>
    <name>milkyway</name>
    <gpu_versions>
    <gpu_usage>0.5</gpu_usage>
    <cpu_usage>0.05</cpu_usage>
    </gpu_versions>
    </app>
    </app_config>

    Zitat Zitat von taurec Beitrag anzeigen
    Sind halt alles Spiele-Karten, nix für Boinc optimiert - da juckt DoublePrecision nicht.
    Eine Radeon HD6900 von mir bringt wahrscheinlich auch mehr als die GTX970 bei ca. gleichem Verbrauch, aber ich kann nicht noch mehr Rechner in Betrieb nehmen ....
    Ach komm, einer geht noch !

    Mit werten zu GTX 970 kann ich dienen:

    <gpu_usage>1</gpu_usage> pro WU 229-232sec
    <gpu_usage>0.5</gpu_usage> pro WU 418-421sec
    <gpu_usage>0.33</gpu_usage> pro WU 632-641sec

    Optimal wären also 2 oder 3 parallel rechnen zu lassen, 4 könnte ich auch noch probieren nur sind die ATI/AMD Karten von der Geschwindigkeit klar im vorteil.
    Geändert von Holger (04.03.2017 um 22:16 Uhr) Grund: fehler in app_config.xml beseitigt

  5. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.203

    Danke
    Danke gesagt 14   Danke erhalten 75

    #1080

    Standard

    Zitat Zitat von Holger Beitrag anzeigen
    Naja, ist aber trotzem erschreckend das die neueren Karten da nicht mithalten können.
    Zitat Zitat von taurec Beitrag anzeigen
    Sind halt alles Spiele-Karten, nix für Boinc optimiert - da juckt DoublePrecision nicht.
    Keiner optimiert seine Hardware für BOINC
    Es sind Spiele-Karten, die für Zocken und Rechnen mit 32 Bit Fließkomma (SP) optimiert sind, weil das dort fast ausschließlich eingesetzt wird. Im Profibereich wird auch 64 Bit Fließkomma (DP) benötigt, also haben die dicksten Chips Hardware dafür. Das auch in die kleineren chips einzubauen würde die Hersteller richtig was kosten, für praktisch keinen Gewinn:

    - Mehr Transistoren -> teurere Chips
    - Entgangene Gewinne durch ausbleibende Käufe von Tesla & co
    - Evtl. auch etwas schlechtere Energieeffizienz oder/und Taktraten, selbst wenn nur mit 32 Bit gerechnet wird

    Fast alle GPU-Projekte unter BOINC kommen übrigens mit SP aus. Bei SP mit dem 32-fachen der DP-Geschwindigkeit (wie bei nVidia) lohnt sich das auch richtig, also Algorithmus & App so auszulegen, dass SP reicht. Ausnahmen sind meines Wissens nach MW und ein Unterprojekt von PG.

    Zitat Zitat von taurec Beitrag anzeigen
    Eine Radeon HD6900 von mir bringt wahrscheinlich auch mehr als die GTX970 bei ca. gleichem Verbrauch, aber ich kann nicht noch mehr Rechner in Betrieb nehmen ....
    Von der DP-Leistung her ja, vom Verbrauch eher nicht. Denn in DP rechnet die GTX970 ja fast nichts, also verbrät sie auch nicht so viel Leistung wie sonst.

    Ich denke, für MW wird immer noch Tahiti (HD7950, 7970, 280, 280X) das beste sein: halbwegs moderner 28 nm Prozess (im Gegensatz zur HD6900 in 40 nm) und DP auf 1/4 der SP-Leistung. Hawaii ist mit 1/8 auch nicht schlecht, braucht aber schon die doppelte (!) SP-Rohleistung um auch nur gleichzuziehen. Polaris 10 (RX470, 480) hat zwar den besseren 14 nm Prozess, müsste mit DP in 1/16 der SP-Leistung aber noch nen Faktor 2 drauflegen - keine Chance. Und die Energieeffizienz von Tahiti könnte man mit ner leichten Takt- und deutlichen Spannungssenkung auch noch gut in den Griff bekommen.

    ... und wo sich hier aktuelle nVidias mit 1/32 einordnen brauch ich nicht weiter auszuführen, oder? Es ist in meinen Augen eine üble Verschwendung, diese für MW rechnen zu lassen. @Lugo: du siehst, es ist mehr die Hardware, welche bei AMD deutliche Vorteile in DP hat, als ne Software-Optimierung. Dort hatte AMD vor Jahren tatsächlich auch nen Vortei, das sollte inzwischen mit OpenCL aber hinfällig sein.

    Zitat Zitat von Holger Beitrag anzeigen
    Ich weiß natürlich nicht ob die Karte ggf noch durch den PCIE Adapter x16 -> x1 ausgebremst wird
    Brauchst du nicht testen, ist für MW egal. Bei einigen anderen Projekten wäre x1 aber zu wenig.

    Zitat Zitat von Holger Beitrag anzeigen
    ... lohnt sich übrings eine gebrauchte RX 480 - GB8 die man in der Bucht schon für ~185,- Euro bekommen kann.
    Siehe oben: für MW wäre Tahiti viel besser. Und sicherlich günstiger in der Anschaffung.

    MrS

    - - - Aktualisiert - - -

    Edit: Intel CPUs können seit Haswell mit AVX2 16 FMAD pro Takt und Kern. Damit kommt ein 4-kerniger i5 bei 4.0 GHz auf 256 GFlops DP. Ne GTX1060 liegt mit 137 GFlops DP deutlich drunter, die GTX1080 mit 277 GFlops DP gerade drüber. Die HD7970 liegt dagegen bei geschmeidigen 947 GFlops

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002

  6. Avatar von Archi_74
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    01.10.2009

    Ort
    Bayern

    Beiträge
    607

    Danke
    Danke gesagt 6   Danke erhalten 1

    #1081

    Standard

    Danke für die interessante Zusammenfassung!
    "Ich würde es begrüßen, wenn wir zuerst unseren eigenen Planeten in Ordnung bringen,
    bevor wir die Arroganz aufweisen, unsere signifikant mangelhaften Zivilisationen auf andere
    Planeten zu befördern - selbst wenn diese völlig unbewohnt wären."
    (Sir Patrick Stewart)

  7. Avatar von lugu
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    23.02.2016

    Beiträge
    844

    Danke
    Danke gesagt 26   Danke erhalten 0

    #1082

    Standard

    Ja, danke für die Zusammenfassung!

    Zwei parallel laufende WUs lasten meine GPU jetzt aus und brauchen ca. 380 s.

  8. Avatar von Holger
    Titel
    Junior Member

    Bewertung

    Registriert am
    09.04.2016

    Ort
    Höxter

    Beiträge
    87

    Danke
    Danke gesagt 2   Danke erhalten 0

    #1083

    Standard

    Jetzt habe ich ggf nochmal eine dumme frage !

    Sicher ATI GPU's sind nach wie vor top für MW, nur wenn ich in wiki mir gerade so die alte nVidia GTX Titan (1300-1499Dp), GTX Titan Black (1700Dp) und GTX Titan Z (2700Dp) anschaue sollten die doch auch sehr schnell sein.

    Hat einer ggf solch eine Karte und könnte sich dazu mal äußern ob das "wunschwerte" sind oder die wirklich so fix sind.

    Ich selber habe meinen Rechner nochmal umgestrickt und nun 2 alte Tahiti Monster verbaut, die ich wohl besser mit Wasserkühlung bestücken sollte (gibts aber nirgendswo mehr zu kaufen ).

  9. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.203

    Danke
    Danke gesagt 14   Danke erhalten 75

    #1084

    Standard

    Diese Keplers sind in MW/DP wirklich so schnell. Ist nur normalerweise kein Thema weil die sauteuer waren/sind.

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002

  10. Avatar von Holger
    Titel
    Junior Member

    Bewertung

    Registriert am
    09.04.2016

    Ort
    Höxter

    Beiträge
    87

    Danke
    Danke gesagt 2   Danke erhalten 0

    #1085

    Standard

    Zitat Zitat von [ETA]MrSpadge Beitrag anzeigen
    Diese Keplers sind in MW/DP wirklich so schnell. Ist nur normalerweise kein Thema weil die sauteuer waren/sind.

    MrS

    So wieder mal bissel länger bei mir gedauert mit der Antwort, sorry dafür.

    Hast recht, habe mir die Preise mal angeschaut und selbst gebrauchte sind im gegensatz zu ATI Karten immer noch zu teuer, da kommt selbst meine Rechnung "was spare ich an Strom" nicht hin.


  11. Titel
    Neuling

    Bewertung

    Registriert am
    04.05.2018

    Beiträge
    6

    Danke
    Danke gesagt 0   Danke erhalten 0

    #1086

    Standard

    Zitat Zitat von Holger Beitrag anzeigen
    Hat einer ggf solch eine Karte und könnte sich dazu mal äußern ob das "wunschwerte" sind oder die wirklich so fix sind.
    Ich hab hier eine GTX TITAN, wenn mir jemand sagt, wie ich die optimiere und was in der app_config.xml stehen muss, kann ich Werte liefern.
    Gerne auch per E-Mail.

  12. Avatar von bossmaniac
    Titel
    Senior Member

    Bewertung

    Registriert am
    16.06.2012

    Beiträge
    362

    Danke
    Danke gesagt 0   Danke erhalten 3

    #1087

    Standard

    Zitat Zitat von zweitaktfan Beitrag anzeigen
    Ich hab hier eine GTX TITAN, wenn mir jemand sagt, wie ich die optimiere und was in der app_config.xml stehen muss, kann ich Werte liefern.
    Gerne auch per E-Mail.
    Ich habe auch eine. Wichtig ist, das du in der Nvidiasystemsteuerung das Häcken für Dobble Precision setzt. (Karte Boostet dann aber auch nicht mehr) Aus dem Kopf heraus weis ich gerade nicht, wie viel Sinn es macht der Karte noch ne 2. Wu parallel unterzuschieben.
    To bodly crunch what no man has crunched before...
    http://stats.free-dc.org/cpidtagb.ph...heme=14&cols=3


  13. Titel
    Neuling

    Bewertung

    Registriert am
    04.05.2018

    Beiträge
    6

    Danke
    Danke gesagt 0   Danke erhalten 0

    #1088

    Standard

    Hallo,
    Zitat Zitat von bossmaniac Beitrag anzeigen
    Ich habe auch eine. Wichtig ist, das du in der Nvidiasystemsteuerung das Häcken für Dobble Precision setzt. (Karte Boostet dann aber auch nicht mehr) Aus dem Kopf heraus weis ich gerade nicht, wie viel Sinn es macht der Karte noch ne 2. Wu parallel unterzuschieben.
    Den Haken hab ich gesetzt.
    Wieviele WU gleichzeitig?
    Braucht es dafür eine besondere BOINC-Version (ich las etwas von optimierten BOINC-Clients) ?

  14. Avatar von schilli74
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    17.01.2010

    Ort
    NRW

    Beiträge
    874

    Danke
    Danke gesagt 41   Danke erhalten 4

    #1089

    Standard

    Zitat Zitat von zweitaktfan Beitrag anzeigen
    Wieviele WU gleichzeitig?
    Das kann man mit einer Datei vom Typ app_config.xml oder app_info.xml die in dem entsprechenden Verzeichnis liegt regeln.
    Für app_config.xml erst ab Boinc 7.0.40.

    Zitat Zitat von zweitaktfan Beitrag anzeigen
    Braucht es dafür eine besondere BOINC-Version (ich las etwas von optimierten BOINC-Clients) ?
    Besondere Boinc-Version nein aktuell reicht aus.

    Optimierte Boinc-Clients/optimierte Anwendungen.
    Das sind Anwendungen die nicht vom Projekt automatische verteilt werden. Diese optimierte Anwendungen muß man selbst in das entsprechende Verzeichnis legen (app_info.xml + Anwendung). Ausnahme Seti@home da gibt es einen Installer der alles für einen regelt.
    Als Beispiel DENIS@Home da gab es die Sesef's Optimizations die sind aber schon wieder veraltet oder Seti@home der Lunatics.

    Für Milkyway gibt es keine optimierte Anwendung, aber ich bin auch nicht auf aktuellen Stand.
    Für zwei WUs pro GPU gibt es im Milkyway Forum das Run Multiple WU's on Your GPU. Ich würde für diesen Fall eine app_config.xml nehmen ist einfacher zu erstellen.

    Gruß schilli
    mein Boinc und Folding@Home neu und alt
    meine WCG Badge


  15. Titel
    Neuling

    Bewertung

    Registriert am
    04.05.2018

    Beiträge
    6

    Danke
    Danke gesagt 0   Danke erhalten 0

    #1090

    Standard

    Ich hatte einige Probleme mit MW in der letzten Woche, seit 2 Tagen kriege ich nur noch CPU-WU.
    Um überhaupt WUs zu kriegen, habe ich den Haken bei CPU und GPU in den MW-Einstellungen gesetzt.
    Kann ich gleichzeitig auf CPU und GPU MW rechnen lassen oder schließen sich diese beiden WU-Typen aus?

  16. Avatar von Topper
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    25.09.2017

    Ort
    Hessen

    Beiträge
    539

    Danke
    Danke gesagt 6   Danke erhalten 7

    #1091

    Standard

    Zitat Zitat von zweitaktfan Beitrag anzeigen
    Ich hatte einige Probleme mit MW in der letzten Woche, seit 2 Tagen kriege ich nur noch CPU-WU.
    Um überhaupt WUs zu kriegen, habe ich den Haken bei CPU und GPU in den MW-Einstellungen gesetzt.
    Kann ich gleichzeitig auf CPU und GPU MW rechnen lassen oder schließen sich diese beiden WU-Typen aus?
    Kannste gleichzeitig machen

  17. Avatar von taurec
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    30.06.2008

    Ort
    Allerorten

    Beiträge
    3.862

    Danke
    Danke gesagt 211   Danke erhalten 55

    #1092

    Standard

    Hier meine app_config.xml für Milkyway:

    <app_config>
    <app>
    <name>milkyway</name>
    <max_concurrent>8</max_concurrent>
    <gpu_versions>
    <gpu_usage>0.125</gpu_usage>
    <cpu_usage>0.25</cpu_usage>
    </gpu_versions>
    </app>
    </app_config>
    Ciao taurec


  18. Titel
    Neuling

    Bewertung

    Registriert am
    04.05.2018

    Beiträge
    6

    Danke
    Danke gesagt 0   Danke erhalten 0

    #1093

    Standard

    Ok, dann lasse ich mal rechnen übers Wochenende.
    Ein schönes Ebensolches!


  19. Titel
    Neuling

    Bewertung

    Registriert am
    04.05.2018

    Beiträge
    6

    Danke
    Danke gesagt 0   Danke erhalten 0

    #1094

    Standard

    Zitat Zitat von zweitaktfan Beitrag anzeigen
    Ok, dann lasse ich mal rechnen übers Wochenende.
    Ein schönes Ebensolches!
    Leider kam das ganze WE keine GPU-WU daher.


  20. Titel
    Neuling

    Bewertung

    Registriert am
    04.05.2018

    Beiträge
    6

    Danke
    Danke gesagt 0   Danke erhalten 0

    #1095

    Standard

    Zitat Zitat von zweitaktfan Beitrag anzeigen
    Leider kam das ganze WE keine GPU-WU daher.
    Fehler behoben, Treiber hatte sich verstellt, vielleicht durch Windows-Update war OpenCL inaktiv.
    GPU 0.1 CPU 0.1 356 - 430sec
    GPU 0.25 CPU 0.25 300 sec
    GPU 0.5 CPU 0.5 320sec

    wobei ich ein zu altes Board verwende, demnächst kommt ein aktuelleres.


  21. Titel
    Neuling

    Bewertung

    Registriert am
    23.10.2016

    Beiträge
    4

    Danke
    Danke gesagt 0   Danke erhalten 0

    #1096

    Standard

    Zitat Zitat von zweitaktfan Beitrag anzeigen
    Fehler behoben, Treiber hatte sich verstellt, vielleicht durch Windows-Update war OpenCL inaktiv.
    GPU 0.1 CPU 0.1 356 - 430sec
    GPU 0.25 CPU 0.25 300 sec
    GPU 0.5 CPU 0.5 320sec

    wobei ich ein zu altes Board verwende, demnächst kommt ein aktuelleres.
    Moin moin
    Wie bekommt mann denn OpenCL wieder aktiv ??
    Ich verliere auch immer wieder mal OpenCL .... kann dann kein MM rechnen .... nach paar tagen wenn ich was anderes rechne ist OpenCL wieder da.
    Kann mann irgendwo OpenCL aktievieren ?
    Habe es schon mal http://www.planet3dnow.de/vbulletin/.../429728-OpenCL dort versucht ... vieles ausprobiert , aber so ne richtige lösung habe ich noch nicht gefunden .

    Netten Gruß Manni

  22. Avatar von taurec
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    30.06.2008

    Ort
    Allerorten

    Beiträge
    3.862

    Danke
    Danke gesagt 211   Danke erhalten 55

    #1097

    Standard

    ... hilft wohl meist nur Neuinstallation des Treibers - ich habe bisher noch nichts anderes gefunden ...
    Ciao taurec

Ähnliche Themen

  1. MilkyWay@Home
    Von Доктор Шмурге im Forum MilkyWay@home
    Antworten: 1359
    Letzter Beitrag: 22.09.2019, 21:21
  2. BOINC auf der Grafikkarte
    Von pschoefer im Forum BOINC
    Antworten: 72
    Letzter Beitrag: 17.03.2009, 18:11
  3. Berechnungen für Milkyway@home bitte umgehend stoppen!
    Von aendgraend im Forum Das Hauptforum
    Antworten: 76
    Letzter Beitrag: 02.12.2008, 21:31
  4. externe USB-Grafikkarte
    Von RealSanta im Forum Hardware - Probleme, Tuning, Benchmark usw.
    Antworten: 5
    Letzter Beitrag: 03.02.2008, 14:57

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Single Sign On provided by vBSSO