PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : MilkyWay auf nVIDIA GPUs



Dirk
18.06.2010, 20:55
In den Projekteinstellungen von MilkyWay kann man für nVIDIA GPUs einen bestimmten Wert einstellen:

-------------------------------------------------
Amount of concurrent blocks (NVIDIA GPUs Only)
Higher values lead to shorter completion times at the expense of interface lag (1 .. 50000, default is 128)
-------------------------------------------------

128 ist voreingestellt.

Was bedeutet das eigentlich?
Bei Erhöhung dieses Wertes verringert sich die Berechnungszeit?

Hat das jemand schon mal ausprobiert?

Was für ne GPU - und welchen Wert habt Ihr, damit die WUs auch erfolgreich berechnet werden?

Ich hab zur Zeit bei MilkyWay nen E7600 @ 2 x 3.06 GHz + Hersteller OCed GTX260-216 @ 680/1500/1250 MHz [Core/Shader/RAM] (GIGABYTE GTX260 SOC).

Ich hab den Monitor an der onboard GPU angeschlossen.
Die GTX260-216 macht nur CUDA.
Also sollten eigentl. keine Probleme entstehen.. langsame Anzeige, usw. ..
Das is doch mit 'expense of interface lag' gemeint, oder? Oder ist die PCIe Schnittstelle gemeint?


Danke! :)

PinQuin
19.06.2010, 00:42
In den Projekteinstellungen von MilkyWay kann man für nVIDIA GPUs einen bestimmten Wert einstellen:

-------------------------------------------------
Amount of concurrent blocks (NVIDIA GPUs Only)
Higher values lead to shorter completion times at the expense of interface lag (1 .. 50000, default is 128)
-------------------------------------------------
Diese Frage hatte ich auch schon mal gestellt: siehe http://www.seti-germany.de/forum/milkyway-home/2859-milkyway-und-grafikkarte-40.html#post151918 ... die Lösung dafür findest du einen Post darunter. :x)

Dirk
19.06.2010, 12:20
Ich hab die voreingestellten 128 aber auch 50.000 versucht.
Aber an der Geschwindigkeit der Berechnung hat sich nix geändert. :undecided:

Welche 'blocks' sind denn eigentl. gemeint?
Viell. muß man den richtigen Wert der Grafikkarte nehmen?

GTX260-216 - GT200b, 55nm:
Shader? 216.
CUDA Cores? 27.
ROPs? 28.
Shader-Cluster? 9.
Texture units? 72.
Fillrate Pixel (GP/s) - 16.128.
Fillrate Texture (GT/s) - 41.472.

Welchen Wert müßte ich denn da nehmen? http://www.cheesebuerger.de/images/smilie/konfus/n065.gif


Welche GPUs habt Ihr und welchen Wert? Veränderung der Berechnungsgeschwindigkeit?

MichaelR
03.12.2010, 16:49
neues von MW:

News (http://milkyway.cs.rpi.edu/milkyway/)

OpenCL for Nvidia available for testing
The OpenCL application for Nvidia GPUs is ready for testing for Windows and Linux x86_64. I'm particularly interested in the performance / responsiveness tradeoff on mid-low range GPUs. Many thanks to cncguru for donating his GTX 480. If I hadn't had it, it would be about 30% slower than it is.

OpenCL für Nvidia steht zumTesten zur Verfügung.
Die OpenCL Anwendung für Nvidia-GPUs ist bereit für die Prüfung für Windows und Linux x86_64. Ich bin vor allem an einem Kompromiss der Leistung / Ansprechverhalten für GPUs auf niedrigem mittleren Bereich interessiert. Vielen Dank an cncguru für die Spende seiner GTX 480. Wenn ich die nicht hatte, wäre es etwa 30% langsamer.

Gruß Michael,

sorry für die schauerliche übersetzung

Quorra
22.02.2011, 22:49
neues von MW:

News (http://milkyway.cs.rpi.edu/milkyway/)

OpenCL for Nvidia available for testing
The OpenCL application for Nvidia GPUs is ready for testing for Windows and Linux x86_64. I'm particularly interested in the performance / responsiveness tradeoff on mid-low range GPUs. Many thanks to cncguru for donating his GTX 480. If I hadn't had it, it would be about 30% slower than it is.

OpenCL für Nvidia steht zumTesten zur Verfügung.
Die OpenCL Anwendung für Nvidia-GPUs ist bereit für die Prüfung für Windows und Linux x86_64. Ich bin vor allem an einem Kompromiss der Leistung / Ansprechverhalten für GPUs auf niedrigem mittleren Bereich interessiert. Vielen Dank an cncguru für die Spende seiner GTX 480. Wenn ich die nicht hatte, wäre es etwa 30% langsamer.

Gruß Michael,

sorry für die schauerliche übersetzung

Hallo Michael,

läuft dieser Test paralell zu http://milkyway.cs.rpi.edu/milkyway_gpu/

Ich habe nur eine NVIDIA GeForce GT 240M, welche sonst für MW nicht geeignet war. Diese News sind eine Lichtblick für mich.

Saenger
22.02.2011, 23:00
Ich habe nur eine NVIDIA GeForce GT 240M, welche sonst für MW nicht geeignet war. Diese News sind eine Lichtblick für mich.

Das Problem mit der 240 ist nicht Cuda, sondern fehlende doppelte Genauigkeit, die wird durch Einführung einer anderen Programmiersprache, also OpenCL, auch nicht beseitigt. Da werden wir wohl weiter Pech haben (ich hab 'ne GT240):sad:

Quorra
23.02.2011, 05:34
Das Problem mit der 240 ist nicht Cuda, sondern fehlende doppelte Genauigkeit, die wird durch Einführung einer anderen Programmiersprache, also OpenCL, auch nicht beseitigt. Da werden wir wohl weiter Pech haben (ich hab 'ne GT240):sad:

:sad: :sad: Danke für die Info Saenger :sad:

eXplorer776
23.02.2011, 08:24
Ich habe mir mal die Wiki durchgelesen und MW auf meiner GTX260 laufen lassen ...

Es werden alle Pakete mit Berechnungsfehler abgebrochen ... habe ich etwas übersehen ?? Von opt. Apps habe ich zum Beispiel nichts gelesen.

Danke im vorraus

Elrond
26.02.2011, 14:19
Ich habe
- erstens nicht viel Ahnung und
- zweitens offensichtlich dasselbe Problem ( nachdem es einige Wochen bei MW reibungslos lief ),
die Wus werden schon nach kurzer Zeit wegen Berechnungsfehlern abgebrochen, die Kiste schmiert mir ab und ich habe momentan keine Lust mehr auf MW und bin zu WCG gewechselt, wo die GPU allerdings offensichtlich nicht mitbenutzt werden kann.
Gruß an alle
Martin

MichaelR
26.02.2011, 15:38
Die Nvidias sind momentan bei PG im Unterprojekt:Proth Prime Search (Sieve) am besten aufgehoben.
lies dir mal im PG-Forum (http://www.seti-germany.de/forum/primegrid/4320-proth-prime-search-5.html#post181784) den entsprechenden Tread durch.
Gruß Michael

eXplorer776
27.02.2011, 13:22
Danke Dir ... auf meinem Läppi habe ich es schon eingerichtet und am Großen werde ich es die nächsten Tage machen .

Dennoch bleibt die Frage warum ständig Fehler auftauchen ...

taurec
22.04.2011, 21:39
Hallo Leute :)
da wir ja bei Milkyway demnächst vor einem Platzverlust stehen, wollte ich meine nvidia GTX 295 (2 GPUs) bei dem Projekt auch mal einbringen.
Mein Problem:
- rechne ich 2 Milkways gleichzeitig, werden diese zwar durchgecruncht, jedoch endet eine immer mit Berechnungsfehler.
- rechne ich z.B. eine GPU-Grid- WU und eine Milkyway-WU gleichzeitig, gibt es keine Probleme.
Hat jemand vielleicht einen Hinweis für mich? Wäre sehr dankbar :D

Uwe-Bergstedt
22.04.2011, 21:53
Hallo Leute :)
da wir ja bei Milkyway demnächst vor einem Platzverlust stehen, wollte ich meine nvidia GTX 295 (2 GPUs) bei dem Projekt auch mal einbringen.
Mein Problem:
- rechne ich 2 Milkways gleichzeitig, werden diese zwar durchgecruncht, jedoch endet eine immer mit Berechnungsfehler.
- rechne ich z.B. eine GPU-Grid- WU und eine Milkyway-WU gleichzeitig, gibt es keine Probleme.
Hat jemand vielleicht einen Hinweis für mich? Wäre sehr dankbar :D

den Tip hätte ich auch gerne :rolleyes:
habe das Selbe Problem,aber bis jetzt kam noch keine Brauchbare Lösung

bei mir läuft deshalb SETI auf der GTX295--gibt beim Rechnen keine Probleme, nur der Download ist Glückssache,
primeGrid geht auch Problemlos

Uwe

wadnatze
24.04.2011, 08:44
Hallo zusammen,

mal zwei Fragen von einem Laien.

Habe heute, als Versuch, Milkyway auf meiner GTX 460 (768 MB) laufen lassen. Mit Afterburner sind folgende Werte eingestellt:

Core Voltage: 1,012 mV (habe ich nicht geändert)
Core Clock: 780 MHz (war auf 725 MHz)
Shader Clock: 1560 MHz (war auf 1450 MHz)
Memory Clock: 2000 MHz (war auf 1800 MHz)

Die Temp. liegt bei 55° C.
Laufzeit lag bei 12 min 46 sec

1. Ist die Laufzeit in Ordnung?
2. Wie hoch liegt die Grenze bei den Einstellungen von Core Voltage, Core Clock, Shader Clock und Memory Clock, wo die GraKa noch sicher läuft? Nur damit ich mal einen Eindruck bekomme.

Gruß, wadnatze


Hinzugefügter Post:

Und noch eine Frage.

Die GPU-Auslastung beträgt 61%, wie kann ich 2 WU's berechnen?

Acid303
24.04.2011, 17:55
Zu den Laufzeiten kann ich dir leider nichts sagen, meine ATI cruncht 2 wu´s gleichzeitig in etwas mehr als 6 Minuten aber bei MW ist das dann so als würde man Äppel mit Birnen vergleichen in bezug auf ATI / Nvidia. ;)



2. Wie hoch liegt die Grenze bei den Einstellungen von Core Voltage, Core Clock, Shader Clock und Memory Clock, wo die GraKa noch sicher läuft? Nur damit ich mal einen Eindruck bekomme.

Das kann man nie genau sagen, kommt immer auf die Karte an. Core Voltage liegt die Grenze etwa bei 1,1V aber eher noch darunter. Da muss man sich vorsichtig rantasten. Bei den Shadern könnten evtl. 1650 bis 1800MHz drin sitzen, beim Speicher ist meist bei 2100 bis 2200 MHz schluß. Da gilt aber auch rantasten ist Pflicht. leicht erhöhen und dann die Karte belasten, aber nicht mit MW sondern Benchmarks, grafisch aufwendige Spiele, Furmark u.ä.


Die GPU-Auslastung beträgt 61%, wie kann ich 2 WU's berechnen?

Dafür brauchst du eine app_info.xml die du in den Milkyway Ordner unter ProgramData\BOINC packen musst. Ich poste dir mal meine für ATI, die müsste man dann für NVIDIA anpassen.


<app_info>
<app>
<name>milkyway</name>
</app>
<file_info>
<name>milkyway_0.62_windows_intelx86__ati14.exe</name>
<executable/>
</file_info>
<app_version>
<app_name>milkyway</app_name>
<version_num>62</version_num>
<plan_class>ati14</plan_class>
<flops>1.0e11</flops>
<avg_ncpus>0.1</avg_ncpus>
<max_ncpus>0.1</max_ncpus>
<coproc>
<type>ATI</type>
<count>0.5</count>
</coproc>
<cmdline>-r2</cmdline>
<file_ref>
<file_name>milkyway_0.62_windows_intelx86__ati14.exe</file_name>
<main_program/>
</file_ref>
</app_version>
</app_info>

Gruß

Acid

wadnatze
24.04.2011, 23:26
@Acid303,

danke für die App_info. Bis zum erstenDrittel kann ich nachvollziehen was ich ändern müßte. Dann wirds aber schwierig für mich.
Vieleich hat ja jemand eine die schon fertig ist.

Acid303
25.04.2011, 19:20
Ich denke jetzt mal wenn du das rot markierte entsprechend anpasst sollte das reichen. Versprechen kann ich da natürlich nix. ;)


<app_info>
<app>
<name>milkyway</name>
</app>
<file_info>
<name>milkyway_0.62_windows_intelx86__ati14.exe</name>
<executable/>
</file_info>
<app_version>
<app_name>milkyway</app_name>
<version_num>62</version_num>
<plan_class>ati14</plan_class>
<flops>1.0e11</flops>
<avg_ncpus>0.1</avg_ncpus>
<max_ncpus>0.1</max_ncpus>
<coproc>
<type>ATI</type>
<count>0.5</count>
</coproc>
<cmdline>-r2</cmdline>
<file_ref>
<file_name>milkyway_0.62_windows_intelx86__ati14.exe</file_name>
<main_program/>
</file_ref>
</app_version>
</app_info>

wadnatze
26.04.2011, 19:29
Habe die App mal abgeändert. Gibt aber nur Berechnungsfehler.

Was mag wohl falsch sein?

<app_info>
<app>
<name>milkyway</name>
</app>
<file_info>
<name>milkyway_0.52_windows_intelx86__cuda_opencl.exe</name>
<executable/>
</file_info>
<app_version>
<app_name>milkyway</app_name>
<version_num>52</version_num>
<plan_class>cuda_opencl</plan_class>
<flops>1.0e11</flops>
<avg_ncpus>0.1</avg_ncpus>
<max_ncpus>0.1</max_ncpus>
<coproc>
<type>CUDA</type>
<count>0.5</count>
</coproc>
<cmdline>-r2</cmdline>
<file_ref>
<file_name>milkyway_0.52_windows_intelx86__cuda_opencl.exe</file_name>
<main_program/>
</file_ref>
</app_version>
</app_info>

SoEinWahnsinn
27.04.2011, 06:06
das -r2 muss auf jeden Fall raus.

wadnatze
27.04.2011, 08:45
@SoEinWahnsinn

Ganz raus die Zeile oder durch etwas anderes ersetzen?

SoEinWahnsinn
27.04.2011, 16:28
<cmdline></cmdline>

das reicht für den Anfang, vielleicht brauchst du das mal für andere Parameter. -r2 ist jedenfalls für ATI/AMD Karten...
Ob es eine sinnvolle/wichtige Parametrierung für die Nvidia gibt entzieht sich meiner Kenntnis, da ich ausschließlich AMD einsetze ;)

wadnatze
27.04.2011, 18:15
<cmdline></cmdline> bereinigt.

1. Versuch:
WU's sind durchgelaufen, gemeldet mit Berechnungsfehler. Haben auch zusammen einen CPU-Kern belegt.

2. Versuch:
Die beiden Zeilen <avg_ncpus>0.1</avg_ncpus> und <max_ncpus>0.1</max_ncpus> auf 0.05 geändert. WU's sind durchgelaufen und validiert.

Werde mal weiter beobachten.

Mein Dank an Acid303 und SoEinWahnsinn

Remedin
22.10.2011, 12:45
Das Problem mit den Berechnungsfehlern auf den Nvidia Karten liegt wahrscheinlich am Fehlenden double precise das soweit ich weiß bist dato nur die ATI Karten können.
würde meine GTX 260 auch lieber was sinnvolles rechnen lassen anstatt primegrid -.-

wadnatze
22.10.2011, 13:01
Das Problem mit den Berechnungsfehlern auf den Nvidia Karten liegt wahrscheinlich am Fehlenden double precise das soweit ich weiß bist dato nur die ATI Karten können.
würde meine GTX 260 auch lieber was sinnvolles rechnen lassen anstatt primegrid -.-

Mit meiner GTX 460 kann ich Milkyway rechnen. Es ging bei der App nur um Einstellungen für eine zweite WU, da die Auslastung nur bei ca. 60% mit einer WU war.

Gruß, wadnatze

pilotpirx
22.10.2011, 13:06
habe 2x gtx 260 und die haben bei Milkyway über eine mio gerechnet, ohne irgendwelche Probleme

pschoefer
22.10.2011, 17:11
Das Problem mit den Berechnungsfehlern auf den Nvidia Karten liegt wahrscheinlich am Fehlenden double precise das soweit ich weiß bist dato nur die ATI Karten können.
Double Precision steht auf NVIDIA-Karten ab Compute Capability 1.3 zur Verfügung, also auf GTX 2xx und allen Fermi-Karten, sowie den vergleichbaren Quadros und Teslas (vgl. http://developer.nvidia.com/cuda-gpus). Ferner nutzt MilkyWay@home für die NVIDIA-App OpenCL, was aber auch jeder halbwegs aktuelle Treiber mitbringt.

Remedin
22.10.2011, 19:13
gut zu wissen ;)
bringt aber wahrscheinlich nicht wirklich was mit ner nvidia milky zu rechnen oder?

Acid303
23.10.2011, 07:03
gut zu wissen ;)
bringt aber wahrscheinlich nicht wirklich was mit ner nvidia milky zu rechnen oder?

Nicht wirklich, und wenn du auf credits aus bist schon mal garnicht. MW ist einfach DAS Projekt für die ATIs. Die nVidias stinken da im Vergleich einfach nur ab. Damit will ich nicht sagen daß man mit einer nVidia nicht MW rechnen kann, aber da gibt es bessere Projekte. Prime Grid zum Beispiel.

phaeton57
23.10.2011, 12:39
Nicht wirklich, und wenn du auf credits aus bist schon mal garnicht. MW ist einfach DAS Projekt für die ATIs. Die nVidias stinken da im Vergleich einfach nur ab. Damit will ich nicht sagen daß man mit einer nVidia nicht MW rechnen kann, aber da gibt es bessere Projekte. Prime Grid zum Beispiel.
PrimeGrid ist auch nicht mehr so lukrativ besser ist

http://boinc.freerainbowtables.com/distrrtgen/


Gruss phaeton57

HeNiNnG
23.10.2011, 20:55
PrimeGrid ist auch nicht mehr so lukrativ besser ist

http://boinc.freerainbowtables.com/distrrtgen/


Gruss phaeton57

Der link sagt mir aufm Handy:


Unable to connect to database - please try again laterError: 2002Can't connect to local MySQL server through socket '/tmp/mysql.sock' (61)

phaeton57
23.10.2011, 21:02
Seite ist zur Zeit nicht erreichbar :confused-new:

Gruss phaeton57:x)

Remedin
30.10.2011, 13:11
PrimeGrid ist auch nicht mehr so lukrativ besser ist

http://boinc.freerainbowtables.com/distrrtgen/


Gruss phaeton57

danke für den tipp ;)
hab das gefühl dass das die graka's mehr stresst als primegrid, kann das sein?^^

mal ne andere Frage:
wieviel Credz/tag kann ich mit einer 5870 von Milky erwarten wenn sie voll durchrechnet udn immer arbeit da ist?
hab zz immer nur um die 80k am tag, hab aber das gefühl dass oft keine arbeit da ist
mein kumpel hat ne 4850 und hat ähnliche creditwerte am tag

Acid303
30.10.2011, 14:12
danke für den tipp ;)
hab das gefühl dass das die graka's mehr stresst als primegrid, kann das sein?^^

mal ne andere Frage:
wieviel Credz/tag kann ich mit einer 5870 von Milky erwarten wenn sie voll durchrechnet udn immer arbeit da ist?
hab zz immer nur um die 80k am tag, hab aber das gefühl dass oft keine arbeit da ist
mein kumpel hat ne 4850 und hat ähnliche creditwerte am tag

Also bei mir rechnet eine 5850 durchgehend MW und ich komme im Schnitt so auf 120k am Tag (manchmal auch weniger). Allerdings laufen bei mir 2 WUs parallel auf der GPU.

dany
27.06.2012, 13:33
Hat jemand Erfahrungen mit GTX6** bei Milkyway machen können? Fände ich mal ganz interessant, da ich mir dämnächst ein solches Schätzchen zulegen möchte :x)

Dr. Frank-N-Furter
27.06.2012, 18:42
Hat jemand Erfahrungen mit GTX6** bei Milkyway machen können? Fände ich mal ganz interessant, da ich mir dämnächst ein solches Schätzchen zulegen möchte :x)

funktioniert - sozusagen. performance ist genau auf dem projekt allerdings unterirdisch.

wenn du GPUgrid oder POEM magst, ein fettes JA.

dany
28.06.2012, 12:15
funktioniert - sozusagen. performance ist genau auf dem projekt allerdings unterirdisch.

wenn du GPUgrid oder POEM magst, ein fettes JA.

Schön zu wissen, danke :) Wie groß ist ungefähr der Performancezuwachs gegenüber einer GTX580 bei GPUgrid?

Dr. Frank-N-Furter
28.06.2012, 18:32
Schön zu wissen, danke :) Wie groß ist ungefähr der Performancezuwachs gegenüber einer GTX580 bei GPUgrid?

schwer zu sagen - da müsstest du mal bei denen im forum fragen. sicher ist, das sie deutlich weniger strom braucht.

Gattorantolo
28.08.2012, 00:00
Hat jemand Erfahrungen mit GTX6** bei Milkyway machen können? Fände ich mal ganz interessant, da ich mir dämnächst ein solches Schätzchen zulegen möchte :x)
Ist nicht zu empfehlen, mit ATI GPU HD7970: 1 minute Rechnerzeit mit Nvidia GTX680 mehr als 10...!