PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Frage zur Collatz Konfiguration



BockWorscht
11.11.2009, 15:57
.......... Hallo

Ich habe das Problem dass die Grafikkarte immer gleich rechnet bzw. ausgelastet ist, egal wie ich die Auslastung auch einstelle auf der Collatz User Seite. Z.b 20 oder 100 % macht keinen Unterschied, die Einstellungen kommen irgendwie nicht bei Boinc auf meinem Pc an. Ich habe nämlich mal den Haken bei use Gpu rausgenommen, selbst da hat die Karte weitergerechnet, dürfte sie ja eigentlich nicht. Kann mir vlt jemand sagen was zu tun ist?

Major
11.11.2009, 16:01
Hattest Du nach dem ändern der Einstellungen auch den BOINC-Manager aktuallisiert, also deinen Rechner mit dem Projekt verbinden lassen?

BockWorscht
12.11.2009, 05:53
......... hi ........

ja habe ich, sogar mehrmals. :x)

Ich habe mich jetzt erstmal mit einer optimierten app beholfen, dort kann man selber die nötigen Einstellungen wie bei der Ati app von Milkyway vornehmen. Aber wäre schön zu wissen warum das bei der Orginal Collatz nicht ging/geht.


Hinzugefügter Post:

Wohin wende ich mich am besten um das Problem zu beheben? Wenn mein Englisch nicht so schlecht wäre würde ich mich ja mal direkt ans Collatz Forum wenden, wenn es sowas gibt. Oder hat hier noch einer ne Idee wie ich die intensität der Grafikkarte einstellen kann?

Orion7
12.11.2009, 06:20
Morsche.

Ich habe verstanden, dass Du versuchen willst, die Auslastung deiner GraKa zu steuern. Das wars dann aber auch schon.

Aus meiner geringen Erfahrung mit dem Crunchern verstehe ich nicht, was das Problem ist.
Mit dem Tool GPUz sehe ich, dass meine Grakas am Limit rechnen, wohl aber trotzdem nie permanent auf 99% sind sondern während des Crunchens auch mal für eine Sekunde auf unter 85% Auslatung fallen, um dann wieder hoch zu gehen.

Ich nehme an, das hängt auch daran, was die Wu den GPUs gerade abverlangt.

Wie ist denn die Auslastung bei Dir so?

Rechnen bei Dir die Dinger zu langsam oder möchtest Du während dem Crunchen noch etwas anderes machen (z.B. spielen, e-mail, Office oder so)?

Aus meiner Sicht, und vor allem aus der Voreinstellung durch BOINC und durch die normalen Apps sehe ich für mich keinen Grund, irgendwie an der Leistung der GraKas per Software oder wie auch immer herumzuschraiben.

Ich nehme an, dass es vielen Kollegen so geht, wie mir und dass daher so wenig hier antworten.

Es wäre nett, wenn Du dazu noch ein paar Angaben machen würdest. Vielleicht kann dann ja einer der Spezialisten was dazu sagen.

Grüsse
Orion7

SDI
12.11.2009, 06:31
IMHO kannst du derzeit Projekt-unabhängig keine %uale Auslastung deiner Grafikkarte einstellen, das geht nur bei CPUs. Ist aber kein Problem der Projekte, sondern mE von BOINC selbst.

Was du beim Projekt eingestellt hast, ist der Ressource Share, welcher die Rechen-Anteile des Projektes bei der Wahl von mehreren Projekten bestimmt.

Wenn du angepasste Apps nimmst, kannst du bei Collatz und bei Milkyway für die ATI über den "f"-Parameter die Zeit bestimmen, die andere Grafikprozesse erhalten. Lade dir am besten die Apps runter, beiliegende readme erklärt den Umgang damit.

BockWorscht
12.11.2009, 07:03
......... morsche :x):D

doch doch, das soll gehen:

http://img94.imageshack.us/img94/9899/46028290.jpg (http://img94.imageshack.us/i/46028290.jpg/)

und dann:

http://img24.imageshack.us/img24/9741/70915861.jpg (http://img24.imageshack.us/i/70915861.jpg/)

aber.. bei mir tut sich wie gesagt nichts, auch nach langem warten und öfter aktualisieren. Ich habe mich ja erstmal mit der optimierten App beholfen und dort in der app.xml nutze ich den Befehl w << für wait.. so hat die Grafikkarte für andere Dinge zeit. Genau das ist mein anliegen, ich möchte nicht das meine Grafikkarte zu heiß wird, weil ich noch andere Sachen damit machen möchte.

pschoefer
12.11.2009, 07:12
http://img24.imageshack.us/img24/9741/70915861.jpg (http://img24.imageshack.us/i/70915861.jpg/)

aber.. bei mir tut sich wie gesagt nichts, auch nach langem warten und öfter aktualisieren.
Da kann sich auch nichts tun. Die Einstellung dort macht genau das, was da steht: Man kann einstellen, wieviel CPU-Last die grafische Ausgabe (=graphics) maximal verursachen darf. Collatz Conjecture hat allerdings keine grafische Ausgabe/Bildschirmschoner, also ist die Einstellung ohne Wirkung.

BockWorscht
12.11.2009, 07:20
:redface: ich und mein Englisch......... danke für die Info....... :x)

SDI
12.11.2009, 08:14
[...] ich möchte nicht das meine Grafikkarte zu heiß wird, weil ich noch andere Sachen damit machen möchte.

Hast du denn Temperaturprobleme?

Letztendlich arbeitet auch eine GPU Thread-orientiert. Wenn also Collatz die Karte voll auslastet, muss ein anderer Prozess warten, bis er an der Reihe ist. Klar arbeitet die Karte am Limit, aber mit einer gut funktionierenden Kühllösung sollte das kein Problem darstellen.

Die andere Frage ist natürlich, inwieweit die Kartenhersteller von einer Dauerauslastung der Karte durch distributed computing ausgehen (können). Jedoch habe ich bisher nicht das Gefühl, markant höhere Ausfälle in der BOINC-Gemeinde zu sehen. Und da viele eh einen regelmäßigen Aktualisierungs-Prozess am PC starten, ist die Karte ja meist nicht 5 Jahre im Dauereinsatz.

Hier läuft zB eine GTX 260 seit 1 1/2 Jahren im Dauerbetrieb 24/7, der Rechner war nur kurzzeitig für Wartung/Umbau mal ausser Betrieb. Das Teil rennt wie am ersten Tag, hat aber einen manuell draufgefummelten Zusatzlüfter, der direkt von der Seitenwand die SpaWas usw. anpustet.

BockWorscht
12.11.2009, 08:34
........... na die Karte ist beim Collatz crunchen immer so 71 - 74 ° heiß ... nur kann man während dessen ja nichts anderes machen, das werden dann schnell 80 ° das möchte ich meiner Karte nicht zumuten. Aber ich habe ja eine Möglichkeit gefunden durch die optimierte App, dort trage ich in der app_info.xml <cmdline>w3</cmdline> ein und die Karte wird nie heißer als 60 °. Darunter leidet zwar die Geschwindigkeit aber das ist mir egal. Wäre nur schön wenn man ähnliches auch mit der Standardanwendung von Collatz machen könnte.

Zero2Cool
12.11.2009, 09:23
71-74°C sind doch vollkommen okay für eine Graka und schon ein guter Wert unter Last.
Meine alte 8800GTS war im Idle schon bei knapp 60°C und unter Last war sie bei ca. 85°C.

Was heißt du kannst nichts anderes machen???? Was willst du denn nebenbei mit der Graka machen, während sie BOINC rechnet? Gerade Collatz lastet die GPU nicht so stark aus wie Milkyway.

BockWorscht
12.11.2009, 10:04
idle ist meine Karte immer so 58 ° heiß.. ich find das schon verdammt hoch! Ich will z.b ab und zu mal bisschen daddln......

SDI
12.11.2009, 10:22
Dann daddel doch und mach dazu BOINC (aber nur kurzzeitig ;) ) aus...

Die GPUs werden bis über 100 Grad warm und bewegen sich trotzdem noch innerhalb der durch den hersteller erlaubten Toleranz. Deine Temps finde ich auch nicht schlimm...

Zero2Cool
12.11.2009, 11:12
idle ist meine Karte immer so 58 ° heiß.. ich find das schon verdammt hoch! Ich will z.b ab und zu mal bisschen daddln......

Du kannst die Temps der GPU nicht mit denen einer CPU vergleichen!
Für eine GPU sind 80°C unter Last absolut okay, und nichts schlimmes.
Was meinst warum die immer so riesige Kühler haben ;)

Wenn du zu gunsten der Temps auf Leistung verzichten willst, hättest dir ja theoretisch auch eine langsamere und kühlere Karte kaufen können ;)

theage69
12.11.2009, 13:10
Hai,

ich hatte da schonmal ein ähnliches Problem, betr. GPU-crunchen und gleichzeitiger Gpu-Anwendungen.

Vieleicht findest du ja hier (http://seti-germany.de/forum/software-installation-probleme-usw/3479-cuda-anwendung-en-mit-batch-stoppen-wenn-andere-anwendung-atartet.html) eine Anregung.
Es ging darum, per Batchbefehl eine Anwendung (Game) zu starten,
wobei der Batch gleichzeitig die GPU-Arbeit im BOINC einstellt.
Durch die GPU-Arbeit im BOINC hatte ich bei Video-Anwendung (und auch Spielen) Performance-Einbußen.

Der Grund ist aber seit upgrade auf (über) BOINC 6.x.x bei mir hinfällig geworden.

BockWorscht
12.11.2009, 13:14
jau....... das daddeln ist wirklich grottig.. man hat nur Frameeinbrüche. So oft spielt man ja auch nicht am Pc, man ist ja keine 16 mehr. :D :x)

Zero2Cool
12.11.2009, 15:10
Wenn BOINC auf der GPU läuft wird die Leistung halt hauptsächlich für BOINC verwendet, ist halt nicht so wie bei der CPU, wo BOINC dann einfach weniger Leistung bekommt.

Zum daddeln sollte man das GPU-crunchen also lieber stoppen :-/

BiancaW
12.11.2009, 15:22
Kann mich täuschen aber glaube die gewünschten Funktionen sind im Tool TThrottle (http://www.efmer.eu/boinc/) integriert.

Bianca

SoEinWahnsinn
12.11.2009, 15:33
Warum taktest du die Karte nicht einfach etwas runter oder den Lüfter etwas herauf? Wenn dich die Temperaturen wirklich so stören, gibt mehr als genug Tools dafür.

BockWorscht
12.11.2009, 17:28
........ runtertakten is nich :rolleyes: dazu habe ich zu wenig Power, ich spiele z.b NFS Shift das macht die Karte gerade so mit voller Taktung. Ich mache einfach aus wenn ich daddl ist wohl das beste. Das Tool werde ich mir trotzdem mal ansehen... danke!

Zero2Cool
12.11.2009, 18:45
Was ist es denn für ne Karte? Gibt ja auch verschiedene Tools wo man halt verschiedene Profile anlegen kann.

z.B. ein BOINC Profil mit nicht ganz max. Leitung und ein zweites Profil für Spiele mit max.Leistung.

Ist nur ne Idee :)

BockWorscht
13.11.2009, 05:43
moin.....

.... ist ne ati 4870 1Gb ..... das ist allerdings auch noch eine gute Idee, kann man sicher mit dem Ati Tray Tool machen. :x)

AgentSchatten
13.11.2009, 13:41
Schwache Karte sagt er ;) Ausser der HD5xxx und den Nvidia x2 Karten gibt es doch momentan nix stärkeres. Sogar die 4890 ist nicht wirklich schneller, sondern nur eine gut übertaktete 4870.

Zero2Cool
13.11.2009, 14:07
Die nvidia x2 Karten gibts ja auch schon ewig *g*

BockWorscht
13.11.2009, 18:52
nee nee schwache Karte nicht direkt.. aber die 4870 ist bei den meisten modernen Games nicht mehr der Renner ^^

proteino.de
13.11.2009, 23:02
Ordentlich übertakten und gut kühlen, dann sollten auch anspruchsvolle Spiele noch ein Weilchen gehen ;)

Oder orga Dir halt die alten Knaller, wie z.B. NetHack (http://www.nethack.org/common/index.html) - falls Dir die Konsolengrafik nicht gefällt, gibt's dazu sogar echte 2D-, pseudo-3D- (http://users.tkk.fi/jtpelto2/nhfeatures.html#SCREENSHOTS) und sogar echte 3D-Aufsätze (http://sourceforge.net/projects/nethack/) :D Da reicht dann sogar ein alter Pentium für und bei Bedarf gibt es das Game sogar für Smartphones - ich glaub, jetzt muss ich hier aber schnell weg ^^

BockWorscht
14.11.2009, 09:56
der Pc inklusive Grakarte ist knappes Jahr alt.... ich übertakte grundsätzlich nichts vor Ablauf der Garantie.

[SG] Harald_(Charly)
14.11.2009, 14:58
Und?
Hab hier auch direkt nach dem Kauf das Nt gewechselt, ne zusätzliche HDD eingebaut, und die GraKa ausgetauscht..

No risk, no fun.. :D

BockWorscht
15.11.2009, 08:18
......... da schraube ich aber lieber die Grafikdetails runter/zurück als das ich übertakte. :x)

Zero2Cool
15.11.2009, 10:10
Weiß ja nicht was du so spielst, aber ich denke doch das die Karte für wirklich jedes aktuelle Spiel ausreichend ist ;-) Oder ist deine CPU einfach zu langsam? :)

BockWorscht
15.11.2009, 14:08
........na bei Nfs Shift z.b da kommt die Karte schon ins schwitzen. Ich rede hier aber von konstanten Frames per Second. Das die Spiele alle laufen ist wohl richtig. Die Cpu ist eine i7 920... reicht zum spielen.

Zero2Cool
15.11.2009, 14:13
Naja, genau das ist ein sehr schlechtes beispiel weil EA Spiele meistens mit Nvidia Unterstützung erstellt werden, weshalb Shift auf ATI Karten allgemein schlechter läuft. Habe aber schon von einem neuen Beta-Treiber gehört der gerade bei Shift bis zu 25% schneller sein soll.

BockWorscht
15.11.2009, 14:26
Oh... hast du dazu mal eine Quelle? Ja stimmt Nvidia wird oft leicht bevorzugt, schade immer. :x)

[SG] Harald_(Charly)
15.11.2009, 14:44
Habe aber schon von einem neuen Beta-Treiber gehört der gerade bei Shift bis zu 25% schneller sein soll.
Kann sich dann aber nur um nen GeForce handeln.. :wink-new:
(Bin grad mal die HW-News der letzten Tage/Wochen duchgegangen.. konnte da aber nix über nen AMD/ATI-BETA-Treiber finden..)

Nvidia:
Der letzte aktuelle WHQL-zertifizierte ist der 191.07 der 195.39 BETA gibt richtig Gas.. :cool-new:
Aber das bringt unserem BockWorscht ja nix.. :biggrin:

ATI:
Wählen, ziehen, installieren -> http://support.amd.com/de/gpudownload/Pages/index.aspx
Kann dir nicht sagen, ob du den einfach "drüberbügeln" kannst, oder ob du den alten zuerst deinstallieren musst, da ich noch keine ATI hatte..
(Bei Nvidia kann ich einfach "drüberbügeln".)

UL1
15.11.2009, 14:56
Kann dir nicht sagen, ob du den einfach "drüberbügeln" kannst, oder ob du den alten zuerst deinstallieren musst, da ich noch keine ATI hatte..
Einfach drüberbügeln...klappt in 99,999999999% der Fäle...

BockWorscht
15.11.2009, 16:00
........ vlt hat Ati ja irgendwann mal einen anderen Status und es gibt dann für Nvidia Karten keine Unterstützung. :D

Zero2Cool
15.11.2009, 16:46
http://forums.guru3d.com/showthread.php?t=308760

[SG] Harald_(Charly)
15.11.2009, 16:56
:blink: uups..

Hätten im oberen Shot ne 295er gegen die 5870er antreten lassen sollen.. :dry:

Naja.. hab auch nur die offiziellen Hersteller-News durchforstet.. :o

proteino.de
15.11.2009, 17:47
Zum Thema "Drüberbügeln" bei ATI: habe ich bisher immer so gemacht, funzte problemlos. In früheren Versionen hatte man dann aber alle möglichen älteren Treiberversionen noch unter C:/ATI zu liegen - hab grad mal nachgeschaut und der 9.10er Treiber scheint da aufgeräumt zu haben oder war ich das doch selbst? :rolleyes:

Sysadm@Nbg
16.11.2009, 16:11
Mal wieder ne NVidia-Collatz-Linux6bit-PowerApp-Frage:

Unter Last (sprich alle 4 Cores zu 100% auf CPU-Workunits) verlängert sich die Zeit für eine Collatz-GPU-Workunit extrem, nimmt man einen Core raus, verkürzen sich sofort die Laufzeiten.
Scheint also die Karte ned ausreichend Speicher/CPU-Zeit zum füttern zu bekommen.
Ein renice des Collatz-Tasks bis hinauf in die Systemtaskbereiche (-5) ändert daran überhaupt nix.

Gibt es evtl. ander cmdline-Parameter, die hier eine positive Wrkung zeigen könnten ???

UL1
16.11.2009, 17:10
Bin mir nicht zu 100% sicher, dass es so klappt, aber Du könntest über die cc_config den PC dazu bringen, dass er 5 Cores nutzt. Würde zwar die Rechenzeiten der CPU-WUs verlängern, aber die GPU sollte das dafür dann mit normalen Rechenzeiten goutieren... ;)

Sysadm@Nbg
16.11.2009, 17:55
Bin mir nicht zu 100% sicher, dass es so klappt, ...
Du kannst dir jetzt sicher sein, dass es so nicht klappt. :shocked:

Bin bei ca 70% der Collatz-WU von 4 cores auf ncpu=5; die CPU-Limitierung hab ich so angepasst, dass 4 cores genutzt werden.

Der Effekt ist der selbe, wie vorher

alle cores belegt, collatz gönnt sich regelmäßg seine Zeit aufgrund der höheren Priorität (Standard bei GPU-Apps, auch wenn man den README aus den ATI-Win-powerApp trauen kann ;) )
leider aber auch ein größerer Verbrauch an
RUN-time (2,143.93 --> 3,482.28) und
CPU-time (20.98 --> 35.35)


Fazit: die Simulation eines 5. cores bringt faktisch gar nix, da er trotzdem alle cores CPU-mäßig belegt und Collatz ned ausreichend abbekommt. Ich geh dann wieder runter auf 4 cores und limitiere die CPU-Nutzung auf 3.

Hat jemand noch andere Vorschläge ???

SoEinWahnsinn
16.11.2009, 18:08
Falls es das bei der Linuxapp gibt? :undecided:

würde ich es mit "w" kleiner 1.0 versuchen.


Wait factor: w (default 1.0)
The app tries to release the CPU during the the GPU computations. It does so by predicting
the runtime for the GPU calls and send the CPU thread to sleep for that time. One can manually
correct the prediction of the application with this factor. When raising it, the CPU thread
sleeps longer, decreasing the value will lead to a faster wakeup of the thread. After that time,
the polling of the GPU starts. Setting this value to 0.0 turns off the release of the CPU.
Default is of course a value of 1.0. If you see a low GPU load, you can try to decrease it (if
you have a load of 80%, set it to 0.8). If you see a high CPU load, a slight increase of this
value may help. Increase it too much and it will affect the crunching speed. You could use this
for throttling of the GPU in case the high GPU load leads to a very sluggish behaviour of the
user interface or even VPU recover events. Setting w1.1 could improve the situation (see also
the f, b and p options).

Sysadm@Nbg
16.11.2009, 18:27
Falls es das bei der Linuxapp gibt? :undecided:
"<cmdline>" war bislang nicht vorgesehen / jetzt ist es drinnen und -o Wunder- läuft :rolleyes:

würde ich es mit "w" kleiner 1.0 versuchen.
"w0.9" hab ich mal als Wert gewählt und hab vom prozentualen Verbrauch im Boinc-Manager keinen Einbruch :thumbup:
Schaun mer mal worauf es hinausläuft, denn ich hab noch parallel wie im Linux-Power-App-Fred (http://boinc.thesonntags.com/collatz/forum_thread.php?id=127&nowrap=true#3635) angegeben in der cc_config das "<no_priority_change>1</no_priority_change>"-Flag gesetzt

UPDATE:
RUN-Time 2,143.93 --> 1,933.49
CPU-Time 20.98 --> 22.65

mal schaun ob sich das stabilisiert ...

UPDATE2:
zu früh gefreut:

ignoring unknown input argument in app_info.xml: w0.9
aber wieso war die jetzt so schnell ???
mal checken ob das evtl ein resend war ... bestätigt (die collatz-Seite war mal ausnahmsweise im ersten Versuch zu erreichen) created 1 Nov 2009 11:59:48 UTC << das war noch vor der Verlängerung imho