PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVidia GPUs



Seiten : [1] 2

RealSanta
12.11.2009, 22:26
Hoi Ihrs...

postet doch hier eure Erfahrungen rund um die NVidia-GPUs bei CC...

So können wir bestimmt noch mehr aus den Erfahrungen aller profitieren.

Einen entsprechenden Thread für die ATI's (http://seti-germany.de/forum/collatz-conjecture/3755-ati-gpus.html)erstelle ich gleich noch, so haben wir immer schön den Über- & Durchblick.


bis denne RS

Sirad
12.11.2009, 23:01
Hmmm erfahrungen ?

also, meine erfahrungen betreffs Nvidia-Gpus sind wie folgt.

CC scheint die Karten nicht so in anspruch zu nehmen wie andere Projekte (ich hab im gegensatz zu Seti 5° Celsius niedrigerere wassertemperatur) ausserdem gehen alle anderen Funktionen der Grafikkarte im 2-D Modus einwandfrei (Videowiedergabe von Filmen, spielen etc) also der Rechner läuft absolut Flüssig nebenher, kein lag wie bei seti.

Auch ist der cpu-Bedarf der anwendung echt minimal, testweise konnte sogar ein 2.6er singlecore celeron meine 3 stück 9800 GX2 (6x g92) ohne Probleme bedienen.

Hier der vergleich:

Standard 3x Asus EN9800GX2 Default core 600 Shader 1500

läuft Stabil @ 800 Core/2000 Shader Collatz

läuft Stabil @ 780 Core/1950 Shader Seti

RealSanta
12.11.2009, 23:16
Danke @ Sirad :thumbup:

@ all:

...mal eine Frage bzgl. GeForce 9600M GT ... gibts da nun eigentlich schon einen Treiber, der als Minimalanforderung für CC zugelassen wird... würde gern mit dem Schleppi auch noch ein paar credits beisteuern.


bis denne RS

[SG] Harald_(Charly)
13.11.2009, 08:09
@ all:

...mal eine Frage bzgl. GeForce 9600M GT ... gibts da nun eigentlich schon einen Treiber, der als Minimalanforderung für CC zugelassen wird... würde gern mit dem Schleppi auch noch ein paar credits beisteuern.


bis denne RS

195.39 Beta vom 30.10.09 -> http://www.nvidia.de/Download/Find.aspx?lang=de

Guck aber VOR dem download nach, ob dein Läppi nicht in der Liste der nicht unterstützten Produkte steht..

Hinweis:
Folgende Notebooks werden von dieser Version nicht unterstützt:

1. Hybrid-SLI-Notebooks (Unterstützung in einer zukünftigen Version):
Acer Aspire 7530
BenQ Joybook S42
Fujitsu Siemens Amilo Xi 3650M
MSI EX630
Qosmio X305-Q706
Qosmio X305-Q708
2. Fujitsu Notebooks (wenden Sie sich an den Notebook-Hersteller, um Treibersupport für diese Notebooks zu erhalten)
3. Sony VAIO Notebooks (wenden Sie sich an den Notebook-Hersteller, um Treibersupport für diese Notebooks zu erhalten)

Die Liste ist vom XP-Treiber.. dürfte aber bei Viasta und Win7 das Gleiche sein..

RealSanta
13.11.2009, 09:32
195.39 Beta vom 30.10.09 -> http://www.nvidia.de/Download/Find.aspx?lang=de

Guck aber VOR dem download nach, ob dein Läppi nicht in der Liste der nicht unterstützten Produkte steht..

Die Liste ist vom XP-Treiber.. dürfte aber bei Viasta und Win7 das Gleiche sein..

Hoi Harald..

DANKE Dir.. :thumbup:

... ist ja sozusagen "brandaktuell".. hatte es schon aufgegeben dort nachzuschauen.. teste ich dann heute abend @ home gleich aus.


bis denne RS

Timmy2k4
14.11.2009, 17:31
Also meine Geforce 8000ultra läuft zuverlässig stabil, natürich nicht mit dem output aktueller grafikkarten^^

edit: was sind das bitte denn für notebooktreiber.....wieso diese nicht fü alle gtx280m beispielsweise gedacht sind....achja...herrlich^^

Ich erweitere die Liste mal:

Folgende Notebooks werden von dieser Version nicht unterstützt:

Clevo W860CU

[SG] Harald_(Charly)
14.11.2009, 19:52
Evtl mal an den Hersteller wenden -> http://www.clevo.com.tw/en/about/worlds_s.asp

Wenn der nicht im DL-Bereich ist, mal den Support kontaktieren..

Oder versuchs mal hier -> http://www.laptopvideo2go.com/drivers

Timmy2k4
15.11.2009, 13:36
werd ich so oder so den support kontaktieren müssen, da immernoch keine treiber im dlbereich sind...das schon seit der letzten anfrage von vor 3 wochen.


wenn ich es mit den versuche, kommt die gleiche fehlermeldung wie bei den anderen treiber auch bzw. den versuch cuda zu installen

[SG] Harald_(Charly)
15.11.2009, 14:02
Bei Nvidia heisst es warten.. kann sein, dass die 280er M GTX mit dem nächsten Treiber unterstützt wird.. (fragt sich nur, wann der kommt)

Das CLEVO W860CU ist doch identisch mit dem mySN XMG6, oder basiert auf diesem -> http://www.notebookjournal.de/tests/notebook-review-mysn-xmg6--clevo-w860cu--1008

Evtl mal den mySN-Support kontaktieren.. -> http://www.mysn.de/addon/shopuser.asp?KategorienOrder=010;020;015;010;010&userid=is8ta237937h8m5ike6732em132fgg74jrtf91o6bf7 c834mu6&link=service
(EMail-Addi steht unten auf der Seite)

Vlt gibbet ja ne Treiber-CD/DVD auf Portobasis

Timmy2k4
15.11.2009, 14:19
auf der aktuellen treiberdvd von schenker sind die 186.81 drauf^^
aber ob es neue treiber geben wird für das notebook kann ich auc dort nochmal hinterfragen.
die scheinen mir fähiger wie clevo selbst^^

Edit:
Es gibt seit heute 195.39 Beta Treiber.
Leider standen noch keine Informationen dabei, ich saug sie, teste und melde mich dann nochmal^^


Edit die zweite: Satz mit x.....auch diese lassen sich nicht installieren auf meinen nb, gleiche meldung wie oben schon gepostet.

RealSanta
18.11.2009, 21:07
Hoi Ihrs...

Beta 195.55 ist raus: Link (http://www.nvidia.de/Download/Find.aspx?lang=de)


bis denne RS

[SG] Harald_(Charly)
18.11.2009, 21:09
Kommt mir bekannt vor -> http://seti-germany.de/forum/hardware-probleme-tuning-benchmark-usw/3129-nvidia-grafikkarten-2.html#post124756 :biggrin:

RealSanta
18.11.2009, 21:14
Kommt mir bekannt vor -> http://seti-germany.de/forum/hardware-probleme-tuning-benchmark-usw/3129-nvidia-grafikkarten-2.html#post124756 :biggrin:

Stimmt.. *lach*.. war gerade dort auf der NVidia-HP um nach ggf. neuen Geforce MOBILE-Treibern zu schauen (ohne vorher im HW-Thread gewesen zu sein) ;)


bis denne RS

[SG] Harald_(Charly)
18.11.2009, 21:25
Kannst doch bei Nvidia den Newsletter abonnieren.. wählst TREIBER-BENACHRICHTIGUNGEN und das wars.. :cool-new:
http://www.nvidia.eu/de/newsletter/index.php

RealSanta
18.11.2009, 21:33
Kannst doch bei Nvidia den Newsletter abonnieren.. wählst TREIBER-BENACHRICHTIGUNGEN und das wars.. :cool-new:
http://www.nvidia.eu/de/newsletter/index.php

Noch 'ne Mail mehr... puh... eher nicht - danke trotzdem @ Tipp.


bis denne RS

cloood
18.11.2009, 21:36
Örm, hab hier auch nen lappie mit 9600mgt rumliegen.
Nur wird bei den unterstützten GrKas die Mgt nicht speziell erwähnt (195.55)
Kann ich den bedenkenlos saugen und installiern und dann Mit CC aufm lappie loslegen?

[SG] Harald_(Charly)
18.11.2009, 21:40
. . . :cool-new:
Guck aber vorher unter den NICHT UNTERSTÜTZTEN nach, ob dein Läppi/Hersteller da NICHT aufgeführt ist..

RealSanta
18.11.2009, 21:47
Örm, hab hier auch nen lappie mit 9600mgt rumliegen.
Nur wird bei den unterstützten GrKas die Mgt nicht speziell erwähnt (195.55)
Kann ich den bedenkenlos saugen und installiern und dann Mit CC aufm lappie loslegen?

steht doch dabei?! :confused:

oder welches BS hast Du gewählt?



. . .
Guck aber vorher unter den NICHT UNTERSTÜTZTEN nach, ob dein Läppi/Hersteller da NICHT aufgeführt ist..

*koppnick* steht explizit als ok... 9600M GT
Mein Acer Aspire ist auch nicht ausgeschlossen. :)


bis denne RS

cloood
18.11.2009, 21:55
Hm, also die "M"s werden mir auf der HP nicht angezeigt.
Hangel ich mich durch die Ebenen, landen ich bei 186.81 (für die "M"s)

Also, wenn ich die obigen Links anklicke, bekomme ich alle normalen Desktop GraKas angezeigt, jedoch nicht die mobiles... ich glaub ich steh aufm Schlauch...


Hinzugefügter Post:

Okok, man muss bei den 200ern nach "M" suchen.....
Habs geschnallt...
links oben ändern bidde =)


Hinzugefügter Post:

Oh mann, wenn jetzt der lappi nicht mehr läuft...... Ich schick dir soviel alte Hardware, RS, da kommste aufm Müllhof mit bezahlen nich hinterher :D

[SG] Harald_(Charly)
18.11.2009, 21:58
Der Link -> http://www.nvidia.de/Download/Find.aspx?lang=de
Der Shot:

RealSanta
18.11.2009, 22:00
*grins*

ja den ein oder anderen Wert im Pulldown muss man schon anpassen *gg* ja ggf. auch das BS.. deswegen der ALLG. LInk dorthin (inkl. BETA-Treiber)

*oha* @ "Müll".. nehme Quads, V8, Mainboards, RAM, NT'S :D:cool:;)


bis denne RS

cloood
18.11.2009, 22:15
Hehe, bekommst ja deine Weihnachtsgeschenke =)
Und das ein oder andere 5 1/4 Zoll Laufwerk leg ich auch noch bei :D

Peter7Lustig
19.11.2009, 00:10
Ich hab mir eben auch den neuen Beta-Treiber installiert auf meinem Dell Latitude mit einer Quadro NVS 140. Bei Seti brechen die ganzen GPU-WUs nach drei Sekunden sofort ab, aber bei Collatz läuft jetzt eine seit einigen Minuten.
Ich werde mich nur umgewöhnen müssen im Gegensatz zu meiner Geforce GTX 260 im Hauptrechner. Ich hab gerade nach 6:21 Minuten das erste Prozent Fortschritt geschafft! Mit der GTX 260 hab ich da locker über 20% weg.

Peter7Lustig
20.11.2009, 13:39
Update: meine erste GPU-WU auf meinem Laptop ist durch. Die Collatz WU hat 14h43m gebraucht. Hm, meine GTX260 braucht 29min...
Was brauchen eure Laptop-Grakas so?

UL1
20.11.2009, 13:54
14 Stunden ?
Was steht denn bei dir im Boinc-Manager unter "Meldungen" bei der GraKa für "compute capability", "MB" und "GFlops Peak" ?

[SG] Harald_(Charly)
20.11.2009, 14:09
Kommt immer drauf an, was ich hier grad mach.. (zocken, surfen,...)
Die 250er brauch im Schnitt 35 bis 45 Minuten

cloood
23.11.2009, 20:47
Erm, ich bekomme einfach keine WUs für die 9600mgt.
Kann es daran liegen, das das lappi via umts ins netz geht?
Die anderen Rechner bekommen ja wieder WUs.

Auf dem Lappi kommt immer die Fehlermeldung:

Scheduler request failed: Couldn't resolve host name
Projekt communication failed: attempting acces to reference site
Internet access OK - project servers may be temporarily down

Leider hab ich kein lankabel mehr über, müsste da was umstöpseln...

Grüssle
cloood

UL1
23.11.2009, 21:59
Bei der Arbeit muss ich auch mit einer UMTS-Karte arbeiten. Solange CC oder MW regelmässig WUs schicken, ist alles wunderbar. Gibts aber einen der nicht so seltenen Totalausfälle der Server, bekomme ich die gleichen Fehlermeldungen wie du. Das einzige, was dann noch hilft: Rechner mit nach Hause nehmem und über eine vernünftige DSL-Leitung anschließen. Musste ich heute auch wieder machen...und es hat dann, nach anfänglich der typischen Fehlermeldung, nochmal 'ne halbe Stunde gedauert, bis BOINC sich dann endlich mal neue WUs geholt hat...

cloood
23.11.2009, 23:25
Tja, hab jetzt mal heftig umgestöpselt, immer noch das gleiche Problem!
Weiß jemand Rat?
Sonst lass ich das halt mit der mGPU, bringt ja wohl auch nicht soooo viel Steinchen...

Grüssle
cloood

UL1
23.11.2009, 23:28
Hast du noch WUs zum hochmelden? Wenn nicht, würde ichs erstmal mit 'Zurücksetzen' versuchen...und wenn das nicht hilft: 'Abmelden' und neu anmelden. Spätestens dann muss er dein Rig erkennen...

cloood
24.11.2009, 00:11
Tja, wunderbar, nun connected das ding bei collatz. zurücksetzen hat geholfen (obwohl ich das schonmal machte...komisch)
Nun ja, nun mault Collatz, ich hätte ja keine ATI GPU. Stimmt, ist ne NVidia.
Wieso?
Warum saugt er sich nicht einfach NVidia WUs wenn ne NV drinsteckt?

Doofe Computer....

Grüssle
cloood

*edit*

Hui, und in dem Moment, als ich das oben schreibe, dreht der Laptoplüfter auf, ich gugg rüber und...:
Tadaaa! Er hat sich Cuda WUs gesaugt.

Computer können also Gedanken lesen......

RealSanta
24.11.2009, 22:16
Hoi IHrs...

habe in einem System zwei PX9800 GX2 eingebaut.. Treiber 191 installiert - Systemsteuerung zeigt auch beide GraKas an...

OINC wiederum zeigt nur 2 der GPUs an mit je 512 MB... die andere GraKa taucht im BOINCManager nicht auf.

HELP... muss ich irgendeine Datei dazu erstellen oder irgendwo was anpassen... bin auf dem Sektor der Mehr-Grafikkartennutzung absoluter Noob...

Danke und bis denne RS

UL1
24.11.2009, 23:13
Okay...wieviele Bildschirme werden dir angezeigt, wenn du im Desktop rechts klickst und auf Bildschirmauflösung gehst? Damit BOINC alle GPUs erkennt, sollten da nämlich vier stehen. Um die alle aktiv zu bekommen, musst du entweder vier Bildschirme anhängen oder mit VGA-Dummies arbeiten...

RealSanta
24.11.2009, 23:28
Okay...wieviele Bildschirme werden dir angezeigt, wenn du im Desktop rechts klickst und auf Bildschirmauflösung gehst? Damit BOINC alle GPUs erkennt, sollten da nämlich vier stehen. Um die alle aktiv zu bekommen, musst du entweder vier Bildschirme anhängen oder mit VGA-Dummies arbeiten...

2.. aber 2 der GPU's (also eine GraKa) werden von BOINC schon richtig erkannt (bei einem Monitor)... laufen ja mit jeweils 50% Speicher.

Mal für Dummies nach den VGA-Dummies fragt... ist das sowas hier: http://tvtool.info/go.htm?http://tvtool.info/german/dummy_d.htm ??

hm...

bis denne RS

Kalessin
24.11.2009, 23:32
2.. aber 2 der GPU's (also eine GraKa) werden von BOINC schon richtig erkannt (bei einem Monitor)... laufen ja mit jeweils 50% Speicher.

Mal für Dummies nach den VGA-Dummies fragt... ist das sowas hier: http://tvtool.info/go.htm?http://tvtool.info/german/dummy_d.htm ??

hm...

bis denne RS

Jo, das isser. Bei mir musste er auch so mit den Widerständen aussehen. Uli und Maro haben, so weit ich das verstanden habe, welche einfach mit gebogenen Büroklammern gebaut. Die gingen bei mir nicht. Gelötet sind meine aber auch nicht, da stecken die Widerstände nur gebogen im DVI-VGA Adapter drin.

RealSanta
24.11.2009, 23:39
Soso..

also verstehe ich das richtig... wenn ich an die zweitze Graka einen Monitor hängen würde, dann würde das auch gehen?
Muss doch nicht alle 4 Ausgänge belegen oder (habe ja für 2 GPUs ja auch nur einenn Monitor dran?!)

Muss ich dann noch in irgendeiner (ggf. zu ertsellenden) Datei was manuell eintragen - oder funzt dann BOINC mit zwei GraKa automatisch, wenn 2 Monitore dran sind?


Fragen über Fragen...


bis denne RS

UL1
24.11.2009, 23:56
Soso..

also verstehe ich das richtig... wenn ich an die zweitze Graka einen Monitor hängen würde, dann würde das auch gehen?
Muss doch nicht alle 4 Ausgänge belegen oder (habe ja für 2 GPUs ja auch nur einenn Monitor dran?!)
Wenn BOINC bei mir (unter WIN !) nicht alle GPUs erkannt hat, habe ich alle Ausgänge belegt, entweder mit echten Monitoren oder mit Dummies: dann gings normalerweise (bei den ATIs gehts nur so)...


Muss ich dann noch in irgendeiner (ggf. zu ertsellenden) Datei was manuell eintragen - oder funzt dann BOINC mit zwei GraKa automatisch, wenn 2 Monitore dran sind?
Bei CUDAs braucht man normalerweise keine cc_config oder app_info...sollte wirklich 'out-of-the-box' funktionieren...solange BOINC vier GPUs erkennt...
Wenn das trotzdem nicht geht, kannst du eventuell noch in der NVIDIA-Systemsteuerung was einstellen...z.B. zwischen 'use Multi-GPU' ja/nein wechseln...
Noch genaueres kann ich dir erst morgen früh sagen: an meinen einzigen Rechner mit mehreren CUDAs komme ich vorher nicht 'ran...

RealSanta
24.11.2009, 23:59
Alles klar..

ich danke erst einmal...


bis denne RS

[SG] Harald_(Charly)
25.11.2009, 20:52
Aktueller BETA-Treiber verfügbar.. Version 195.62 vom 25.11.2009
http://www.nvidia.de/Download/Find.aspx?lang=de

Timmy2k4
25.11.2009, 23:18
meiner vierter anlauf,
da bin ich ja mal gespannt^^

edit: only desktop bereich^^

das kann man ruhig dazuschreiben beim nächsten mal;)
und so nebenbei bin ich mal gespannt was so cuda 3.0 bald mit sich bringen wird, aber da wird wohl noch eine weile vergehen.

[SG] Harald_(Charly)
26.11.2009, 06:39
....
edit: only desktop bereich^^
....


Für Läppis ist der 195.55 der z.Zt. aktuelle Treiber.

Timmy2k4
27.11.2009, 09:34
Für Läppis ist der 195.55 der z.Zt. aktuelle Treiber.

Das ist mir bekannt und weiß ich,
nur leider hat der Treiber keine Signatur für "meine" gtx280m damit diese Treiber erkannt und ich sie damit installieren kann^^

[SG] Harald_(Charly)
27.11.2009, 13:42
Die Warnmaldung über die fehlende Treibersignatur während der Install kannst du ignorieren..

Die Karte sollte eigentlich unterstützt werden (siehe Shot), oder kommt eine Meldung über fehlende kompatible Hardware für den Treiber?

Evtl. mal HIER (http://www.laptopvideo2go.com/) nach nem passenden Treiber suchen..

Timmy2k4
27.11.2009, 16:30
oder kommt eine Meldung über fehlende kompatible Hardware für den Treiber?
Ja!

[SG] Harald_(Charly)
27.11.2009, 16:44
Hmm.. der letzte aktuelle WHQL-Treiber wäre der 186.81... Mit dem müsste das eigentlich laufen, kannst dann aber CUDA teilweise knicken, obwohl er 2.2 unterstützt

Da hlift im Mom nur auf den nächsten von MS zertifizierten Treiber zu warten.. is ärgerlich, aber lässt sich nich ändern..

Btw.. du wolltest doch mal Schenker kontaktieren.. hat sich da schon was ergeben, oder verweisen die auch auf den 186er?

Timmy2k4
27.11.2009, 17:16
Hmm.. der letzte aktuelle WHQL-Treiber wäre der 186.81... Mit dem müsste das eigentlich laufen, kannst dann aber CUDA teilweise knicken, obwohl er 2.2 unterstützt

Da hlift im Mom nur auf den nächsten von MS zertifizierten Treiber zu warten.. is ärgerlich, aber lässt sich nich ändern..

Btw.. du wolltest doch mal Schenker kontaktieren.. hat sich da schon was ergeben, oder verweisen die auch auf den 186er?

Also,
der WHQL-Treiber 186.81 will nicht.
Hab den 186.47 von der Treibercd installiert.
Eben gerade habe ich auf der Treibercd 187.26 gefunden.
Der ging zu installieren, nur bringt der mich auch nicht weiter.

Interessant Treiber zu benutzen,welche man auf der Nvidiaseite vergeblich sucht.
Schenker wollte es Nvidia mitteilen und wenn sie näheres wissen, mich selber nochmals informieren.
Von einem anderen Clevovertreiber habe ich erfahren, das demnächst Treiber(Bios u.ä.) seitens Clevo kommen sollen, aber ob da auch Treiber für die Grafikkarte abfallen konnte mir nicht versichert werden.

[SG] Harald_(Charly)
27.11.2009, 17:32
Einige Hersteller integrieren für ihre Produkte spezielle Optionen in den Treibern, oder bekommen für ihre Hardware speziell zugeschnittene Treiber zur Verfügung gestellt.

Kann sein, dass es in deinem Fall auch so ist, und deshalb die offiziellen Nvidia-Treiber nicht greifen..

Aber ist schon mal gut, dass sich Schenker kooperativ zeigt..
Es wäre eigentlich undenkbar, das CLEVO keine GraKa-Treiber zur Verfügung stellen wird, denn du wirst sicherlich nicht der Erste sein, der die fehlende Unterstützung bemängelt..

Good Luck..

Timmy2k4
27.11.2009, 18:15
Was ist heutzutage nicht undenkbar,
den nochmals auf die Nerven zu gehen kann nie schaden.
Man will schließlich die zu "erwartenden" Funktionen eben auch haben um sie dann eventuell zu nutzen.

Edit: Die 195.62 für Desktopsysteme sind nun WHQL-Treiber...

Yota
22.03.2010, 23:07
Servus,

ich such noch ein Projekt für meine 9600GT und bin hierüber "gestolpert", da Milkyway sie nicht will ^^ - Ich würde aber gern wissen ob es wirklich läuft, ehe ich mich anmelde, da ich keine Userleiche im projekt sein möchte. Nun weis ich ja dass bei einer Berechnung mit GPU, immer auch eine minimale CPU Belastung entsteht. Daher meine Frage: Ich rechne derzeit mit 4 Kernen (=100%), wenn jetzt ein GPU Projekt dazu kommt, geht dann automatisch ein kern off dafür? auch wenn da nur eine minimale leistung gebraucht wird?

Ich hoffe meine Frage ist verständlich ^^

tocx
22.03.2010, 23:19
Hab ne 9500 die läuft auch bei Collatz, sollte also kein Prob sein. Es geht dabei keine kompletter CPU-Kern drauf, sondern nur 0.05% eines Kerns um die Daten zur GPU zu schaufeln.

pschoefer
22.03.2010, 23:19
ich such noch ein Projekt für meine 9600GT und bin hierüber "gestolpert", da Milkyway sie nicht will ^^ - Ich würde aber gern wissen ob es wirklich läuft, ehe ich mich anmelde, da ich keine Userleiche im projekt sein möchte.
Läuft definitiv, bei Collatz Conjecture sind wirklich alle CUDA-fähigen Grafikkarten unterstützt.


Nun weis ich ja dass bei einer Berechnung mit GPU, immer auch eine minimale CPU Belastung entsteht. Daher meine Frage: Ich rechne derzeit mit 4 Kernen (=100%), wenn jetzt ein GPU Projekt dazu kommt, geht dann automatisch ein kern off dafür? auch wenn da nur eine minimale leistung gebraucht wird?
Nein, normalerweise laufen weiterhin ganz normal 4 CPU-WUs und die GPU-WU bekommt eben das bisschen CPU-Zeit, was sie benötigt. Collatz unter Windows ist da äußerst sparsam, mir fällt nur PG-AP26 ein, was noch weniger CPU-Zeit zum Füttern der GPU verbraucht.

Yota
22.03.2010, 23:28
Okei, nach einem kurzen irc-Gespräch (danke nochmal), hab ichs jetzt einfach mal ausprobiert. In den Einstellungen hab ich CPU nutzung ausgestellt und Grafik auf 0. Aktuell laufen 4 CPU WUs und die Collatz WU. TV Karte meckert bisher auch nicht, läuft ohne Probleme nebenher.

proteino.de
27.03.2010, 00:26
Gibt's eigentlich irgendeine Mindestanforderung beim Speicher? Hab nämlich grade erst auf meinem neuen Zweitrechner CUDA unter Linux (http://proteino.de/blog/index.php/2010/03/25/debian-lenny-mit-cuda/) für die onBoard-GPU eingerichtet und musste danach feststellen, dass GPU-Grid wenigstens 254MB haben will (bei 256MB-Einstellung sind nur 253MB verfügbar) und Collatz zieht ohne irgendwelche Infos keinerlei GPU-WUs *kopfkratz* Für GPU-Grid könnte ich im Bios den Speicher noch auf 512MB erhöhen, aber laut Webseite schafft die schwache onBoard-8300 die WUs wohl kaum innerhalb der Deadline :undecided: deshalb will ich halt erstmal Collatz antesten - geht nur nicht ohne WUs und ohne Grund für's Ausbleiben der WUs ;)

AgentSchatten
27.03.2010, 09:12
Also bei mir trudeln regelmässig neue Collatz WUs ein. Hat die 8300M überhaubt Cuda Unterstützung?

Wenn ich mir das so ansehe denke ich eher nicht:
http://www.nvidia.de/object/cuda_gpus_de.html

joe_carnivore
27.03.2010, 09:43
Funktionieren tut es auch mit einer 8200 Onboard.
Hat nur 16 Shaders und läuft mit 500/800/1200MHz Gpu clock/Mem/Shader Takt.

Braucht aber 15 Stunden pro WU.
Bei Prime ca. 3 h , dort brauch meine 9800 GT Green aber auch nur ca.12 min (collatz ca.54min)

joe

HeroTurtle
27.03.2010, 10:02
@Proteino, Collatz

Bei mir hilft immer: alle Projekte (außer Collatz) kurz anhalten, Bunker auf 10 Tage und dann trudeln die ein.

HT:x)

proteino.de
28.03.2010, 04:20
Nö, Collatz sagt nur kurz und knapp, dass ich keine WUs bekomme :undecided: Werde die Kiste morgen neu starten und im BIOS auf 512 MB stellen, dann schaun wir weiter ;)

@AgentSchatten: CUDA-Unterstützung hat der Chip auf jeden Fall und "satte" 24 GFlops ...

Archi_74
29.03.2010, 17:18
Hat jemand ne Ahnung, wie ich 2 Grakas gleichzeitig überreden kann Collatz zu rechnen?
Habe bei mir eine zweite 250GTS reingefriemelt, wird von Boinc auch erkannt als GPU1, aber nun steht bei GPU0: not used. :undecided::undecided::undecided:
Es rechnet nur die zweite Graka, die erste langweilt sich.

UL1
29.03.2010, 17:59
Probier' mal, das hier

<use_all_gpus>1</use_all_gpus>

in die cc_config.xml einzubauen...

Archi_74
29.03.2010, 18:40
So, nach einer halben Stunde Sucherei habe ich die Datei nicht gefunden...:undecided:
Im Explorer versteckte Dateien eingeblendet usw.......aber ich find nix! :sad:

Sysadm@Nbg
29.03.2010, 18:43
Dann leg sie neu an :D

sie muss imho ins BOINC-Daten-Verzeichnis

Archi_74
29.03.2010, 20:36
Boah...schwere Geburt...aber jetzt funzt es! Danke!!! :thumbup:


Hinzugefügter Post:

Na toll, jetzt wo es funzt, ist das Netzteil abgeraucht. Und das in 2 Rechnern fast zeitgleich. Einer crunchte MW und der andere Collatz....*grrr*:(:(

Archi_74
31.03.2010, 09:04
Kann man bei Collatz den Speichertakt der Grakas wie bei MW absenken? Oder wird dieser benötigt?

UL1
31.03.2010, 11:03
Bei Collatz gilt: je höher der Speichertakt, desto besser/schneller!

Yota
02.05.2010, 19:32
Nochmal ne Frage von mir, nu gibts ja jede menge optimierte Anwendungen (http://boinc.thesonntags.com/collatz/power_apps.php) für Collatz. Aber welche ist jetzt die richtige für mich, bin da mit der Auswahl überfordert ^^

System ist ein Q6600, mit win7 64bit und GForce 9600gt

Dankööööö

SoEinWahnsinn
02.05.2010, 19:40
Nochmal ne Frage von mir, nu gibts ja jede menge optimierte Anwendungen (http://boinc.thesonntags.com/collatz/power_apps.php) für Collatz. Aber welche ist jetzt die richtige für mich, bin da mit der Auswahl überfordert ^^

System ist ein Q6600, mit win7 64bit und GForce 9600gt

Dankööööö

Keine ;)

Deine Grafikkarte ist dafür nicht geeignet, und mit der CPU zu rechnen ist noch gelinde gesagt: "Absoluter Quatsch"
Falls du es trotz alledem mit der CPU probieren möchtest, ist es der letzte Link.

Yota
02.05.2010, 19:46
Ähm, ich rechne schon Collatz mit meiner 9600gt oO

oder meintest du jetzt einfach dass es für die keine optimierte Anwendung gibt?

AgentSchatten
02.05.2010, 19:48
Bei Collatz bekommst du für die GPU automatisch die optimierte APP.

Yota
02.05.2010, 19:56
Na dass nenn ich doch mal eine gute Idee :P
Danke für die Info

ploost
12.09.2010, 23:52
ich muss mal nachfragen, hab irgendwann mal rumgegoogelt und bei overclockers.net oder so stand im forum das die boinc cuda teile nur übern shadertakt aber nicht über speicher/gpu "geregelt" werden, oben steht aber nun speichertakt? welche takte sind denn nun nötig, oder ist das sogar von cuda zu cuda projekt (nur auf boinc bezogen) anders?

[SG] Harald_(Charly)
13.09.2010, 16:30
Nvidia GeForce GTS 450: DirectX 11 für die Massen (http://winfuture.de/news,58063.html) (WinFuture)

Felix Evermann
20.11.2010, 14:12
hey leute,
hab nen kleines problem. bekomme seit heute früh nur berechnungsfehler. projekt schon 2x zurückgesetzt.
ergebnis:

20.11.2010 14:06:57 Collatz Conjecture Output file collatz_1286499150_3775029_1_0 for task collatz_1286499150_3775029_1 absent



Hinzugefügter Post:

warum is die net da??

AgentSchatten
20.11.2010, 17:03
Also bei mir läuft alles wie gewohnt. Hast du den Boincordner vom Scannen durch den Virenscanner ausgenommen? Gab in letzter Zeit mit dem kostenlosen Antivir diverse Porbleme durch alle Boincprojekte. Kann das bei dir auch zutreffen?

Felix Evermann
21.11.2010, 08:55
@AgentSchatten:
war rdp. jedesmal wenn ich mich per rdp mit dem pc verbinde stürtzt cuda ab. bei vnc gibts das problem nicht.
nochmal vielen dank an schilli der mit per pn weitergeholfen hat:x)

Caveman
30.04.2012, 21:03
Ich habe bisher noch kein Collatz gerechnet. Beim Pentathlon ist also Premiere.
Gibt es optimierte Apps und eine app_info xml für Cuda?
Projekteinstellungen Collatz und/oder mini_collatz?

Der letzte Beitrag hier ist ja auch schon fast 1,5 Jahre alt.

Acid303
30.04.2012, 23:32
Optimierte apps gibts automatisch vom Projekt, ich wüsste nicht ob es da was besseres gibt. Ich glaube die Minis waren die für die GPU, hatte Collatz nur als Backup für MW laufen. Wie das jetzt bei den nvidias aussieht, keine Ahnung aber auf Nr ATI rennt Collatz wie bolle. ;) Ich glaube ich werde morgen früh mal einen kleinen Collatz Testlauf starten da kann ich dann hinsichtlich der wutzen mehr sagen.

Gesendet von meinem Galaxy Nexus mit Tapatalk 2

Rainer Baumeister
30.04.2012, 23:54
nicht nur die Minis sind für die GPU, auch die normalen. Die Minis haben nur eine kürzere Laufzeit: Sind also schneller durch. Gruß Rainer
Aber recht hast Du: Bei Collatz liegt ATI um Welten vor NV

Acid303
01.05.2012, 04:57
nicht nur die Minis sind für die GPU, auch die normalen. Die Minis haben nur eine kürzere Laufzeit: Sind also schneller durch. Gruß Rainer
Aber recht hast Du: Bei Collatz liegt ATI um Welten vor NV

Stimmt. Die Minis waren diese zwei-minuten-teile :)

Gesendet von meinem Galaxy Nexus mit Tapatalk 2

Dr. Frank-N-Furter
01.05.2012, 15:59
Optimierte apps gibts automatisch vom Projekt, ich wüsste nicht ob es da was besseres gibt.

:wacko:

http://boinc.thesonntags.com/collatz/power_apps.php

heute erst aktualisiert..:x)

Rainer Baumeister
01.05.2012, 18:47
ja, so habe ich auch geguckt.. Ist nicht so einfach mit ihren vielen Optimierungen, die nur für Insider zu verstehen ist.
Ich bin keiner und daher fast außen vor. Solange die Statistiken der schnellsten Rechner und deren Ergebnisse zerlegt, bis ich mir eine ausdenken konnte.
Ob es die richtige ist? Gruß Rainer

Acid303
01.05.2012, 18:53
Ich wüsste erstmal nicht welche ich da nehmen sollte für meine 5850 deshalb lass ich einfach mal die vom Projekt drauf.

pschoefer
01.05.2012, 19:26
Die Frage ist, ob die OpenCL-Apps von der Power-App-Seite überhaupt wenigstens gleich schnell wie die nativen CAL-Apps (die man automatisch bekommt) sind. Ich finde nur Angaben, wieviel schneller sie im Vergleich zur vorherigen OpenCL-Version sind...

Dr. Frank-N-Furter
01.05.2012, 20:12
;217211']Die Frage ist, ob die OpenCL-Apps von der Power-App-Seite überhaupt wenigstens gleich schnell wie die nativen CAL-Apps (die man automatisch bekommt) sind. Ich finde nur Angaben, wieviel schneller sie im Vergleich zur vorherigen OpenCL-Version sind...

open-cl schneller als CAL? :shocked: niemals nicht. das macht wohl nur sinn für jene, die CAL-apps nicht rechnen können..

Rainer Baumeister
01.05.2012, 20:38
Also ich nutze die Cal Version für meine HD 5850 und XP 64bit
Mit dem Originalen hatte ich um die 1650 Sek. und nun um die 1550Sek.
http://boinc.thesonntags.com/collatz/download/Win64_2.09_ATI.zip
Dann noch die Parameter in den app_info ergänzen:
<cmdline>f10 r50</cmdline>
Gruß Rainer

Dr. Frank-N-Furter
01.05.2012, 22:01
Also ich nutze die Cal Version für meine HD 5850 und XP 64bit
Mit dem Originalen hatte ich um die 1650 Sek. und nun um die 1550Sek.
http://boinc.thesonntags.com/collatz/download/Win64_2.09_ATI.zip
Dann noch die Parameter in den app_info ergänzen:
<cmdline>f10 r50</cmdline>
Gruß Rainer

das wird wohl jeder selbst ausprobieren müssen. irgendwie schon seltsam, das so ein großer haufen das nicht auf die kette bekommt...:rolleyes:

SEARCHER
08.05.2012, 08:52
:shocked: Guten Morgen und Hallo Team,

nachdem ich meine letzten WU`s vom SETI@Home Gauntlet gestern zuende gerechnet habe, bin ich auf Collatz Conjecture umgeschwenkt. Eben kontroliere ich mal und sehe entsetzt, während meine ATI GRAKA`S schön schnurren, mit meiner NVIDIA GRAKA alles geschrottet, was ist da denn nur los ???

Meine PC Daten : OS Win 7 Home Premium, BOINC Manager 6.12.34, Nvidia GRAKA GTS 450, Treiber 295,73.

:) Wäre toll wenn mir da einer weiterhelfen könnte und DANKE dafür im voraus.

:x) Gruß SEARCHER

Handicap SG-FC
08.05.2012, 09:02
@SEARCHER,

evtl. ein Treiber Problem ?? Ich hab extra den 285.xx Treiber drauf weil der 295.xx Probleme macht wenn Windows den Bildschirm abschaltet. Gefunden in einigen Threads hier.

Seitdem läuft alles wieder rund

SEARCHER
08.05.2012, 12:14
:) Guten Tag und Hallo Handicap [SG-FC],

du hattest anscheinend recht mit der Annahme, daß es sich um ein Treiber Problem handelt.
Ich habe den neuen Nvidia Treiber 301.24 gerade neu installiert und siehe da, nun läuft bereits meine 5. WU bei Collatz ohne Probleme, zuerst 4 Mini Collatz und nun eine normale große Collatz. Scheint zu klappen, behalte das ganze aber mal im Auge.

Komisch nur : Mit dem 295 er Treiber konnte ich ohne Probleme SETI@Home, GPUGRID und DistrRTgen rechnen, ohne irgendein Problem, nur eben bei Collatz ging gar nichts.
Den 295 er Treiber hatte ich deshalb neu installiert weil zuvor der 296 er Treiber bei mir alle Projekte die ich aufgezählt habe geschrottet hatte.

:thumbup: DANKE Handicap für deinen Hinweis.

:thumbup: Und DANKE [SG] Harald_(Charly) für deinen TIP im THREAD : "Collatz GPU-berechnung " den ich zuvor gelesen habe.


:x) Gruß SEARCHER

Handicap SG-FC
08.05.2012, 12:44
@SEARCHER,

deswegen änder ich gerade nix an meiner Kiste ;-) Jeder Punkt zählt.

SEARCHER
09.05.2012, 07:37
;) Guten Morgen und Hallo Handicap [SG-FC],

ich hätte auch gerne nichts an meiner Kiste verändert, da zuvor alles einwandfrei bei mir lief. Nur als ich nun mit Collatz gestartet bin war plötzlich der Wurm drin und alles wurde geschrottet. :) Naja nun geht ja alles wieder einwandfrei, zum Glück.

:x) Gruß SEARCHER

Aui
09.05.2012, 12:09
.... zum Glück. ... für AF (http://boinc.thesonntags.com/collatz/show_user.php?userid=8585) ...

;) :x)

SEARCHER
09.05.2012, 12:46
:) Guten Tag und Hallo Aui,

ja diesen PENTATHLON dieses Mal für die Alliance Francophone wegen :

http://boinc.thesonntags.com/collatz/view_profile.php?userid=8585

:x) Gruß SEARCHER

Handicap SG-FC
10.06.2012, 11:50
Jungs mal ne Frage, kann man Collatz irgendwie übereden auf einer GPU mehr als eine WU zu rechnen ??

Bei S@H geht es ja auch.

Dunuin
10.06.2012, 14:20
Müsste mit der app_info.xml gehen. Da sagst ja an, wieviele WUs auf der GraKa gleichzeitig laufen dürfen.

Mir geht das gerade mit den Grafikkarten auf den Keks. Mein TFT ist kaputt und ich würde da ja gleich auf ein 3D-System umsteigen. Halbswegs etabliert ist aber nur das 3D von Nvidia mit speziellem 3D-Vision-Monitor und einer Geforce. ATI hat mit HD3D zwar auch ein 3D-System (wo ich wohl sogar meine alte 5770 behalten könnte, auch wenn die sicher viel zu langsam wäre), aber da braucht es wieder andere Monitore.
Und ATI ist halt viiiel billiger als Nvidia und bietet gleichzeitig mehr Crunchleistung.

Da hat man dann die Wahl, ob man 1400€ für ein 3D-Nvidia-System ausgeben will, wo die Spieleunterstützung besser ist, aber das crunchen zu kurz kommt oder halt 1100€ für ein 3D-ATI-System, wo weniger spiele in 3D laufen, man dafür aber beim Crunchen viel besser dasteht.

Handicap SG-FC
10.06.2012, 17:33
Probiere erst mal aus wie lange Du mit einer 3D Brille überhaupt klar kommst.

Ausserdem finde ich nicht das man beim crunchen mit ATI besser dasteht, kommt ja darauf an was man cruncht ;-)

Dr. Frank-N-Furter
10.06.2012, 18:41
;220354']Jungs mal ne Frage, kann man Collatz irgendwie übereden auf einer GPU mehr als eine WU zu rechnen ??

Bei S@H geht es ja auch.

bringt aber bei collatz nichts - es sei denn, deine gpu ist nicht voll ausgelastet.

Handicap SG-FC
10.06.2012, 19:04
bringt aber bei collatz nichts - es sei denn, deine gpu ist nicht voll ausgelastet.

Das würde ich ja gerne mal probieren. So liege ich bei ca. 70%

Dr. Frank-N-Furter
10.06.2012, 19:18
;220387']Das würde ich ja gerne mal probieren. So liege ich bei ca. 70%
:shocked:

welche app-version läuft bei dir?

CPU?
OS?
GPU?

Handicap SG-FC
10.06.2012, 22:07
:shocked:

welche app-version läuft bei dir?

CPU?
OS?
GPU?

App ?? meinst Du welche WU's ??

X4 965 BE mit 3,6 GHZ
W7 64 Bit
GTX 470

Dr. Frank-N-Furter
11.06.2012, 11:41
;220400']App ?? meinst Du welche WU's ??

nein.

ob die normale oder eine von den optimierten.


X4 965 BE mit 3,6 GHZ
W7 64 Bit
GTX 470

sollte eigentlich hinzukriegen sein.

probier's mal damit:

http://boinc.thesonntags.com/collatz/download/collatz_2.05_windows_intelx86__cuda31.zip

bescheibung ist mit drin..

Acid303
11.06.2012, 11:47
Klar kann man Collatz dazu überreden. Brauchst nur ne app_info.xml dafür. Meine sieht so aus, ist allerdings für AMD/ATI, keine Ahnung ob und wie man die für NV umstricken müsste:


<app_info>
<app>
<name>collatz</name>
</app>
<file_info>
<name>collatz64_cal_2.09_ati.exe</name>
<executable/>
</file_info>
<file_info>
<name>brook64.dll</name>
<executable/>
</file_info>

<app_version>
<app_name>collatz</app_name>
<version_num>209</version_num>
<plan_class>ati13ati</plan_class>
<avg_ncpus>0.02</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>ATI</type>
<count>0.5</count>
</coproc>
<cmdline></cmdline>
<file_ref>
<file_name>collatz64_cal_2.09_ati.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>brook64.dll</file_name>
</file_ref>
</app_version>

<app_version>
<app_name>collatz</app_name>
<version_num>208</version_num>
<plan_class>ati13ati</plan_class>
<avg_ncpus>0.02</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>ATI</type>
<count>0.5</count>
</coproc>
<cmdline></cmdline>
<file_ref>
<file_name>collatz64_cal_2.09_ati.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>brook64.dll</file_name>
</file_ref>
</app_version>

<app_version>
<app_name>collatz</app_name>
<version_num>206</version_num>
<plan_class>ati13ati</plan_class>
<avg_ncpus>0.02</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>ATI</type>
<count>0.5</count>
</coproc>
<cmdline></cmdline>
<file_ref>
<file_name>collatz64_cal_2.09_ati.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>brook64.dll</file_name>
</file_ref>
</app_version>
</app_info>

Handicap SG-FC
11.06.2012, 11:53
Danke schaue ich mir mal an.

Acid303
11.06.2012, 11:59
Wichtig ist die Zeile <count>0.5</count>. Damit sagst du boinc daß zwei wutzen auf der GPU laufen sollen.

MoKo
11.06.2012, 12:24
Hey

Es ist auch möglich die Graka mit nur einer WU voll auszulasten, aber auch dafür braucht man eine app_info.xml, wie man sie bei den sogenannten Powerapps findet.
Die Apps sind dieselben, aber die app_info.xml ist ausschlaggebend.
Meine für NVidia Grafikkarten sieht folgendermaßen aus:

<app_info>
<app>
<name>collatz</name>
</app>
<file_info>
<name>collatz_2.05_windows_intelx86__cuda31.exe</name>
<executable/>
</file_info>
<file_info>
<name>cudart32_31_9.dll</name>
<executable/>
</file_info>
<app_version>
<app_name>collatz</app_name>
<version_num>203</version_num>
<plan_class>cuda</plan_class>
<avg_ncpus>0.013</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>1</count>
</coproc>
<cmdline>L13 I8 S1</cmdline>
<file_ref>
<file_name>collatz_2.05_windows_intelx86__cuda31.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart32_31_9.dll</file_name>
</file_ref>
</app_version>
<app_version>
<app_name>collatz</app_name>
<version_num>204</version_num>
<plan_class>cuda</plan_class>
<avg_ncpus>0.013</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>1</count>
</coproc>
<cmdline>L13 I8 S1</cmdline>
<file_ref>
<file_name>collatz_2.05_windows_intelx86__cuda31.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart32_31_9.dll</file_name>
</file_ref>
</app_version>
<app_version>
<app_name>collatz</app_name>
<version_num>205</version_num>
<plan_class>cuda</plan_class>
<avg_ncpus>0.013</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>1</count>
</coproc>
<cmdline>L13 I8 S1</cmdline>
<file_ref>
<file_name>collatz_2.05_windows_intelx86__cuda31.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart32_31_9.dll</file_name>
</file_ref>
</app_version>
<app>
<name>mini_collatz</name>
</app>
<file_info>
<name>collatz_2.05_windows_intelx86__cuda31.exe</name>
<executable/>
</file_info>
<file_info>
<name>cudart32_31_9.dll</name>
<executable/>
</file_info>
<app_version>
<app_name>mini_collatz</app_name>
<version_num>205</version_num>
<plan_class>cuda</plan_class>
<avg_ncpus>0.013</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>1</count>
</coproc>
<cmdline>L13 I8 S1</cmdline>
<file_ref>
<file_name>collatz_2.05_windows_intelx86__cuda31.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart32_31_9.dll</file_name>
</file_ref>
</app_version>
</app_info>

Die fettgeschriebenen Zeilen sind der Schlüssel zum Erfolg.
Die Parameter Lx, Ix und Sx lassen sich variieren. Was sie genau bewirken und in welchen Grenzen sie zu verändern sind, steht im ReadMe zu den Powerapps.
Hier ein Auszug:
Ix
Default Value: I8
Valid Values: I5 through I8
Purpose: Controls the number of items per loop. The setting represents the power of 2 that will be used for each dimension of the two-dimensional array of items being calculated. e.g. I5 = 2^5 rows by 2^5 columns = 32x32 = 1024 numbers calculated per loop and I8 = 2^8 rows by 2^8 columns = 65536 numbers calculated per loop. Values below 32 could be used but result in the GPU being only partially utilized. Values above 8 exceeds the amount of memory allowed per CUDA kernel. Using the parameters L13 I5 takes 257 seconds to complete the sample workunit. Using L13 I8 takes only 44 seconds. Anything below I7 drastically increased the run time and will require move GPU time to complete the same workunit.

Lxx
Default Value: L5
Valid Values: L1 through L13
Purpose: controls the number of loops per reduction. The higher the number, the better the GPU utilization and the faster the workunit will complete. Also, the higher the number, the less responsive the system will be. Machines which are dedicated crunchers will likely want to use L13. Machines used while crunching will want to use a value from 1-5. The lower the number, the higher the elapsed time will be. For example, a value of L1 runs at 73% GPU utilization and takes 67 seconds whereas L13 runs at 99% GPU utilization and takes 43 seconds. By comparison, the v2.03 application takes about 51 seconds. The value is actually the power of 2 that is used, so L3 = 2^3 = 8 loops per reduction. L13 = 2^13 = 8192 loops per reduction. There is about a 2% difference in run time and a 1-2% difference in GPU utilization using L5 verse L13 on a 9800 GTX+.

In general the more items per loop (Ix) and the more loops per reduction (Lxx) the faster the workunit will complete and the worse the video response will be.

Sxxxx
Default Value: S1
Valid Values: S0 through S4294967295
Purpose: controls the number of milliseconds to wait for the application to complete the loops and reduction. Setting the value to 0 will cause it to use CPU while waiting for the GPU to finish its calculations but will result in teh fastest elapsed time. It will not increase or reduce the GPU time needed. Settings from 1 to 10 will have little effect on the runtime if using many loops per reduction (e.g. L13) but will drastically reduce GPU utilization when using fewer loops per reduction (e.g. the stock setting of L3). For example, using S10 results in an elapsed time of 83 seconds with L3 and 44 seconds with L13. Note: Setting this to the max value will require 136 YEARS to complete a workunit.

Warum sage ich nun nicht einfach: "Lade dir die Powerapps runter und fertig"?
Ganz einfach: Die in dem Powerappsarchiv enthaltene app_info.xml lässt dich nur die normalen Collatz-WUs rechnen; mit meiner app_info.xml funktionieren auch die mini_collatz. ;)

Viel Spass :D

Dunuin
11.06.2012, 17:40
;220374']Probiere erst mal aus wie lange Du mit einer 3D Brille überhaupt klar kommst.

Ausserdem finde ich nicht das man beim crunchen mit ATI besser dasteht, kommt ja darauf an was man cruncht ;-)

Brille ist nicht das Problem. Hab hier einen 3D-TV mit Shutterbrille und 3D ist wirklich schon ein unterschied zu 2D wie Schwarz-Weiß- zu Farbfernsehen. Problem ist ja nur, dass da absolut nichts rauskommt, was irgendwie ansehbar wäre.

Bei Spielen ist man da deutlich besser mit Material versorgt. Zum einen gibts da 100 mal mehr und zum anderen hat man vom Spiel mehr wie nur 90 Minuten.

Also eine Eierlegendewollmilchsau-Grafikkarte wäre mal wieder klasse.

Handicap SG-FC
13.06.2012, 22:32
@jubdo,

Was für eine Graka benutzt Du ?? und was kommt bei den Mini's bei Dir raus ??

Wenn ich die App_info richtig verstehe, rechnest Du aber auch nur eine WU / Graka ??

Ich werde das morgen mal anwerfen, da ich eh gerade alles neu machen musste.

MoKo
13.06.2012, 22:48
;220589']@jubdo,

Was für eine Graka benutzt Du ?? (1) und was kommt bei den Mini's bei Dir raus ?? (2)

Wenn ich die App_info richtig verstehe, rechnest Du aber auch nur eine WU / Graka ?? (3)

Ich werde das morgen mal anwerfen, da ich eh gerade alles neu machen musste.

1. Ich benutzte beim letzten mal eine Nvidia GTX560Ti und 9600GT

2. Fragst du, ob die bei mir valide sind oder wie meinst du das? Ich versteh die Frage net ganz.

3. Das ist korrekt. Trotzdem sind beide Karten voll ausgelastet.

Viel Erfolg morgen^^

[SG]Darkpapa
13.06.2012, 22:50
mit der app ist die graka auch zu über 90% ausgelastet und somit macht es kaum sinn,mehr als eine wu auf der graka zu rechnen

Handicap SG-FC
13.06.2012, 23:02
Danke euch Jungs,

FRage 2 bezog sich auf die Zeit / WU

MoKo
13.06.2012, 23:13
Ich hab leider keine mehr in meinem Acc.

Habe Collatz beim Pentathlon das letzte Mal mit meinen Nvidias gerechnet.

Handicap SG-FC
14.06.2012, 17:04
So habs mal installiert, weiß noch nicht so recht.

Er rechnet die 2.03 mini_collatz (Cuda23) nicht mehr.

Auf einer 8800 GTS mit der Op. Anwendung ist arbeiten nicht mehr möglich, da muss ich mal schauen wie ich das regel.

Dr. Frank-N-Furter
14.06.2012, 17:09
;220650']So habs mal installiert, weiß noch nicht so recht.

Er rechnet die 2.03 mini_collatz (Cuda23) nicht mehr.

Auf einer 8800 GTS mit der Op. Anwendung ist arbeiten nicht mehr möglich, da muss ich mal schauen wie ich das regel.

probier' mal S5 !

Uwe-Bergstedt
14.06.2012, 20:32
lohnt es sich crunchtechnisch eigentlich noch sich eine NVidia 580 zuzulegen-werden gerade billiger aber auch weniger- oder lieber gleich die Neuen greifen??

Dr. Frank-N-Furter
14.06.2012, 20:45
lohnt es sich crunchtechnisch eigentlich noch sich eine NVidia 580 zuzulegen-werden gerade billiger aber auch weniger- oder lieber gleich die Neuen greifen??

kurzfristig vielleicht.

die kepler-karten brauchen halt deutlich weniger strom und sind mit optimierten apps dann auch noch schneller.

heizen ist out. eine GT-640 sollte rein rechnerisch ungefähr den output einer GTS-450 produzieren können - bei 2/3 des stromverbrauchs.

auf die mid-range karten warten wir ja noch..

Handicap SG-FC
01.07.2012, 15:03
Hi JUngs,

Ich hab mal wieder eine Frage. Seit neusten bekommt einer meiner Rechner opencl_nvidis Wu's, und das obwohl ich nur Mini eingestellt hab. Zum einen dauern die Dinger über 31 Stunden bei mir, zum anderen blocken die den Rechner.

Auf meinen anderen bekomme ich immer artieg die Mini und ab und an die CUDA.

Was ist da los ??

Danke & Grüße

Handi

Dr. Frank-N-Furter
01.07.2012, 15:17
;222013']Hi JUngs,

Ich hab mal wieder eine Frage. Seit neusten bekommt einer meiner Rechner opencl_nvidis Wu's, und das obwohl ich nur Mini eingestellt hab. Zum einen dauern die Dinger über 31 Stunden bei mir, zum anderen blocken die den Rechner.

Auf meinen anderen bekomme ich immer artieg die Mini und ab und an die CUDA.

Was ist da los ??i

da hat slicker wohl mal wieder was zerbastelt.

hau' weg und steig' auf POEM um!

Handicap SG-FC
01.07.2012, 15:29
da hat slicker wohl mal wieder was zerbastelt.

hau' weg und steig' auf POEM um!

Auch nicht die rechte Lösung, aus 2 Gründen. Die anderen Rechner rennen ja und wenn ich in den POEM Thread schaue haben die Nvidia Jungs dort auch Probleme.

Dr. Frank-N-Furter
01.07.2012, 15:44
;222017']Auch nicht die rechte Lösung, aus 2 Gründen. Die anderen Rechner rennen ja und wenn ich in den POEM Thread schaue haben die Nvidia Jungs dort auch Probleme.

dein open-cl setup funktioniert offensichtlich - anders als bei den problemkandidaten.
und schon eine GTS-250 ist locker für einen RAC von 250k gut..

Handicap SG-FC
01.07.2012, 15:56
Ist eine 8800GT drin, nix gutes

Dr. Frank-N-Furter
01.07.2012, 17:34
;222026']Ist eine 8800GT drin, nix gutes

dürfte auch für 3k die stunde reichen, eher mehr. meine 9600gt liegt bei ca. 1 stunde.

Handicap SG-FC
02.07.2012, 11:37
Nu ist Collatz ganz Platt ??

Oder hab nur ich wieder Probs. ??

Sysadm@Nbg
02.07.2012, 14:11
;222092']Nu ist Collatz ganz Platt ??

Oder hab nur ich wieder Probs. ??

jipp - nicht nur du ... <<klick (http://www.seti-germany.de/forum/collatz-conjecture/5478-projekt-offline.html)>>

Handicap SG-FC
02.07.2012, 15:47
<-- Sagt Merci :x)

georg70
03.07.2012, 22:53
Heute gab es auf der Projekt Seite folgende News bezüglich CUDAs. Ich habe zwar keine, dachte aber es könnte interessieren:
"CUDA 4.2 Version for Windows Now Available
Collatz v3.11 for CUDA 4.2 has been added as an optimized application. Performance has been improved over both the Collatz v2.xx and v3.11 for OpenCL. This will become a standard Collatz CUDA application once a number of people have run it on a variety of nVidia GPUs. 3 Jul 2012 19:33:48 "

anthropisches
07.07.2012, 23:01
Heute gab es auf der Projekt Seite folgende News bezüglich CUDAs. Ich habe zwar keine, dachte aber es könnte interessieren:
"CUDA 4.2 Version for Windows Now Available
Collatz v3.11 for CUDA 4.2 has been added as an optimized application. Performance has been improved over both the Collatz v2.xx and v3.11 for OpenCL. This will become a standard Collatz CUDA application once a number of people have run it on a variety of nVidia GPUs. 3 Jul 2012 19:33:48 "

Ich testete mal die Versionen auf einer GT640 und GTX680. Sie erzeugten nur Error...
Es laufen aber die neuen Cuda311 (open CL) Versionen für nvidea.

Hat irgendwer die neuen Cuda42 zum Laufen bekommen?

anthropisches :x)

MoKo
08.07.2012, 00:07
Das hier sollte die Lösung sein.
Bei mir läuft es jedenfalls.

http://www.seti-germany.de/forum/2nd-wave/6338-notfall-bei-collatz-conjecture-2.html#post222523

shka
08.07.2012, 00:53
Das hier sollte die Lösung sein.
Bei mir läuft es jedenfalls.

http://www.seti-germany.de/forum/2nd-wave/6338-notfall-bei-collatz-conjecture-2.html#post222523

Damit scheint es zu laufen. :thumbup: Allerdings merke ich auf der GT520 nichts von Geschwindigkeitssteigerung, nach 30% sieht es nach einer Verdopplung der Laufzeit gegenüber der Standard-App aus.:undecided:

anthropisches
08.07.2012, 08:40
Das hier sollte die Lösung sein.
Bei mir läuft es jedenfalls.

http://www.seti-germany.de/forum/2nd-wave/6338-notfall-bei-collatz-conjecture-2.html#post222523

Klasse! Danke.

Es läuft...

anthropisches :x)

phaeton57
11.07.2012, 08:38
Ich hab über Nacht die Version 3.11 CUDA42 zum rechnen bekommen und die Laufzeiten haben sich von 4:10 min auf fast 26 min erhöht und die Auslastung der GPU lieg bei 15 %. :shocked:

Was muß ich hier verändern, um wieder kürzere Laufzeiten zu erreichen ???



Gruss phaeton57

HeNiNnG
11.07.2012, 09:54
lade dir hier (http://boinc.thesonntags.com/collatz/power_apps.php) eine ältere Version herunter. Bei mir läuft die collatz_2.04_windows_intelx86__cuda23_v1.4.zip (Win32 CUDA) am schnellsten. Den Inhalt des Archivs kopierst du in den Projektordner von CC. Eventuell kannst du noch schauen, ob du die Parameter in der App_info ändersst. Was diese Parameter bewirken, steht in der readme.txt, die dabei ist.

Alternativ kannst du auch probieren, auf der oben verlinkten Seite die aktuelle Version zu laden und dort dann versuchen die Parameter anzupassen, sodass die GPU wieder etwas besser ausgenutzt wird.

phaeton57
11.07.2012, 10:19
lade dir hier (http://boinc.thesonntags.com/collatz/power_apps.php) eine ältere Version herunter. Bei mir läuft die collatz_2.04_windows_intelx86__cuda23_v1.4.zip (Win32 CUDA) am schnellsten. Den Inhalt des Archivs kopierst du in den Projektordner von CC. Eventuell kannst du noch schauen, ob du die Parameter in der App_info ändersst. Was diese Parameter bewirken, steht in der readme.txt, die dabei ist.

Alternativ kannst du auch probieren, auf der oben verlinkten Seite die aktuelle Version zu laden und dort dann versuchen die Parameter anzupassen, sodass die GPU wieder etwas besser ausgenutzt wird.

Ich habe aber WIN64 und habe diese collatz_3.11_windows_x86_64__opencl_nvidia.zip runtergeladen, jedoch bekomme ich jetzt keine mini´s mehr, obwohl im Ordner dies drinsteht : mini_collatz_2,00_windows_x86_64_sse


Gruss phaeton57

HeNiNnG
11.07.2012, 13:39
Ich habe aber WIN64 und habe diese collatz_3.11_windows_x86_64__opencl_nvidia.zip runtergeladen, jedoch bekomme ich jetzt keine mini´s mehr, obwohl im Ordner dies drinsteht : mini_collatz_2,00_windows_x86_64_sse


Gruss phaeton57

Ich habe auch win64...die 32er App läuft trotzdem am schnellsten bei mir...;)

Zu den minis: meines Wissens nach, werden minis und normale mit derselben App berechnet...somit solltest du eigentlich welche bekommen können - die exe, die du da noch hast, wird mit deiner jetzigen App_info nicht mehr benutzt...

pschoefer
11.07.2012, 14:06
Ich habe auch win64...die 32er App läuft trotzdem am schnellsten bei mir...;)
Das ist fast immer so, deshalb bieten viele Projekte keine expliziten 64-Bit-GPU-Anwendungen an (zumindest nicht für Windows, bei Linux ist das wegen Treiberschwierigkeiten anders).


Zu den minis: meines Wissens nach, werden minis und normale mit derselben App berechnet...somit solltest du eigentlich welche bekommen können - die exe, die du da noch hast, wird mit deiner jetzigen App_info nicht mehr benutzt...
Es wird die gleiche Anwendung benutzt, trotzdem können die Minis nur berechnet werden, wenn es in der app_info.xml einen entsprechenden Eintrag gibt. Die mini_collatz_2.00_windows_x86_64_sse ist übrigens eine CPU-Anwendung, die noch einmal einen eigenen Eintrag braucht, wenn sie denn benutzt werden soll. ;)

MoKo
11.07.2012, 14:10
Ich habe aber WIN64 und habe diese collatz_3.11_windows_x86_64__opencl_nvidia.zip runtergeladen, jedoch bekomme ich jetzt keine mini´s mehr, obwohl im Ordner dies drinsteht : mini_collatz_2,00_windows_x86_64_sse


Gruss phaeton57

Die mini_collatz_2.00_windows_x86_64_sse ist keine GPU-App, sondern eine CPU-App; daher kann sie auch nicht für GPU-WUs benutzt werden.

Für die Mini-Collatz auf der GPU ist, wie HeNiNnG schon richtig sagte, keine spezielle App erforderlich; es werden einfach weniger Zahlern getestet als bei den "normalen" Collatz-WUs.

phaeton57
11.07.2012, 14:23
DANKE für die Antworten, dann muß ich also alles noch mal "umstöpseln" :D

Aber erst werde ich die angefangenen WU´s zu Ende crunchen.


Gruss phaeton57:x)

shka
11.07.2012, 14:39
Ich habe hier das gleiche Problem mit der Laufzeitverlängerung, hatte es vor Tagen bereits als opt. App versucht (Post 127 (http://www.seti-germany.de/forum/collatz-conjecture/3754-nvidia-gpus-6.html#post222563)), seit heute ist diese ja wohl die Standard-App.

Mache nur Mini-Collatz, erhalte zum Teil mini_collatz_3.11 (cuda40), zum anderen mini_collatz_3.11 (cuda42)

auf zwei identischen Rechnern: Win7_64, BM 6.12.34, nVidia GT 520
Laufzeit bisher 35-40min, jetzt 1:15-1:20h bei gleichen Credits.

Kann ich irgenwie die alte App wieder reaktivieren?

Dr. Frank-N-Furter
11.07.2012, 14:48
Die mini_collatz_2.00_windows_x86_64_sse ist keine GPU-App, sondern eine CPU-App; daher kann sie auch nicht für GPU-WUs benutzt werden.

Für die Mini-Collatz auf der GPU ist, wie HeNiNnG schon richtig sagte, keine spezielle App erforderlich; es werden einfach weniger Zahlern getestet als bei den "normalen" Collatz-WUs.

tja, aber mini's gibt's nur dann, wenn die auch in der app_info vorhanden ist.

davon ab: wie soll man euch helfen wenn ihr eure hosts versteckt, keine links postet und nichtmal die einstellungen die bei euch laufen verratet?:wall:

Handicap SG-FC
11.07.2012, 15:19
Vielleicht macht es ja mal Sinn die verschiedenen Apps zu sammeln, mit Kommentaren versehen für die unterschiedlichste Hardware und das in die Wiki zustellen ??

Ich zum Beispioel hab von der CUDA40 / 42 bisher noch nicht gesehen. Ich habe aber auch mit der Optimierten APP teilweise Probleme gehabt, was aber auch an meiner Hardware liegen kann.

shka
11.07.2012, 15:53
davon ab: wie soll man euch helfen wenn ihr eure hosts versteckt, keine links postet und nichtmal die einstellungen die bei euch laufen verratet?:wall:

Also dann von mir die Rechner PC 100050 (http://boinc.thesonntags.com/collatz/show_host_detail.php?hostid=100050) und 99981 (http://boinc.thesonntags.com/collatz/show_host_detail.php?hostid=99981), einfach über die ersten Seiten der abgebrochenen drüberblättern.

Ich hoffe, das reicht an Angaben. :x)

Dr. Frank-N-Furter
11.07.2012, 16:18
Also dann von mir die Rechner PC 100050 (http://boinc.thesonntags.com/collatz/show_host_detail.php?hostid=100050) und 99981 (http://boinc.thesonntags.com/collatz/show_host_detail.php?hostid=99981), einfach über die ersten Seiten der abgebrochenen drüberblättern.

Ich hoffe, das reicht an Angaben. :x)

1.: die aktuelle optimierte 4.2 app NEU runterladen.

2.: app_info bearbeiten:

<cmdline>K16 I65536 S1</cmdline> ist VIEL zu kurz gegriffen. probier's erstmal mit

<cmdline>K32 I131072 S1</cmdline>

möglicherweise geht auch K64

ändere <name>collatz</name> in <name>mini_collatz</name>
und <app_name>collatz</app_name> in <app_name>mini_collatz</app_name>

shka
11.07.2012, 16:28
Besten Dank für die prompte Bedienung. Melde mich (erfolgreich?!?) nach Umsetzung wieder. :x)
(Geht hier ja schneller als in manchem Chat. :D)

HeNiNnG
11.07.2012, 17:23
Ich fahre mit S10 immer ganz gut....Versuch ists Wert ;)

Dr. Frank-N-Furter
11.07.2012, 17:31
Ich fahre mit S10 immer ganz gut....Versuch ists Wert ;)

ob jetzt 1 oder 10 tausendstel sekunden wait spielt nicht die große rolle. wichtig für die performance sind die beiden anderen einstellungen.

Chris397
11.07.2012, 23:32
Ich habe hier das gleiche Problem mit der Laufzeitverlängerung ...,

Laufzeit bisher 35-40min, jetzt 1:15-1:20h bei gleichen Credits.


Ich muss ebenfalls eine Laufzeitverlängerung melden, bei cuda23 hatte ich auf meiner GTS450 noch 9:30 - 10:00 min für eine Mini-Collatz - mit cuda 40 sinds jetzt 16-17min - bei gleichen Credits.

Da ist scheinbar die Optimierung gründlich in die Hose gegangen :sad:

Viele Grüße :x)

Chris397

[SG] steini
12.07.2012, 05:14
1.: die aktuelle optimierte 4.2 app NEU runterladen.

2.: app_info bearbeiten:

<cmdline>K16 I65536 S1</cmdline> ist VIEL zu kurz gegriffen. probier's erstmal mit

<cmdline>K32 I131072 S1</cmdline>

möglicherweise geht auch K64

ändere <name>collatz</name> in <name>mini_collatz</name>
und <app_name>collatz</app_name> in <app_name>mini_collatz</app_name>

Was heisst zu kuez gegriffen?
Meine GPU hat jetzt ne Auslastung von 62%, Kann man die noch erhöhen oder soll ich lieber wieder mit count 0.5 fahren?

Vorher hat eine Wu 5min. gebraucht und ich habe auf 0.5 umgestellt - danach haben 2 wus 7min. gebraucht.
Jetzt benötigt eine bereits 7min...



mFg steini

shka
12.07.2012, 10:15
1.: die aktuelle optimierte 4.2 app NEU runterladen.
2.: app_info bearbeiten:
...
ändere <name>collatz</name> in <name>mini_collatz</name>
und <app_name>collatz</app_name> in <app_name>mini_collatz</app_name>

Kein Erfolg. :undecided:
opt. Cuda 42 runtergeladen und Einstellungen angepasst, nur Berechnungsfehler, auch nach Anpassung der DLL-Bezeichnung
opt. Cuda 40 runtergeladen und Einstellungen angepasst, läuft, aber keine Änderungen der Laufzeit (immer noch annähernd doppelt so hoch)

deshalb alte opt Cuda 23 runtergeladen, läuft wieder deutlich schneller, noch nicht ganz die alte Zeit.
Sollte ich was an den Einstellungen <cmdline>L5 I8 S1</cmdline> machen bei einer GT 520?

phaeton57
12.07.2012, 12:33
1.: die aktuelle optimierte 4.2 app NEU runterladen.

2.: app_info bearbeiten:

<cmdline>K16 I65536 S1</cmdline> ist VIEL zu kurz gegriffen. probier's erstmal mit

<cmdline>K32 I131072 S1</cmdline>

möglicherweise geht auch K64

ändere <name>collatz</name> in <name>mini_collatz</name>
und <app_name>collatz</app_name> in <app_name>mini_collatz</app_name>

Ich habe die Einstellung <cmdline>K128 I524288 S1</cmdline> vorgenommenn und die

570 benötigt ca. 4 min und die 580 ca. 3,5 min und läuft. Auslastung ca. 94 % :D


Gruss phaeton57:x)

Dr. Frank-N-Furter
12.07.2012, 13:46
Ich habe die Einstellung <cmdline>K128 I524288 S1</cmdline> vorgenommenn und die

570 benötigt ca. 4 min und die 580 ca. 3,5 min und läuft. Auslastung ca. 94 % :D

mit den karten sollte sich mit K256 noch was rausquetschen lassen.

Handicap SG-FC
12.07.2012, 14:16
@frankHagen,

Sag mir doch mal bitte wie Du auf die Werte kommst, oder wie Du das erarbeitet hast.

Ich kann mich entsinnen das es früher mal Test Wu's gab, um solche Vergleiche machen zu können, aber das ist scheinbar ja nicht mehr der Fall ??

Dr. Frank-N-Furter
12.07.2012, 14:38
;222970']@frankHagen,

Sag mir doch mal bitte wie Du auf die Werte kommst, oder wie Du das erarbeitet hast.

im readme steht: "K64 I262144 S1 -- This works very well on a 9800 GTX+ giving reasonable video response, 99% GPU utilization, and shaves 17.8% off the run time compared to the Collatz v2.03 CUDA application."

damit hab' ich angefangen. je mehr shader eine karte hat, desdo höher kann man "K" schrauben.


Ich kann mich entsinnen das es früher mal Test Wu's gab, um solche Vergleiche machen zu können, aber das ist scheinbar ja nicht mehr der Fall ??

müsste eigentlich immernoch als offline-test gehen.


Hinzugefügter Post:


steini;222955']Was heisst zu kuez gegriffen?
Meine GPU hat jetzt ne Auslastung von 62%, Kann man die noch erhöhen oder soll ich lieber wieder mit count 0.5 fahren?

dürfte auch funktionieren, ist aber vermutlich die schlechtere alternative. besser den K-wert optimieren und bei einer einzelnen WU bleiben.

Handicap SG-FC
12.07.2012, 15:43
Danke für die Erklärung.

Dann wäre eine Shader Tabelle und die dazu passenden Werte doch genau der Weg ??

phaeton57
12.07.2012, 15:49
mit den karten sollte sich mit K256 noch was rausquetschen lassen.
Hallo frankHagen,

muß denn dann der I-Wert dahinter auch verdoppelt werden? Frag ich mal so als Laie .


Gruss phaeton57:x)

Dr. Frank-N-Furter
12.07.2012, 15:57
;222973']Danke für die Erklärung.

Dann wäre eine Shader Tabelle und die dazu passenden Werte doch genau der Weg ??

so einfach ist das nicht. die generation des chips spielt mit sicherheit auch eine rolle.

wenn hier allderdings einige leute den kartentyp und das optimale setup posten, sollte das so gehen.


Hinzugefügter Post:


muß denn dann der I-Wert dahinter auch verdoppelt werden? Frag ich mal so als Laie .

K = anzahl der kernels
I = Items pro kernel

macht also nur dann sinn, wen die maximale anzahl der parallelen kernels eines chips erreicht sind. ob das dann noch was bringt?

Dr.David Bowman
09.10.2012, 14:08
Ich habe mal die langen mit den mini GPU WUs unter versch.Einstellungen verglichen.
Ich wollte rausfinden wo ich mehr Credits/Min bekomme.
Vlt hilft es ja dem ein oder anderen eine Entscheidung zu treffen,was gerechnet wird.

Test erfolgte mit einer GT 640-2048MB
Win7-64bit/boinc 7.0.31/Treiber 306.23/8 GB Ram

Die normale collatz WU:
Benutzte opti app...

http://boinc.thesonntags.com/collatz/download/collatz_2.05_windows_intelx86__cuda31.zip

wobei ich die app_info_xml mit der von jubdo ersetzt habe
http://www.seti-germany.de/forum/229633-post329.html

Hier gabs im Schnitt ca 28 Credits/Min

http://img9.dreamies.de/img/288/b/fb5csxoo0y0.jpg (http://www.dreamies.de)

Die mini collatz:
Benutzte opti app...

http://boinc.thesonntags.com/collatz/download/collatz_3.11_windows_x86_64__cuda42.zip

wobei ich die app_info_xml mit der von [SG] steini ersetzt habe
http://www.seti-germany.de/forum/229751-post342.html

Ausserdem habe ich diese Werte mal verändert und getestet.
<count>0.5</count>
<cmdline>K64 I131072 S1</cmdline>

Testergebnisse:

http://img28.dreamies.de/img/983/b/hfuxq5kctke.jpg (http://www.dreamies.de)
Gesammt für die ersten beiden WUs: 24 Creds/Min
Gesammt für die nächsten beiden WUs: 25,7 Creds/Min
Vorletzte WU: 22,4 Creds/Min
Letzte WU: 21,7 Creds/Min
---------------------------------------------------
Einstellung

<count>1</count>
<cmdline>K128 I131072 S1</cmdline>
http://img20.dreamies.de/img/815/b/d6k80dyo73j.jpg (http://www.dreamies.de)
416,69 Creds
26,2 Creds/Min
---------------------------------------------------
Einstellung

<count>1</count>
<cmdline>K128 I262144 S1</cmdline>
http://img3.dreamies.de/img/533/b/choreeyod86.jpg (http://www.dreamies.de)
358,45 Creds
23,7 Creds/Min
--------------------------------------------------
Einstellung

<count>1</count>
<cmdline>K256 I131072 S1</cmdline>
http://img23.dreamies.de/img/371/b/3ai66sig21s.jpg (http://www.dreamies.de)
Creds noch ausstehend,sollte aber jetzt kein Ausreisser sein
--------------------------------------------------
Einstellung

<count>1</count>
<cmdline>K256 I262144 S1</cmdline>
http://img15.dreamies.de/img/224/b/mofybk3yu3l.jpg (http://www.dreamies.de)
Creds noch ausstehend,sollte aber jetzt kein Ausreisser sein


Fazit:

Keine der minis mit meinen vorgenommenen Einstellungen kam an die "großen" GPU WUs heran.
Das heisst für mich,daß ich nur noch die großen GPU WUs rechne,
auch wenn die "viel" CPU ziehen (hat andere WUs nicht beeinflusst).
Damit mache ich immerhin ca 240 Creds/Std oder ca 5760 Creds/Tag mehr als mit den minis.

Schlimm dabei find ich die unendlichen Möglichkeiten WUs zu berechnen.
20 versch opti-apps und ohne Ende versch Einstellungsmöglichkeiten in den xmls.
Wer soll da noch durchblicken,wenn man sich nicht grad damit auskennt?

Wermutstropfen:
Es scheint hier GT 640er zu geben die viel schneller laufen als meine.
Ich würd ja schon gern wissen welche app und xml die benutzen,
gern auch per PN :rolleyes:

Nachtrag:
Die GPU Auslastung lag immer so bei 95-99%

Dr. Frank-N-Furter
09.10.2012, 18:09
1. dürfte die CUDA 4.2 version auf kepler karten schneller sein als 3.1.
2. hat's bisher noch nie was gebracht, mehr als eine WU pro karte zu fahren - wenn, dann schraubt man die parameter der app um.

[SG] steini
09.10.2012, 18:16
Tja wie Bowman schon schrieb gibt es da unzählige Möglichkeiten und ich werde bestimmt nich anfangen diese Einstellungen zu studieren.
Ein 0.5 anstatt 1 einzugeben ist allemal einfacher.

Dr. Frank-N-Furter
09.10.2012, 18:23
STUDIEREN - 3 parameter, von denen 2 relevant sind? :shocked:

Dr.David Bowman
10.10.2012, 13:47
1. dürfte die CUDA 4.2 version auf kepler karten schneller sein als 3.1.
2. hat's bisher noch nie was gebracht, mehr als eine WU pro karte zu fahren - wenn, dann schraubt man die parameter der app um.

1.)
Wenn du die normalen meinst kann ich das so nicht bestätigen.
Bei mir zumindest,laufen die auf 3.1 zwanzig Min schneller.
Die minis hat ich ja mit cuda 4.2 getestet.

Komisch ist,die minis bekomme ich jetzt auch (vorher irgendwie nicht) über jubdo s 3.1er app und die laufen
schneller wie die 4.2er 816.08 sek/Wu,was gleichzusetzen ist mit dem Credit der normalen WU s (28 Creds/Min)

2.)
Hm....versteh ich jetzt nicht so ganz.Woanders,ich glaub bei Poem,macht es sehrwohl Sinn mehrere WUs laufen zu lassen.
Oder hab ich dich jetzt falsch verstanden?
Davon abgesehen ist meine Karte eh zu schwach,ich wollte es nurmal testen.

Dr. Frank-N-Furter
10.10.2012, 16:25
1.)
Wenn du die normalen meinst kann ich das so nicht bestätigen.
Bei mir zumindest,laufen die auf 3.1 zwanzig Min schneller.
Die minis hat ich ja mit cuda 4.2 getestet.

mit gleichen parametern?


Komisch ist,die minis bekomme ich jetzt auch (vorher irgendwie nicht) über jubdo s 3.1er app und die laufen
schneller wie die 4.2er 816.08 sek/Wu,was gleichzusetzen ist mit dem Credit der normalen WU s (28 Creds/Min)

ARRGGGH!!!

die credits bei collatz sind nicht fixed und schwanken locker +/- 10%.
die laufzeiten sind konstanter aber auch leicht schwankend.
die credits der kurzen sind im verhältnis zur laufzeit gleichzusetzen mit den langen - zumindest war das immer die ansage von slicker.



2.)
Hm....versteh ich jetzt nicht so ganz.Woanders,ich glaub bei Poem,macht es sehrwohl Sinn mehrere WUs laufen zu lassen.
Oder hab ich dich jetzt falsch verstanden?

POEM ist die einzige ausnahme wo das ernsthaft lohnt.
collatz lässt sich mit ein wenig rumprobieren (mit den kurzen) über die parameter problemlos auf 99% GPU-last bei < 5% CPU-last bringen. ist mir zumindest bisher immer gelungen.

lies mal die textdatei, die den optimierten apps begepackt ist..

Dr.David Bowman
10.10.2012, 16:53
mit gleichen parametern?

Ich hab folgende apps probiert:
3.14...intelex86....cuda4.2
im orginal und 1x mit I-Wert 131072
3.11....intelex86....cuda 4.2
im orginal und 1x mit K-Wert 32
3.11....winx86-64....cuda4.2
Berechnungsfehler
3.11...intelex86....cuda 40
nur im orginal
Die Reihenfolge weiss ich nicht mehr.
Irgendwann gabs nen Bluscreen und ich hatte keine Lust mehr.
Bei meinen skills ( :cheesy: ) ist das auch alles sehr zeitaufwendig.



ARRGGGH!!!

die credits bei collatz sind nicht fixed und schwanken locker +/- 10%.
die laufzeiten sind konstanter aber auch leicht schwankend.
die credits der kurzen sind im verhältnis zur laufzeit gleichzusetzen mit den langen - zumindest war das immer die ansage von slicker.

Das ist wahr und nach einer mini nicht wirklich aussagekräftig :redface:
aber komisch geschaut hab ich schon




lies mal die textdatei, die den optimierten apps begepackt ist..

Nö,ich denke 10x reicht und so ganz bin ich immer noch nicht so richtig durchgestiegen.
Mein Prob ist,wenn ich sowas öffne und lese,dann hab ich danach eigtl noch mehr Fragen offen ;)
Das ist frustrierend!

Nachtrag zu den Parametern:
Hab jeweils nur an einer WU getestet und deswegen,wie du schon bemerkt hast,nicht
verbindlich.
Jeweils 10 wären bestimmt besser gewesen,wegen Zeitmangel hab ichs aber gelassen.

Nachtrag:

Was ich schon immer mal fragen wollte,aber immer vergass.

Wo ist der Unterschied bei den APPs mit windowsx86-64 und intelx86 ?
Ist das eine für 32 bit und das andere für 64
oder verschiedene und ganz bestimmte WUs?
Gibts da ne Tendenz?

Dr. Frank-N-Furter
10.10.2012, 17:11
Ich hab folgende apps probiert:
3.14...intelex86....cuda4.2
im orginal und 1x mit I-Wert 131072

viel zu klein!


K<kernels> - Kernels per reduction. Must be divisible by 2. 16 is the default. Larger values improve GPU utilization. Suggested range between 4 and 256. Example: K64

I<items> - Items per kernel. Must be a power of 2. 65536 is the default. Larger values use more GPU memory (32 bytes of storage per number, so 65536 uses 2MB of GPU RAM and 262144 uses 8MB, and so on), improves GPU utilization, and lowers overall completion time. Lower values use less memory, slows down crunching, and improvea video response. 8192 is the suggested lowest value to use. Using too large a value will cause the video driver to crash and the app will hang. The best value is different for each model of GPU. Example: I262144

K64 I262144 S1 -- This works very well on a 9800 GTX+ giving reasonable video response, 99% GPU utilization, and shaves 17.8% off the run time compared to the Collatz v2.03 CUDA application.


und die karte tritt mit 128 shadern an, hatte noch keinen multi-kernel support und viel weniger register als die aktuellen karten.

für eine kepler würde ich mit K=128 und I=524288 anfangen.


Nö,ich denke 10x reicht und so ganz bin ich immer noch nicht so richtig durchgestiegen. Mein Prob ist,wenn ich sowas öffne und lese,dann hab ich danach eigtl noch mehr Fragen offen ;)
Das ist frustrierend!

der text ist jetzt weder übermäßig lang, noch verschwurbelt geschrieben. und auch klar angesagt, das ein setup, das für steinalt-karten passt, wohl kaum 2 kartengenerationen danach noch irgendwie passt.

Dr.David Bowman
10.10.2012, 17:44
viel zu klein!


für eine kepler würde ich mit K=128 und I=524288 anfangen.



Au Backe,da war ich wohl zu vorsichtig.

Also K schraub ich hoch um den GPU Load auf nahezu 99% zu bekommen und
I schraub ich hoch um GPU Mem höher zu bekommen.?
Kann ich demnach mit GPU-Z kontrollieren.

Ist das ungefähr richtig?

Dr. Frank-N-Furter
10.10.2012, 18:37
Au Backe,da war ich wohl zu vorsichtig.

Also K schraub ich hoch um den GPU Load auf nahezu 99% zu bekommen und
I schraub ich hoch um GPU Mem höher zu bekommen.?
Kann ich demnach mit GPU-Z kontrollieren.

Ist das ungefähr richtig?

ja, das ist der plan.

Dr.David Bowman
10.10.2012, 19:42
ja, das ist der plan.

:kiss: :kiss: :kiss:

Fein.
Ist es möglich die Einstellungen während eine WU läuft zu verändern?
Also,Boinc beenden....ändern.....Boinc wieder starten.

Oder ist es ratsam die WU erst fertig zu rechnen und neue Einstellungen mit einer neuen WU zu starten?

Dr. Frank-N-Furter
10.10.2012, 20:51
:kiss: :kiss: :kiss:

Fein.
Ist es möglich die Einstellungen während eine WU läuft zu verändern?

soweit ich mich erinnern kann, gibt's dann schrott. deswegen test mit mini_collatz.

oder besser noch: immer die selbe WU ohne boinc vom command-prompt. syntax hab' ich nicht mehr im kopf, dürfte sich aber bei boinc im slot finden lassen, wenn eine läuft.

Dr.David Bowman
11.10.2012, 00:49
oder besser noch: immer die selbe WU ohne boinc vom command-prompt. syntax hab' ich nicht mehr im kopf, dürfte sich aber bei boinc im slot finden lassen, wenn eine läuft.

Wot ? :shocked:
Ich mußte erst mal googeln um rauszufinden was command-promt ist .
Du willst mich doch extra verwirren,oder is das sone art Unterricht ? :rolleyes:

Mit der 3.14 intelx86 cuda4.2 gabs leider nur ne Meldung im BM,das ich keine Minis bekommen könnte.Also hab ich mit normalen getestet.
K 128 I 262144 ------ 7413 sek
K 256 I 524288 ------ unwesentlich weniger

(Zum Vergleich mit der 2.05 intelx86 cuda 3.11
6525 sek)

weiter wollt ich nicht testen,weils
1. zu spät ist
2. der PC anfing zu laggen (auch beim ersten 128er test)

Trotzdem vielen Dank für die kostenlose IT Einführungsstunde :)

Dr. Frank-N-Furter
11.10.2012, 16:58
Wot ? :shocked:
Ich mußte erst mal googeln um rauszufinden was command-promt ist .
Du willst mich doch extra verwirren,oder is das sone art Unterricht ? :rolleyes:

was soll ich machen? der heisst nun mal so.


Mit der 3.14 intelx86 cuda4.2 gabs leider nur ne Meldung im BM,das ich keine Minis bekommen könnte.Also hab ich mit normalen getestet.
K 128 I 262144 ------ 7413 sek
K 256 I 524288 ------ unwesentlich weniger

(Zum Vergleich mit der 2.05 intelx86 cuda 3.11
6525 sek)

eigenartig - für gewöhnlich verzapft slicker da keinen quatsch.
aber mangels kepler-karte kann ich's auch nicht selber testen.

Dr.David Bowman
11.10.2012, 21:35
Kommandozeile und Eingabeaufforderung hatte ich gefunden :)

Vlt liegts auch an meinem PC oder mir.
Ich bin aber jetzt recht zufrieden .

ronaldo
22.11.2012, 19:54
hat schon jemand die "neuen" Power Apps (http://boinc.thesonntags.com/collatz/power_apps.php) ausprobiert? (CUDA50 Version 3.17)
Bzw. kann jemand was zu den config Einstellungen sagen?

items_per_kernel=...
kernels_per_reduction=...
threads=...
sleep=...
Ich werde es morgen nach der WCG Challenge mal selber testen, wenn ich Zeit dazu haben sollte. Aber wenn einer schon mal paar Erfahrungswerte haben sollte, immer her damit...

Nachtrag

So nun nach der WCG Challenge habe ich mal ein wenig getestet, wenn auch nicht übermäßig viel ;)
Bei den Einstellungen hab ich erstmal diese hier drin, läuft damit eigentlich schön rund und sauber durch.

items_per_kernel=20
kernels_per_reduction=8
threads=9
sleep=1
Die Auslastung der GPU ist fast durchgängig bei 99%! Somit bringt es auch nix 2 oder mehr WU's parallel laufen zu lassen...
Und die Berechnungszeiten haben sich auch ein wenig verringert, wenn ich mich recht erinnere wie die Zeiten mit der älteren Version waren.
Bei sind die Zeiten auf einer GTX 570 bei rund 160 Sekunden für die mini Collatz!

Handicap SG-FC
23.11.2012, 16:24
Da mal eine Frage zu. Ich rechne zur Zeit Cuda40 und Cuda23.

Fliegen die dann raus, und es kommen dann nur noch Cuda50 ??

//EDIT

So ich schaue mir gerade Grakas an. Es soll wohl eine 650TI werden, denke die passt noch gut zu meinem AM2 Board.

Aber was ist besser, 1GB RAM oder 2GB RAM ?? Der Rechner wird nie zum spielen genutzt.

Und gibt es Unterschieder der Hersteller ?? Empfehlungen ??

Dr. Frank-N-Furter
23.11.2012, 17:04
;233638']Da mal eine Frage zu. Ich rechne zur Zeit Cuda40 und Cuda23.

Fliegen die dann raus, und es kommen dann nur noch Cuda50 ??

so sollte das sein..


Hinzugefügter Post:


;233638']Aber was ist besser, 1GB RAM oder 2GB RAM ?? Der Rechner wird nie zum spielen genutzt.

Und gibt es Unterschieder der Hersteller ?? Empfehlungen ??

zum crunchen sind 2gb eigtl. überflüssig -derzeit.

ich hab' neulich die MSI GTX_650_Ti_Power_Edition (http://www.techpowerup.com/reviews/MSI/GTX_650_Ti_Power_Edition/) verbaut.

läuft prima!

Handicap SG-FC
23.11.2012, 17:15
Thx,

Da ich für den Preis eine 2GB Version bekomme, werd ich wohl zuschlagen. Evtl. kann ich dann Seti 2-.3 Wu's drauf fahren.

Zu den Cudaxx Berechnungen noch eine Frage, man muss dann immer basteln wenn die Cuda50 mal ausgehen. Gibt es eine Möglichkeit das man alle 3 Versionen rechnen kann ??

Im Moment läuft bei mir diesbezüglich alles stock, also ohne APP. Grakas sind gut ausgelastet.

Tecladore
23.11.2012, 18:28
Moin,
macht es Sinn meine 560ti-2GB, läuft bei 94% GPULoad, noch zu optimieren bzw. CUDA50 laufen zu lassen?
Wenn ja, für CUDA50 muß der GeForce 310.54 Driver BETA-Treiber erstmal rauf, oder? (Ist nen WinXP-32bit Sys)

Edith hat noch weiter gesucht: reicht der "CUDA 5.0 Production Release" auch, oder muß es der Beta-Treiber sein?

AxelS
23.11.2012, 18:38
Bei der power apps für cuda 5 (v3.17) heißt es:

... 306.94 or later drivers ...
Also kein Beta Treiber. ;)

Tecladore
23.11.2012, 18:40
Eben, hab 306.81 drauf (CUDA 5.0.1) das ist der neuste für mich, finde nix anderes.

AxelS
23.11.2012, 18:44
Ich habe nachgesehen bei meinen WinXP Rechner. Die haben auch nur die 306.81 drauf ...und es funktioniert trotzdem.

Tecladore
23.11.2012, 19:12
Oki, danke.
Ach, und bringt's was?

Edith sagt: Bringt was, CUDA50 ohne app_info gefummel: GPU bei 99% auch gleich 5° wärmer geworden -> minis ca 120 sek schneller, normale 300 sek bei der 560ti (http://boinc.thesonntags.com/collatz/results.php?hostid=115906&offset=0&show_names=0&state=2).

ronaldo
24.11.2012, 11:50
;233644']Thx,

Da ich für den Preis eine 2GB Version bekomme, werd ich wohl zuschlagen. Evtl. kann ich dann Seti 2-.3 Wu's drauf fahren.

Zu den Cudaxx Berechnungen noch eine Frage, man muss dann immer basteln wenn die Cuda50 mal ausgehen. Gibt es eine Möglichkeit das man alle 3 Versionen rechnen kann ??

Im Moment läuft bei mir diesbezüglich alles stock, also ohne APP. Grakas sind gut ausgelastet.
Zu deiner 2. Frage: es gibt keine extra WU's für die verschiedenen Anwendungen(wenn die WU's alle sind, dann für alle;)). Die WU's sind alle dieselben, nur man kann eben selber wählen ob man die mit der verteilten stock Anwendung berechnet oder eben mit einer "optimierten Anwendung" , wobei man da neben der Optimierung an sich noch bissle was bei den config Einstellungen raus holen kann.

Handicap SG-FC
24.11.2012, 13:08
@ronaldo,

Erstmal Danke für die Info.

Dann versteh ich aber nicht weshalb er WU's verwirft wenn man die Berechnungsart wechselt..

Ich hab nun mal die Version 3.17 installiert also alles so wie es im Paket drin ist.

Nun will er an einer WU 1,5 Stunden rechnen :D

Werd da mal ein Paar durchlaufen lassen und mal schauen wie es sich entwickelt.

Falls wer eine Idee hat für die Parameter in der CONFIG, für GTX 470 immer her damit.

Jede WU zählt.

ronaldo
24.11.2012, 13:42
probiers einfach aus...
kannst die Werte die ich bei meiner 570 habe, als kleinen Anhaltspunkt nehmen und falls es zu Verzögerungen bei der Bildausgabe kommt usw. die Werte einfach ein wenig reduzieren - den auch wie es in der Readme steht zu hohe Werte für die jeweilige Karte können zu Berechnungsfehlern oder Erhöhung der Berechnungszeit führen.
items_per_kernel=20
kernels_per_reduction=8
threads=9
sleep=1

Handicap SG-FC
24.11.2012, 14:02
So erste Ergebnisse:

Mini_50 4:30 - 4:40 Min.
50 26 -27 Min.

Mini_23 4 - 7 Min.

40 40-46 Min.

Mit der Config, ich hab halt zu den alten Werten verglichen. Mus smal sehen ob ich die WU'S finde, um zu schauen was die an Kredits bringen, oder ist das immer gleich ??

verbose=1
items_per_kernel=15
kernels_per_reduction=8
threads=8
sleep=1

AxelS
24.11.2012, 15:04
Meine GTX 660Ti cruncht durchschnittlich die mini_collatz in 3 min und die normalen collatz in 24,5 min durch.
Die Auslastung der Graka optimalerweise bei 99% (Turbomode). :D:thumbup:

Einstellungen in der collatz.config


items_per_kernel=20
kernels_per_reduction=10
threads=10
sleep=1

Bei dem threads= Parameter habe ich 10 stehen, da die Grafikkarte mehr als 1024 shaders hat.

Bei einer anderen Graka mußte ich auf 7 reduzieren (128 Shader). Davor hat sie Datenmüll produziert (Durchlaufzeiten von wenigen Sekunden).

Handicap SG-FC
24.11.2012, 15:13
Bei einer anderen Graka mußte ich auf 7 reduzieren (128 Shader). Davor hat sie Datenmüll produziert (Durchlaufzeiten von wenigen Sekunden).

Was für eine bitte ??

und wie bekomme ich raus wie viel Shader eine Karte hat ??

Dr. Frank-N-Furter
24.11.2012, 15:20
GPU-Z

Handicap SG-FC
24.11.2012, 15:53
GPU-Z

:redface:

Danke

Meiner Einer
24.11.2012, 15:58
;233741']:redface:

Danke

Oder --> NVIDIA Inspector (http://blog.orbmu2k.de/)

AxelS
24.11.2012, 18:54
Warum so umständlich?

Desktop -> [Rechte-Maus-Klick] -> NVIDIA Systemsteuerung aufrufen, dort im Menü, Hilfe die Systeminformationen anklicken
und die angezeigen Informationen aufmerksam lesen.
Ist ja bei jedem Treiber dabei. ;)

fromdusk
25.11.2012, 06:07
Meine GTX 660Ti cruncht durchschnittlich die mini_collatz in 3 min und die normalen collatz in 24,5 min durch.
Die Auslastung der Graka optimalerweise bei 99% (Turbomode). :D:thumbup:

Einstellungen in der collatz.config


items_per_kernel=20
kernels_per_reduction=10
threads=10
sleep=1

Bei dem threads= Parameter habe ich 10 stehen, da die Grafikkarte mehr als 1024 shaders hat.

Bei einer anderen Graka mußte ich auf 7 reduzieren (128 Shader). Davor hat sie Datenmüll produziert (Durchlaufzeiten von wenigen Sekunden).

Hey,

hab auch so eine GPU :x)


Du verwendest die neue CUDA50 (http://boinc.thesonntags.com/collatz/power_apps.php) App vom 11/06/2012 14:50 CST?

Hast Du die Einstellungen angepasst oder ist das Standard?

Welche Einstellung könnte ich optimalerweise übernehmen?

Grüße
fromdusk

AxelS
25.11.2012, 09:08
@fromdusk

Ich machs mal ganz kurz :D
1. Ja
2. angepasst
3. kernels_per_reduction und threads hab ich hochgesetzt.

...kontrolliere auf jeden Fall mit GPU-Z, bei meiner Karte steigt die GPU Temp auf 80°C . :x)

Handicap SG-FC
25.11.2012, 11:21
Sagt mal Jungs, baut Ihr auch gerade so ein riesen Pending auf ???

Seit ich umgestellt habe, ballert das Pending immer höher, mein Tagsoutput wird immer weniger.

Komischer Weise seit der Umstellung auf Version 3.17

Siehe auch hier :

http://boincdude.de/2ndwave/Collatz/project.php?projectid=Handicap%20[SG-FC]

Tecladore
25.11.2012, 12:02
Pendings bei Collatz ist normal, ich brauch immer so 2-3 Tage bis die volle Leistung raus kommt.
Hab derzeit 312k, Tendenz weiterhin steigend, im Pending.

Dr.David Bowman
26.11.2012, 17:37
hat schon jemand die "neuen" Power Apps (http://boinc.thesonntags.com/collatz/power_apps.php) ausprobiert? (CUDA50 Version 3.17)
Bzw. kann jemand was zu den config Einstellungen sagen?

items_per_kernel=...
kernels_per_reduction=...
threads=...
sleep=...


Ich hab die jetzt auchmal probiert.
Tatsächlich 1-2 min schneller.
Allerdings lief mein PC dann wie bei den WCG-HCC-GPU-WUs,nämlich langsam und schlecht zu benutzen.
Also hab ich wieder zurückgefrickelt.Auch weil ich nicht in die Collatz config reinkam (Program zum öffnen war nicht bekannt) sonst hätt ich da evtl noch schrauben können.
Allerdings hat meine GT 640 --- 384 Shader.
Also irgendwas zwischen 8 und 9 bei diesem Parameter--> threads=10--

Dr. Frank-N-Furter
26.11.2012, 17:44
Also hab ich wieder zurückgefrickelt.Auch weil ich nicht in die Collatz config reinkam (Program zum öffnen war nicht bekannt) sonst hätt ich da evtl noch schrauben können.

einmal auf der kommandozeile (;))

assoc .ini=txtfile


dann geht's..

Dr.David Bowman
26.11.2012, 17:59
Tja,so 1fach kann Wasserball sein.
Wenn der Notfall zu Ende ist probier ichs nochmal,thx
Wobei ich allerdings bezweifele,Daß ich das ruckeln damit weg bekomme.

spatenklopper
27.11.2012, 01:27
So ich habs jetzt mal so gemacht wie AxelS

GTX680 OC mit den Einstellungen :

items_per_kernel=20
kernels_per_reduction=10
threads=10
sleep=1

Zeiten vor der "Optimierung" 2:36 für ne minicollatz cuda42
Zeiten nach der "Optimierung" 2:30 für ne minicollatz cuda50

Das Einzige was sich geändert hat ist die Auslastung der Karte, jetzt 99 % statt 96 % und der Stromverbrauch jetzt 57% TDP statt vorher 64% TDP.

Ist das jetzt nur ne Energiesparapp, oder sollte das eigentlich schneller gehen? :lipsrsealed:


Hinzugefügter Post:



...kontrolliere auf jeden Fall mit GPU-Z, bei meiner Karte steigt die GPU Temp auf 80°C . :x)

Das wiederum finde ich heftig, meine macht mit 55 °C nur einen lauwarmen Wind.


Hinzugefügter Post:

Tante Edith sacht noch:
Hab noch ein paar Einstellungen getestet:



items_per_kernel=22
kernels_per_reduction=10
threads=10
sleep=1

Berechnungsfehler


items_per_kernel=21
kernels_per_reduction=10
threads=10
sleep=1

Wu´s laufen durch, Zeiten bleiben bei 2:30, aber es ruckelt extrem


items_per_kernel=19
kernels_per_reduction=8
threads=9
sleep=1

Standardeinstellungen der OptApp, keinerlei ruckeln mehr und Zeiten noch immer bei 2:30

Ich lass es jetzt bei 19 / 8 / 9, falls nicht jemand mit DEN Parametern kommt :x)

[SG]Darkpapa
27.11.2012, 01:31
^^ ich trau mich da garnich so recht dran ,weil ich ja 2 verschiedene grakas im rechner habe
des optimum für meine gtx 570 könnte ich also eh nich rausholen wegen der kleineren gtx460

meine temps sind : gtx570 (is im oberen slot) 74°C und im unteren slot die gtx460 hat 83°C

ronaldo
27.11.2012, 10:53
Da bin ich ja mit meiner gut übertakteten 570 fast auf Augenhöhen (im Vergleich zur 680 ;)) mit ähnlichen Zeiten um die 2:30...

Von den Einstellungen her, hab ich jetzt folgendes laufen:

items_per_kernel=20
kernels_per_reduction=8
threads=8
So läuft es eigentlich ganz ok, sicherlich nicht so smooth wie bei einer 680, aber alles ohne Probleme bedienbar. (mit kernels_per_reduction=9 und threads=9 sind auch noch paar Sekunden Verbesserung drin, nur da ruckelt es doch merkbar)

Meiner Einer
27.11.2012, 14:19
:x)
Meine GTX 470 (Standard) WU laufzeit

Cuda 23 | Cuda 50
6 min + x | 4 min + x

CC _config: Cuda 50 (nichts geändert)

verbose=1
items_per_kernel=19
kernels_per_reduction=8
threads=9
sleep=1

Handicap SG-FC
27.11.2012, 14:28
:x)
Meine GTX 470 (Standard) WU laufzeit

Cuda 23 | Cuda 50
6 min + x | 4 min + x

CC _config: Cuda 50 (nichts geändert)

verbose=1
items_per_kernel=19
kernels_per_reduction=8
threads=9
sleep=1

Die Cuda 50 in 4 Minuten ??

http://s14.directupload.net/images/121127/vb7h76r5.jpg (http://www.directupload.net)

und die laufen mit 734 MHZ

ronaldo
27.11.2012, 14:51
Meiner Einer meinte bzw. hat sich auf die mini_collatz bezogen, du hast da die normalen collatz auf deinem Bildchen...

Handicap SG-FC
27.11.2012, 14:53
Na..Menno..

Ich war schon richtig geschockt ^^

Meiner Einer
27.11.2012, 16:17
Ich habe versucht normale zu bekommen, trotz Einstellung auf der Kontoseite sind keine gekommen.
Erneut versuche ich das jetzt. Wills wissen. ;)

http://www.abload.de/img/inst1.9.6.8htjc6.jpg (http://www.abload.de/image.php?img=inst1.9.6.8htjc6.jpg) :x) ;)

Hat geklappt:
27.11.2012 16:41:12 | Collatz Conjecture | Starting task collatz_2377534770545412516200_824633720832_1 using collatz version 317 (cuda50) in slot 8
27.11.2012 17:15:44 | Collatz Conjecture | Computation for task collatz_2377534770545412516200_824633720832_1 finished

Lt. Kontoseite 2070,xx sec. / 34 min 30 sec.

Handicap SG-FC
27.11.2012, 17:54
27 -28 Minuten bei Deinen Einstellungen. Aber dann merke ich auch schon Bildverzögerung beim arbeiten.

http://s1.directupload.net/images/121127/f9tpa6im.jpg (http://www.directupload.net)

Major
29.11.2012, 21:42
Ich bin nun mit meiner Gigabyte GTX660 Ti auch (endlich) auf die Power-app umgestiegen:

Der Unterschied (bei den normalen Collatz-WUs) ist beträchtlich:

vorher: ca. 55 - 80 min (cuda31) (mit Ausreißern in beiden Richtungen) GPU-Temp: 47°
nachher: ca. 22 min :shocked: (cuda50) GPU-Temp: 68°

Leichte Verzögerungen beim Bildaufbau inbegriffen. Am WE werd ich vermutlich leichte Änderungen vornehmen, aber heute Nacht darf der Rechner sich mal damit austoben ...

Handicap SG-FC
29.11.2012, 22:55
Jungs, kleiner Tip.

Wenn Ihr eine Große Karte habt, rechnet mal durch ob es was bringt die kleinen zu rechnen.

Auf meinen GTX 470 lohnen sich die großen mehr, von den Punkten. Und so wie es ausschaut brauchen wir jeden Punkt.

taurec
30.11.2012, 00:58
Ich bin nun mit meiner Gigabyte GTX660 Ti auch (endlich) auf die Power-app umgestiegen:

Der Unterschied (bei den normalen Collatz-WUs) ist beträchtlich:

vorher: ca. 55 - 80 min (cuda31) (mit Ausreißern in beiden Richtungen) GPU-Temp: 47°
nachher: ca. 22 min :shocked: (cuda50) GPU-Temp: 68°

Leichte Verzögerungen beim Bildaufbau inbegriffen. Am WE werd ich vermutlich leichte Änderungen vornehmen, aber heute Nacht darf der Rechner sich mal damit austoben ...

Wieviel Credits bekommst du denn bei den 22-minütigen? Wär auch noch ganz interessant :-)

Major
30.11.2012, 06:27
Das sind die Standard-WUs, also ca. 3300-3400 cr. siehe hier (http://boinc.thesonntags.com/collatz/results.php?hostid=115063&offset=0&show_names=0&state=3)

Dort dürften auch noch ein paar der alten (langsamen) zu finden sein.

Komisch finde ich, dass bei den alten WUs nur die cuda31 so langsam waren. Die cuda23 bzw. cuda40 liefen ca. 2000sec, die cuda31 zwischen 3200 und 6500sec :dry:

Somik
05.12.2012, 13:37
Hi Leute

Hab ein paar Probleme. Gestern die 660GTX TI installiert (vorher GTX 280) immerhin:cheesy:
die GPU Auslastung ist stark unterschiedlich. 5-6Wu´s durchgehend 95%:) Auslastung, dann wieder etliche WU´s einbrüche auf 70-80% und auch darunter??:(
rechne nur die normalen. mincollatz GPU Last nur 25%??:undecided:

Ich bekomme auch keine CUDA 50 WU´s geliefert, nur CUDA 40

FRAGE
Wie installiert ihr die optimierten apps?? habs runtergeladen und in den Boinc ordner reinkopiert. ??
doch er nimmt nix an. die app_xml ist auf CUDA 50 eingestellt.
Hab zigfach die Werte umgestellt bis ich dann draufkam, daß

im Taskmanager die collatz_311_windows_x86_64_cuda40.exe läuft
In der Readme steht nix wohin die dateien der opt. apps gehören.


Boinc 7.0.28
Win 7 64 bit
Nvidia Treiber 306.97

Handicap SG-FC
05.12.2012, 13:59
@Somik,

Die App_info.xml

und

Collatz. config

Müssen in das Verzeichnis ProgramData\BOINC\projekts\boinc.thesonntags.com_c ollatz.

Hier in dem Thread hab ich meine Config gepostet, und darum herum stehen Sachen von den Kollegen, da wirst Du was die Einstellungen angeht sicher fündig.

spatenklopper
05.12.2012, 14:54
;234547']...
Müssen in das Verzeichnis ProgramData\BOINC\projekts\boinc.thesonntags.com_c ollatz.

Beachten, dass der \ProgramData\ Ordner ein versteckter Ordner ist, sonst sucht man sich eventuell nen doofen ;)

Somik
05.12.2012, 15:01
THX Handicap [SG-FC]

Hab ich jetzt gemacht. Neu gestartet, die alten Aufgaben abgebrochen. Es kommen immer noch collatz 3.11(CUDA40) und collatz 2.05(cuda31) Jobs.
Cuda 31 kann ich gar nicht gebrauchen, die laufen nur mit 70 %,

In der app.xml findet sich die zeile
<name>collatz_3.17_windows_x86_64__cuda50.exe</name>

wär also die richtige.

Im Downloadpaket der opt apps sind auch noch die Dateien
- collatz_3.17_win...cuda50.exe
- cudaart64_50_35.dll
sind derzeit auch im .....ProgramData\BOINC\projekts\boinc.thesonntags. com_c ollatz Verzeichnis.
Oder gehören die woanders hin??

EDIT
Hat sich erledigt: Mit dem vielen suchen und prob seit gestern Salat gehabt.
Boinc und WCG extra deinstalliert und alles neu.

Rechnet jetzt mit CUDA 50:o Puhh
Muß jetzt mal guggen, ob das stabil bleibt.
Hatte immer ca 5wu´s mit 95% last und dann wieder 5 mit 65%last.

THX an Handycap und Spatenklopper :thumbup::thumbup:

Woodworm
10.04.2013, 13:25
Ich reche schon seit geraumer Zeit hier mit und mit der Anwendung CUDA 50 rechne ich nur mit fehler abbruch ~ bei 2 Sec. und ich habe keinen Plan warum Fehlermeldung kommt immer .

Collatz Conjecture v4.02 x86_64 for CUDA 5.0
Based on the AMD Brook+ kernels by Gipsel
At offset 404598 got 16777217 from the GPU when expecting 733
Error: GPU steps do not match CPU steps. Workunit processing has been aborted.
10:33:14 (5680): called boinc_finish

Mein System AMD 640 Am2 4 Gig Ram und eine GTX 275 mit aktuellen Treibern .

:undecided::rolleyes::undecided::rolleyes::undecid ed:

Rainer Baumeister
10.04.2013, 18:15
Moin Woodworm, ich rechne zur Zeit Einstein, deshalb nur die Angaben aus dem Ordner:
Meine Exe nennt sich collatz_3.17_windows_x86_64__cuda50 auf Win XPpro 64bit mit Nvidia 314.07.
Da lief es Top! und die Optimierten Anwendungen haben sich seitdem nicht geändert.
Versuch: Anwendung holen, Projekt-Reset und neu anlegen. Sofort beenden und die Anwendung in dem neuen Ordner entpacken.
Vielleicht hilft es. Gruß Rainer
Meine app_info.xml (ich weiss nicht wie man die hier sonst einfügen kann:redface:)

<app_info>
<app>
<name>collatz</name>
</app>
<app>
<name>mini_collatz</name>
</app>
<file_info>
<name>collatz_3.17_windows_x86_64__cuda50.exe</name>
<executable/>
</file_info>
<file_info>
<name>cudart64_50_35.dll</name>
<executable/>
</file_info>
<file_info>
<name>collatz.config</name>
</file_info>
<app_version>
<app_name>collatz</app_name>
<version_num>317</version_num>
<platform>windows_x86_64</platform>
<plan_class>cuda50</plan_class>
<avg_ncpus>0.11</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>0.5</count>
</coproc>
<file_ref>
<file_name>collatz_3.17_windows_x86_64__cuda50.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart64_50_35.dll</file_name>
<copy_file/>
</file_ref>
<file_ref>
<file_name>collatz.config</file_name>
<copy_file/>
</file_ref>
</app_version>
<app_version>
<app_name>mini_collatz</app_name>
<version_num>317</version_num>
<platform>windows_x86_64</platform>
<plan_class>cuda50</plan_class>
<avg_ncpus>0.11</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>0.5</count>
</coproc>
<file_ref>
<file_name>collatz_3.17_windows_x86_64__cuda50.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart64_50_35.dll</file_name>
<copy_file/>
</file_ref>
<file_ref>
<file_name>collatz.config</file_name>
<copy_file/>
</file_ref>
</app_version>
</app_info>

wadnatze
24.08.2013, 08:31
Guten Morgen zusammen,

hat jemand eine aktuelle App_info für mich, würde gerne mal meine GTX 660 ti bei Collatz ausprobieren.

Gruß, wadnatze

fromdusk
24.08.2013, 13:31
Guten Morgen zusammen,

hat jemand eine aktuelle App_info für mich, würde gerne mal meine GTX 660 ti bei Collatz ausprobieren.

Gruß, wadnatze

Hallo,

hab gerade mal geschaut. Bin leider nicht fündig geworden. Falls Du etwas finden solltest wäre es schön wenn Du die App_Info öffentlich machst. Habe angefangen App_infos und Optimierungen zu sammeln.

Grüße

AxelS
24.08.2013, 14:12
Guten Morgen zusammen,

hat jemand eine aktuelle App_info für mich, würde gerne mal meine GTX 660 ti bei Collatz ausprobieren.

Gruß, wadnatze

Hallo wadnatze,

meinst Du nicht eine app_config? Du benutzt doch ne aktuelle boinc-Version.



(Obwohl Du alle Deine Hosts versteckt hast).

Dr. Frank-N-Furter
24.08.2013, 20:08
Guten Morgen zusammen,

hat jemand eine aktuelle App_info für mich, würde gerne mal meine GTX 660 ti bei Collatz ausprobieren.

brauchts für collatz nicht - es sei denn, du willst die einzelnen cuda-versionen gezielt durchprobieren.

wadnatze
24.08.2013, 23:09
Danke für Eure Antworten.

Ich möchte nicht nur eine Collatz rechnen sondern zwei, wenn es geht. Bei Seti mache ich das mit der app_info, wenn es mit der app_config auch geht., dann wäre es toll wenn jemand so etwas für mich hätte.

Gruß, wadnatze

AxelS
24.08.2013, 23:12
Eine app_config.xml selber zu erstellen ist nun wirklich nicht schwer, schau hier (http://www.seti-germany.de/wiki/App_config.xml).

Gruß AxelS

wadnatze
24.08.2013, 23:34
Danke für den Tip, Axel.
Werde es morgen mal versuchen.

Gruß, wadnatze

Edit:

So, habe dieses, nach meinem Verständniß, zusammen gefrickelt.

app_config>
<app>
<name>solo_collatz</name>
<max_concurrent>10</max_concurrent>
<gpu_versions>
<gpu_usage>0.50</gpu_usage>
<cpu_usage>0.10</cpu_usage>
</gpu_versions>
</app>
</app_config>

Nutze Boinc 7.0.64, also Datei neu eingelesen und zack, läuft nur eine WU.
Ist in der Datei etwas falsch oder müßen erst die WU's abgearbeitet werden?

Bin für Hilfe sehr dankbar.

Gruß, wadnatze

AxelS
25.08.2013, 07:49
...mußt halt noch den boinc-client neu starten, da das mit dem Einlesen der Konfigdateien nicht richtig *funst*
;)

wadnatze
25.08.2013, 08:05
Auch schon versucht, läuft trotzdem nur eine WU auf der Gpu.

Handicap SG-FC
25.08.2013, 08:37
Hier mal meine APP.

Hardware sind 3 GTX 470. Dort 2 Wu's laufen zu lassen bringt aber nichts.

Aber so sollte die APP ausssehen und mann muss bei "COUNT" dann den Wert ändern

<type>CUDA</type>
<count>1</count>

dort kann rein :

1 eine WU

0.5 2 Wu

0.33 3 WU


<app_info>
<app>
<name>collatz</name>
</app>
<app>
<name>mini_collatz</name>
</app>
<file_info>
<name>collatz_3.17_windows_x86_64__cuda50.exe</name>
<executable/>
</file_info>
<file_info>
<name>cudart64_50_35.dll</name>
<executable/>
</file_info>
<file_info>
<name>collatz.config</name>
</file_info>
<app_version>
<app_name>collatz</app_name>
<version_num>317</version_num>
<platform>windows_x86_64</platform>
<plan_class>cuda50</plan_class>
<avg_ncpus>0.04</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>1</count>
</coproc>
<file_ref>
<file_name>collatz_3.17_windows_x86_64__cuda50.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart64_50_35.dll</file_name>
<copy_file/>
</file_ref>
<file_ref>
<file_name>collatz.config</file_name>
<copy_file/>
</file_ref>
</app_version>
<app_version>
<app_name>mini_collatz</app_name>
<version_num>317</version_num>
<platform>windows_x86_64</platform>
<plan_class>cuda50</plan_class>
<avg_ncpus>0.04</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>1</count>
</coproc>
<file_ref>
<file_name>collatz_3.17_windows_x86_64__cuda50.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart64_50_35.dll</file_name>
<copy_file/>
</file_ref>
<file_ref>
<file_name>collatz.config</file_name>
<copy_file/>
</file_ref>
</app_version>
</app_info>

AxelS
25.08.2013, 09:55
@wadnatze

Du willst doch auf der GPU collatz testen, dann brauchst Du die max_concurrent-Zeile eigentlich nicht.
Die Angabe dort bezieht sich nur auf gleichzeitige zu berechnende WU auf der CPU oder hast Du etwa einen 12 Kerner zur Verfügung?

Gruß
AxelS

wadnatze
25.08.2013, 10:39
Ich habe die auch schon gelöscht, bringt nicht den erhofften Erfolg.

@handicap,

Diese App_Info läuft oder muß ich noch auf die Version 4.07 ändern?
Bei Dir steht ja 3.17.

Gruß,wadnatze

Handicap SG-FC
25.08.2013, 11:26
Ich habe die auch schon gelöscht, bringt nicht den erhofften Erfolg.

@handicap,

Diese App_Info läuft oder muß ich noch auf die Version 4.07 ändern?
Bei Dir steht ja 3.17.

Gruß,wadnatze

@wadnatze,

bei mir läuft die so.

Ich hab mich nun aber lange nicht mehr gekümmert, kann sein das dort Anpassungen gemacht werden müssen. Kann das nach WoW gerne nochmal prüfen.

Wichtig ist halt der <Count> das der Punkt wo man eben mit steuern kann wie viele WU's gleichzeitig berechnet werden.

Dr. Frank-N-Furter
25.08.2013, 11:41
;247829']@wadnatze,

bei mir läuft die so.

Ich hab mich nun aber lange nicht mehr gekümmert, kann sein das dort Anpassungen gemacht werden müssen.

das wäre ganz was neues - collatz lastet die gpu auch so nahezu vollständig aus.

und wenn, dann nicht um mehrere WU's gleichzeitig zu fahren.

Handicap SG-FC
25.08.2013, 11:44
@Dr. Frank-N-Furter,

wie meinst Du
das wäre ganz was neues das ??

Ich schrieb ja bereits das ich Collatz nur 1 Wu rechne / Graka

Ob das bei einer 660TI anders sein kann weiß ich nicht, da gerade Wow dran ist.

Dr. Frank-N-Furter
25.08.2013, 12:06
;247831']@Dr. Frank-N-Furter,

wie meinst Du das ??

das man sich den versuch mehrere WU's gleichzeitig zu fahren, ausgerechnet bei collatz wirklich sparen kann.

man kann an den parametern schrauben, aber auch das bringt minimal was.

wadnatze
25.08.2013, 12:36
das man sich den versuch mehrere WU's gleichzeitig zu fahren, ausgerechnet bei collatz wirklich sparen kann.

man kann an den parametern schrauben, aber auch das bringt minimal was.

Ich habe eine Auslastung von max. 85% bei einer WU, Laufzeit knapp 26 min. Du meinst also das sich eine zweite WU nicht lohnt?

Dr. Frank-N-Furter
25.08.2013, 13:41
Ich habe eine Auslastung von max. 85% bei einer WU, Laufzeit knapp 26 min. Du meinst also das sich eine zweite WU nicht lohnt?

das geht anders:

-> http://boinc.thesonntags.com/collatz/forum_thread.php?id=1009&postid=16503#16503

geht an der stelle zwar um amd und open-cl, aber für nvidia cuda ists's genau so.

wadnatze
25.08.2013, 16:43
Super Tipp.

Laufzeit von 26 min auf 19 min zurückgegangen.
Auslastung bei 95% - 98%.
Temperatur allerdings von 65°C auf 70°C angestiegen, ist ja logisch.

Einstellung:
verbose=1
items_per_kernel=20
kernels_per_reduction=9
threads=8
sleep=1
build_options=-Werror

Wenn Du mir jetzt noch einen Tipp gibst in welche Richtung ich optimieren sollte, da mein Englisch nicht so prickelnd ist, wäre ich Dir sehr dankbar.

Gruß, wadnatze

Dr. Frank-N-Furter
25.08.2013, 17:28
Super Tipp.

Laufzeit von 26 min auf 19 min zurückgegangen.
Auslastung bei 95% - 98%.

sach ich doch. ;)


Temperatur allerdings von 65°C auf 70°C angestiegen, ist ja logisch.

Einstellung:
verbose=1
items_per_kernel=20
kernels_per_reduction=9
threads=8
sleep=1
build_options=-Werror

Wenn Du mir jetzt noch einen Tipp gibst in welche Richtung ich optimieren sollte, da mein Englisch nicht so prickelnd ist, wäre ich Dir sehr dankbar.

kann ich kaum - ist im grunde für jeden kartentyp anders. müsstest du also selbst ausprobieren.

sleep=0 bringt noch was - und screenlag u.U.

aber ich würde mir weitere basteleien ersparen - für 1% mehr lohnt's nich..

wadnatze
25.08.2013, 18:03
sach ich doch. ;)

aber ich würde mir weitere basteleien ersparen - für 1% mehr lohnt's nich..

Ok.

Ich danke für Deine unkomplizierte Hilfe. :thumbup:

bieboderbeste
04.06.2014, 14:57
Hier mal für Alle die auch mit einer GTX 750ti bei Collatz crunchen wollen meine .config umd die maximalen Credits rauszuholen. Hat ganz schön gedauert das passende zu finden, da die Karte ja noch nicht ganz so verbreitet scheint, jedenfalls was Erfahrungen damit bei Boinc/Collatz betrifft.


verbose=1
items_per_kernel=20
kernels_per_reduction=8
threads=8
sleep=1

Leere Config:

GPU Last: ~70 %
GPU Temp: 43 Grad
GPU Zeit: solo 6150 sec, mini 860 sec

Meine Config:

GPU Last: 99 %
GPU Temp: 49 Grad
GPU Zeit: solo 4200 sec, mini 270 sec

Gruß bieboderbeste

Dr. Frank-N-Furter
04.06.2014, 18:03
Hier mal für Alle die auch mit einer GTX 750ti bei Collatz crunchen wollen meine .config umd die maximalen Credits rauszuholen. Hat ganz schön gedauert das passende zu finden, da die Karte ja noch nicht ganz so verbreitet scheint, jedenfalls was Erfahrungen damit bei Boinc/Collatz betrifft.

is halt so.

sperr' mal versuchsweise einen cpu-kern - könnte noch was bringen.

bieboderbeste
04.06.2014, 21:37
is halt so.

sperr' mal versuchsweise einen cpu-kern - könnte noch was bringen.

Werd ich mal versuchen. Berichte dann obs was bringt und wieviel ungefähr...

Gruß bieboderbeste

Handicap SG-FC
04.06.2014, 23:56
Bringt nix, durch die neuen Configs kann man schon recht gut ans Optimum ran.

Archi_74
02.05.2016, 23:29
Argh...diese Frickelei ist echt zum Mäusemelken...
Wollte nach langer Zeit (so 2011 oder 12 rum) wieder Collatz rechnen lassen.
2 Grakas in einem Rechner (960er und 460er). Unter PrimeGrid werden beide GPUs verwendet.
Collatz mag aber nur die 960er. Use_all_Gpu Dingens ist schon eingetragen.
Oder liegt es einfach am 2. Monitor/Dummy? Unter PrimeGrid funzt es mit nur einem Monitor.

Jede Hilfestellung ist willkommen :undecided:

Edit:
Nach dem Anhalten von SRBase wollte auch die 460er wieder rechnen.
Die letzten Rest-PrimeGrid GPU-WUs, Collatz auf der 2. GPU und SRBase auf der CPU funzen dann doch nicht. :D
Somit ist das Problem gelöst. :cheesy:

Handicap SG-FC
01.06.2016, 17:27
Weil zum Penta mein Booster PC eh läuft wollte ich dort die GTX 470 nebenbei mit Collatz beschäftigen.

Nur leider berechnet er die nicht sondern bricht mit Fehler ab.

Also mal umgestellt auf CUDA aber da bekomme ich nichts ??

Habe ich irgendwas verpasst ??

Danke & Grüße

Handi

Freezing
01.06.2016, 17:52
;287730']Weil zum Penta mein Booster PC eh läuft wollte ich dort die GTX 470 nebenbei mit Collatz beschäftigen.

Nur leider berechnet er die nicht sondern bricht mit Fehler ab.

Also mal umgestellt auf CUDA aber da bekomme ich nichts ??

Habe ich irgendwas verpasst ??

Danke & Grüße

Handi

If the sieve application fails immediately after it starts, you probably need to install the latest Microsoft Visual C++ runtime and, since BOINC will send your computer both 32 and 64 bit applications, you will need to install both the 32 and 64 but C++ runtime (see main page for a link or just Google it).

siehe Collatz Startseite

Handicap SG-FC
01.06.2016, 18:12
:cool:

Danke

Archi_74
07.02.2017, 10:28
Und wieder einmal Collatz:

Habe einen älteren Dual-CPU-Server reaktiviert.
Board: Intel S5520HC
CPU: 2 x Xeon E5520 2,26 GHz
GPU: GTX960
OS: Win7
Boinc: 7.6.33

Visual Studio Runtime in der x64 Variante ist installiert. Trotzdem wird jede Collatz-WU sofort mit Berechnungsfehler abgebrochen.
Hat jemand einen Lösungsvorschlag?

Handicap SG-FC
07.02.2017, 13:48
Und wieder einmal Collatz:

Habe einen älteren Dual-CPU-Server reaktiviert.
Board: Intel S5520HC
CPU: 2 x Xeon E5520 2,26 GHz
GPU: GTX960
OS: Win7
Boinc: 7.6.33

Visual Studio Runtime in der x64 Variante ist installiert. Trotzdem wird jede Collatz-WU sofort mit Berechnungsfehler abgebrochen.
Hat jemand einen Lösungsvorschlag?


you will need to install both the 32 and 64 but C++ runtime

auch die 32 Bit Variante installieren.

Archi_74
07.02.2017, 14:08
Autsch...ja, sollte die 32-bit Variante auch noch installieren. Danke! :thumbup:
Wird nach der SETI-Challenge durchgeführt.

EDIT: 32-bit Variante nachinstalliert. Funzt jetzt einwandfrei! :)
Danke für den Hinweis!

Uwe-Bergstedt
08.04.2017, 19:17
Hallo in die Runde,
vorsicht bei dem neuesten Treibervon NVidia 381.65 vom 06.04.2017 der hat keine OpenCL unterstützung mehr.Collatz geht damit nicht mehr.

Treiber 378.92 vom 20.03.2017 geht!

schilli74
08.04.2017, 21:58
Hallo in die Runde,
vorsicht bei dem neuesten Treibervon NVidia 381.65 vom 06.04.2017 der hat keine OpenCL unterstützung mehr.Collatz geht damit nicht mehr.

Treiber 378.92 vom 20.03.2017 geht!

Beim Treiber Update bitte den Haken setzten bei "Neuinstalltion vornehmen". Wenn du das nicht machst kann es sein das du den OpenCL verlierst.
Der hier benutzt den Treiber 381.65 https://boinc.thesonntags.com/collatz/show_host_detail.php?hostid=812220 scheinbar ohne Probleme.

Gruß schilli:x)

Uwe-Bergstedt
08.04.2017, 22:36
bei mir macht das: NVIDIA GeForce Experience, da gibt es bei der Installation nur 2 Möglichkeiten: Expressinstallation(mach ich immer und klappte bis jetzt gut) und Benutzergesteuert.
Bei der Expressinstallation kann man mitverfolgen, das zuerst die derzeitigen Treiber deinstalliert werden und dann die Neuen installiert werden, also von daher weis ich nicht wo und wann das OpenCL sich verpieselt hat, Ich habe nur anschließend gemerkt das Collatz nicht weitergerechnet hat.

schilli74
09.04.2017, 09:01
Ja das mit GeForce Experience hatte ich mir schon gedacht, und auch die Expressinstallation.
Damit hatte ich auch das OpenCL Problem, scheinbar kriegt die Expressinstallation das nicht richtig hin.
Kannst ja mal schauen ob du dich mit der Benutzergeteuert anfreunden kannst. Dann kannst du den den Haken für die "Neuinstallation vornehmen" setzten bei "Optionen für die benutzerdefinierte Installation" ganz unten.

Ich lade mir den von Nvidia runter (DSL1000) lege den auf dem NAS ab und kann dann alle Rechner updaten. Seitdem ich den Haken setzt habe ich keine Probleme.

Gruß schilli:x)

Uwe-Bergstedt
09.04.2017, 10:51
Danke schilli,

dieses Problem gibt es bei mir aber erst seit dem großen Windows Update-Creators-