PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DistributedDataMining (dDM)



PoHeDa
28.02.2010, 09:21
Projekt:

DistributedDataMining (dDM)



Hallo alle zusammen.

Unterstützte Betriebssysteme...

Habe gerade mal einige WUs gezogen alle Systeme Windows 32 bit und Linux 32bit haben Arbeit bekommen ;)

Ups... sehe gerade, die Linux Systeme Berechnungsfehler... mal schauen woran es liegt.


Projektseite: http://www.nicoschlitter.de/DistributedDataMining
Forum: http://ddm.nicoschlitter.de/DistributedDataMining/forum_index.php
Konto erstellen: http://ddm.nicoschlitter.de/DistributedDataMining/create_account_form.php
Your account: http://ddm.nicoschlitter.de/DistributedDataMining/home.php
SETI.Germany: http://ddm.nicoschlitter.de/DistributedDataMining/team_display.php?teamid=4
Server Status: http://ddm.nicoschlitter.de/DistributedDataMining/server_status.php

lg Heini


Hinzugefügter Post:

Noch ein Ups, jetzt sehe ich alle Systeme haben Berechnungsfehler gestern lief noch alles. Hmm


Hinzugefügter Post:

upload/download server: Disabled

Saenger
28.02.2010, 09:33
Ich hab' ihn mal in die beiden BOINC-Xinggruppen eingeladen, die es zum Thema gibt, er hat sein Xing-Profil ja in seinem CV angegeben. Außerdem hat er vermutlich inzwischen schon mehrere Mails zum Thema, die Emailadresse steht ja auch da.

PM im Forum hat wegen dem vollen Server auch keinen Zweck (er hat übrigens ID=2), hab's vergeblich versucht ;)

Aktuelle Meldungen bei mir im BOINC:

So 28 Feb 2010 09:13:00 CET DistributedDataMining Started upload of 1169599_RULE._RuleLearner_accuracy_5367_0_0
So 28 Feb 2010 09:13:00 CET DistributedDataMining Started upload of 1169599_RULE._RuleLearner_accuracy_5367_0_1
So 28 Feb 2010 09:13:01 CET DistributedDataMining [error] Error reported by file upload server: Server is out of disk space
So 28 Feb 2010 09:13:01 CET DistributedDataMining [error] Error reported by file upload server: can't write file /home/boincadm/projects/DistributedDataMining/upload/264/1169599_RULE._RuleLearner_accuracy_5367_0_1: No space left on server

PoHeDa
28.02.2010, 09:39
THX Saenger :thumbup:

Server ist im Moment heftig Überlastet ;) Ima mit de Ruhe :D

Saenger
28.02.2010, 13:09
THX Saenger :thumbup:

Server ist im Moment heftig Überlastet ;) Ima mit de Ruhe :D

Hab' grad Antwort auf meine Mail erhalten:

Hallo Uwe,

vielen Dank für Deine Hinweise. Der Server hat heut morgen ne neue Platte spendiert bekommen - jetzt reicht der Platz erstmal wieder.

Am Forum arbeite ich - mal sehen wo ich das einrichten kann. Boinc sieht das ja bereits von Haus aus vor. Mal sehen wie das funktioniert. Sobald das Forum läuft, gibt dann dort ein Paar mehr Hinweise.


Beste Grüße
Nico

Und meine Wutzen sind auch schon weg, augenscheinlich alle erfolgreich (http://ddm.nicoschlitter.de/DistributedDataMining/results.php?hostid=276) auf meinem 64er Pinguin.


Hinzugefügter Post:

Forum (http://ddm.nicoschlitter.de/DistributedDataMining/forum_index.php) ist gerade online gegangen, der Link auf der HP funktioniert allerdings noch nicht, der ist zu 10.0.0.2 verlinkt, einer internen IP ;)

Hoshione
28.02.2010, 13:09
:thumbup: läuft alles, Wutzen huschen hin und her, die ersten 0,01 Credits sind vergeben, Profil erstellt.....was will man mehr ?

Gruß und schönen Sonntag noch

Hoshione:cool:

Felix Evermann
01.03.2010, 17:49
bei mir hat ddm fast nur berechnungsfehler produziert und der boincmanager hat sich ständig aufgehängt:sad:

HeroTurtle
01.03.2010, 19:11
Mit welcher Adresse habt ihr das Projekt im BM angemeldet? Bei mir funzt da nix.
Konto/Account habe ich schon seit gestern direkt beim Projekt angelegt.

HT:x)

PoHeDa
01.03.2010, 19:14
Mit welcher Adresse habt ihr das Projekt im BM angemeldet? Bei mir funzt da nix.
Konto/Account habe ich schon seit gestern direkt beim Projekt angelegt.

HT:x)

http://ddm.nicoschlitter.de/DistributedDataMining

Sysadm@Nbg
01.03.2010, 19:17
Mit welcher Adresse habt ihr das Projekt im BM angemeldet? Bei mir funzt da nix.
Konto/Account habe ich schon seit gestern direkt beim Projekt angelegt.

HT:x)

ich hab einen boinc-client gestern (oder vorgestern ?) mit http://ddm.nicoschlitter.de/DistributedDataMining/ verbunden ...

HeroTurtle
01.03.2010, 19:19
is gut Jungs --> funzt

Merci

HT:x)

@ Heini: der Link fehlt in Deiner Sammlung (1.Post)

Felix Evermann
01.03.2010, 19:59
ich werde ddm jetzt mal auf meinem kleinsten cruncher testen (celeron 1400). wenns da ohne berechnungsfehler und boincmanager abstürze läuft kommts vielleicht auch auf die anderen PCs:x)

Felix Evermann
03.03.2010, 23:40
also, auf dem celeron läuft es ohne probleme. aber auf dem phenom bekomme ich NUR berechnungsfehler:confused:

Bernd Vogler
06.03.2010, 12:06
Habe mich gestern angemeldet und über Nacht ca. 60 WUs erhalten.
Alles mit Berechnungsfehler beendet.
Das ganze mit einem Phenom II 920 unter Win 7 64-bit.

Grüße, Bernd

[SG] Harald_(Charly)
06.03.2010, 12:14
60?
Ich hab eben nur eine bekommen.. nach 1h37min hat die erst 1,14% durch..
Wie lange laufen die denn?

Nebenbei läuft noch PrimeGrid (PSP Sieve) auf dem zweiten Kern und GPUGRID auf der GraKa..

Sys is in der Sig..

Bernd Vogler
06.03.2010, 12:46
Wie lange laufen die denn?

Bei mir wurden sie nach ca. 2 Sekunden abgebrochen

[SG] Harald_(Charly)
06.03.2010, 12:53
2h 22min -> 1,532%

Bernd Vogler
06.03.2010, 12:55
Nachtrag:
Ich hab mal Die Laufzeiten von den Wutzen nachgeschaut.
Es gibt ne ganze Menge, die nur wenige Sekunden dauern. Es sind aber auch einige dabei, die etliche Stunden gebraucht haben.

Grüße, Bernd

[SG] Harald_(Charly)
06.03.2010, 12:56
Dann mach aus den Stunden bei mir mal Tage.. :biggrin::biggrin:

Felix Evermann
06.03.2010, 13:15
bei mir laufen viele WUs zwischen 30 und 50 stunden, manche auch 100+.
und auf meinem phenom läuft das projekt nicht mehr, gibt nur berechnungsfehler (auch nach zurücksetzen des projekts).
hat jemand ne ahnung warum das projekt auf manchen rechnern läuft und auf anderen nicht? ist das einzige projekt mit dem ich dieses problem habe

Bernd Vogler
06.03.2010, 13:17
Das grösste, was ich gefunden habe, waren 123,385.00 Sekunden (=34,27 Stunden) von Felix.

Ich hab da aber trotzdem noch das Problem, daß ich nicht produktiv mitrechnen kann. Einige Rechner scheinen aber ganz gut zu funktionieren. Liegts an dem Phenom CPU, dem Betriebssystem, bin ich einfach nur dämlich oder mag mich das Projekt einfach nicht.

Grüße, Bernd

[SG] Harald_(Charly)
06.03.2010, 13:19
Kann ich nicht sagen, hab mich da heute erst angemeldet..

BerndBrot
06.03.2010, 13:45
bei mir laufen viele WUs zwischen 30 und 50 stunden, manche auch 100+.
und auf meinem phenom läuft das projekt nicht mehr, gibt nur berechnungsfehler (auch nach zurücksetzen des projekts).
hat jemand ne ahnung warum das projekt auf manchen rechnern läuft und auf anderen nicht? ist das einzige projekt mit dem ich dieses problem habe

Hast du bei deinem Phenom das aktuellste Java installier?

Soll laut Forum helfen.

AppVersion 306 for Win counts correct CPU time (http://ddm.nicoschlitter.de/DistributedDataMining/forum_thread.php?id=11&nowrap=true#122)


:x)

Bernd Vogler
06.03.2010, 15:08
Es scheint zu funktionieren.
Hab die neueste Java-Version unter http://www.java.com/de/ heruntergeladen.
Zuerst habe ich mir die 64-bit Version gezogen, da hat es noch nicht funktioniert.
Nachdem ich dann noch zusätzlich die 32-bit Version installiert habe, hat es gefunzt.

Grüße, Bernd

Felix Evermann
07.03.2010, 11:38
also im moment hab ich da ne WU aufm celeron die seit 88h läuft und es wird keine verbleibende zeit angezeigt (---). sollte ich die abbrechen?

@Bernd Vogler: hast recht, die verbleibende zeit die angezeigt wird hat nix mit der wirklichkeit zu tun. meistens zählt die rauf und nicht runter. dann hab ich 191h da stehen, die WU ist aber nach 34h fertig, sorry.

@BerndBrot: java update 18 ist noch nicht drauf, werde es mal installieren


Hinzugefügter Post:

@BerndBrot: besten dank für deinen tipp, mit dem java update 18 funzt es:x)

[SG] Harald_(Charly)
13.03.2010, 07:55
Ehem....

Für ne Laufzeit von 115:46:19 (h:m:s) "nur" 1586,69 Credits.. :blink:

http://ddm.nicoschlitter.de/DistributedDataMining/workunit.php?wuid=431641

Da weiss ich was besseres mit meiner CPU-Zeit anzufangen..

UL1
13.03.2010, 10:33
Autsch...das tut wirklkich weh. :sad:

Hab' mal bei meinen Ergebnissen 'reingeschaut und kein wirkliches Schema entdecken können, was die Creditvergabe anbetrifft...

[BC]rebirther
13.03.2010, 12:19
Autsch...das tut wirklkich weh. :sad:

Hab' mal bei meinen Ergebnissen 'reingeschaut und kein wirkliches Schema entdecken können, was die Creditvergabe anbetrifft...

1:1 nach Benchmarkwerten, sicherlich wird das noch angepasst.

Tecladore
13.03.2010, 13:05
Ich rechne hier mal nicht mit, das Projekt finde ich fragwürdig. Bei DataMining stellen sich mir die Nackenhaare auf und wenn ich die Unterprojekte anschaue erst recht. Dax und DowJones Analyse, machen die Amis seit Jahren und hat mal wieder mit realer Wirtschaft nix am Hut (wohin uns die fiktive Finanzwirtschaft gebracht hat sehen wir ja). Sozial-Netzwerke durchforsten, danke, dass machen die Selbst und Google auch. Da bringe ich doch lieber Rechnern das Sprechen bei.

roundup
13.03.2010, 13:41
Ich rechne hier mal nicht mit, das Projekt finde ich fragwürdig.
:zustimm:



Bei DataMining stellen sich mir die Nackenhaare auf und wenn ich die Unterprojekte anschaue erst recht.

DataMining kann ja auch ganz nützlich sein, beispielsweise wenn man Wissen aus großen unstrukturierten Datenbeständen heterogener Datentypen schöpfen will (Fließtext, Audio, Video,...). Die Unterprojekte sind es, welche die Geschichte zweifelhaft werden lassen.



Sozial-Netzwerke durchforsten, danke, dass machen die Selbst und Google auch. Da bringe ich doch lieber Rechnern das Sprechen bei.
:zustimm:
Soziale Netzwerke werden heute schon von Unternehmen wie Google oder Mickysoft durchforstet und systematisiert. Die daraus gewonnenen Erkenntnisse werden kommerziell verwertet.
Warum sollte ich denjenigen mit meinen Rechnern helfen, die meine Twitter-, facebook-, SG- und andere Netzwerke miteinander korrelieren? Das sollen diejenigen, die das interessiert, mal ruhig selber machen.

:x)

UL1
01.04.2010, 13:05
Ob ich die Validierung der WU in diesem Leben noch mitkriege ? ;)
Verbleibende Laufzeit: 87600 Stunden...

Dude
24.07.2010, 21:15
Habe ne Wu mit bereits 14:30 Std. Laufzeit bei 4,2%.
Deadline endet am 13.08. Könnte knapp werden, da ich nicht 24/7 crunche.

killer4you
24.07.2010, 22:46
um euch zu beruhigen, ich bekomme langsam auch so ne Fetten Monster :-)

echt übel ..

mfg
Stefan

Dude
25.07.2010, 00:46
Update:
Bin mittlerweile bei 18Std. Laufzeit, Fortschritt unverändert bei 4,2%.
Ne zweite Wu hat bereits über 21Std. auf dem Buckel und steht steht schon den ganzen Tag bei knapp 90%.

Mal sehen wie sich die Sache entwickelt. Will die Wu´s bei der langen Laufzeit jetzt auch nicht mehr abbrechen.

Edit:
Hier (http://www.distributeddatamining.org/DistributedDataMining/result.php?resultid=1533936) ist eine Wu mit 52Std. Laufzeit für knapp 1200 Credits. Aber es geht noch länger. Hier (http://www.distributeddatamining.org/DistributedDataMining/result.php?resultid=1537842)ist eine Wu mit über 90Std. Laufzeit, gab aber auch 2100 Credits.

Update:
Die Wu´s sind durch. Laufzeit bei etwa 23 u. 29 Std.

aendgraend
17.08.2010, 23:54
Für Interessierte:

Ich habe eine - teilweise gravierende - Differenz zwischen tun time und cpu time festgestellt.

Bei einer WU waren das 314,113.55 Sekunden run time, aber "nur" 38,070.40 Sekunden cpu time. Das ist eine Differenz von ~87,5 zu ~10,7 Stunden. Da die granted Credits anhand der cpu time berechnet werden, geht da einiges an Rechenzeit "verloren".
Mir wäre es bei nur ein paar Stunden egal, aber bei fast 77 Stunden, die der Task einen Kern belegt, und ich dafür später nix bekomme, ist mir der Strom dann doch zu teuer.

Mir geht's absolut nicht um die Credits - die sind mit 13,72 pro Stunde und GHz absolut in Ordnung und werden bei allen - bisher von mir geloggten - WUs absolut gleich vergeben, immer 13,72 pro Stunde und GHz. Aber ich hätte für 314,113.55 Sekunden 3592 Credits erwartet, was dem selben Schnitt entspräche.

Ich habe deshalb im Forum mal nachgefragt:
http://www.distributeddatamining.org/DistributedDataMining/forum_thread.php?id=125&nowrap=true#783

Beorn
18.08.2010, 06:34
Hmm... im Moment erreiche ich den DDM Server / die Website kaum, die Seiten laden eine halbe Ewigkeit bei mir. Solche Diskrepanzen zwischen run time und cpu time habe ich bis jetzt nicht festgestellt, schien alles im Rahmen zu sein.

phaeton57
18.08.2010, 12:23
Bei mir ist jetzt eine WU durch run time 132,879.43 sec CPU time 123,880.00 sec Credits 780,96



Also für mich normal.
Aber ich hab noch eine zu laufen hochgerechnete Laufzeit ca 161 h :shocked:


Mal sehen was dort rauskommt


Gruß phaeton57:x)

Dude
18.08.2010, 14:04
Für Interessierte:
Ich habe eine - teilweise gravierende - Differenz zwischen tun time und cpu time festgestellt.


Bei mir gab es bei den meisten keine gravierenden Unterschied zwischen run time und cpu time. Nur ab und zu war mal ein Ausreißer dabei. Weiß aber auch nicht woran das lag?????



Aber ich hab noch eine zu laufen hochgerechnete Laufzeit ca 161 h :shocked:
Mal sehen was dort rauskommt


Hatte ich auch schon mehrere davon, die Laufzeit hat sich aber mit der Zeit eingespielt und ist nach unten gegangen.

Sysadm@Nbg
18.08.2010, 16:09
mal gesucht und gefunden:

42,027.98 39,893.50

worans liegt ?

Bei mir unter Linux ist der java-Subprozeß sehr freigebig, d.h. wenn vom System CPU gebraucht wird, dann gibt sie der java-Prozeß eher als parallel laufende llr- oder pfgw-Tasks

Außerdem werden innerhalb einer WUtze mehrere Phasen durchlaufen in denen immer wieder die java-Prozesse beendet und neu gestartet werden - und das läuft meist nicht mit 100% CPU-Auslastung, insbesondere wenn er seinen Speicher volllädt

BoincTask zeigt mir des öfteren dDM mit 90-95% stark schwankend während simaps parallel mit 100% durchgehend angezeigt werden. Beim historischen Verlauf in BoincTask kann man auch ganz gut sehen, dass im Gegensatz zu den anderen Projekten die CPU-Zeit wesentlich von der Laufzeit abweicht - und die Abweichungen zeigen sich schon bei den ganz kurzen WUtzen - und das wird dann bei Langläufern natürlich immer krasser (aber schaut atm zumindest proportional aus).

Beorn
18.08.2010, 17:39
Habe nochmal nachschauen können, die cpu time liegt bei ca. 85 bis 95 % der run time, also eigentlich noch im Rahmen, entsprechend passen die Credits IMHO auch. Bei einem Langläufer komme ich auf 12,9 cr. per Stunde und Gigahertz.

Nur eine WU fällt aus dem Rahmen, hier ist die cpu time länger als die run time: run time 472 sec. / cpu time 490 sec., was ja technisch nicht sein kann, also offensichtlich ein Messfehler.

Das sind die Daten des Phenom Quadcore. Aber auch auf dem 1,6 GHz Singlecore im Subnotebook, der mit vier NCI Tasks nebenbei klarkommen muss (FreeHAL, WUProp, QCN und Collatz bzw. DNETC) liegt die cpu time bei 98% der run time. Die Credits sind hier bei einem Langläufer mit 5,3 per Stunde und Gigahertz allerdings deutlich geringer.

phaeton57
18.08.2010, 20:13
Hatte ich auch schon mehrere davon, die Laufzeit hat sich aber mit der Zeit eingespielt und ist nach unten gegangen.



Angefangen habe ich bei 408 h Rechenzeit und bin bei etwas über 23 % und noch 198 h.
Am Ende werden es wohl 160 h.

Gruß phaeton57:x)

Beorn
24.08.2010, 01:50
Guten Abend! :x) Da ich bei der 2nd Wave nur lesen darf, teile ich Euch hier mal mit, dass ich bei DDM noch etwas mit unterstützen werde. Ich hab' erst knapp über 2.200 cr. und will erstmal mindestens 10.000 erreichen. Momentan Platz 42 (Credits) / Platz 13 (RAC) im Team. Mal schauen was geht.

http://www.cheesebuerger.de/smiliegenerator/ablage/495/270.png

Im Moment habe ich gerade ein Monster in der Mangel, Stand 10% und angeblich noch 178 h to go bei 3,2 GHz.


Hinzugefügter Post:

Hrmppf... the monster is dead. :rolleyes: Nach 10 Stunden Rechenzeit beim BOINC Neustart verloren. Vielleicht hätte ich sicherstellen sollen, dass auch alles gestoppt ist, inkl. Java.

Dude
24.08.2010, 11:59
Guten Abend! :x) Da ich bei der 2nd Wave nur lesen darf, teile ich Euch hier mal mit, dass ich bei DDM noch etwas mit unterstützen werde. Ich hab' erst knapp über 2.200 cr. und will erstmal mindestens 10.000 erreichen. Momentan Platz 42 (Credits) / Platz 13 (RAC) im Team. Mal schauen was geht.

http://www.cheesebuerger.de/smiliegenerator/ablage/495/270.png

Im Moment habe ich gerade ein Monster in der Mangel, Stand 10% und angeblich noch 178 h to go bei 3,2 GHz.


Hinzugefügter Post:

Hrmppf... the monster is dead. :rolleyes: Nach 10 Stunden Rechenzeit beim BOINC Neustart verloren. Vielleicht hätte ich sicherstellen sollen, dass auch alles gestoppt ist, inkl. Java.

Danke für deine Hilfe :thumbup: aber bitte nicht gleich jedes Monster gleich um die Ecke bringen :) :cheesy:

phaeton57
29.08.2010, 20:03
Heute ist die Monster-WU fertig geworden für 548,854.51 sec nur 414 Credits :shocked:, das nenn ich Computerzeitverschwendung :(


Gruß phaeton57:sad:

Beorn
29.08.2010, 20:59
Meine Güte, das ist ja wirklich erschreckend wenig! Auf welcher CPU war denn das berechnet? Meine längsten DDM-WUs letzte Woche waren

65,579.84 sec / 501.38 cr. @ 2,0 GHz
37,468.11 sec / 283.21 cr. @ 2,0 GHz
87,292.98 sec / 1,037.88 cr. @ 3,2 GHz
56,452.35 sec / 610.78 cr. @ 3,2 GHz

Übrigens alle vom Typ NeuralNet_4Gausian. Das machte zwischen 12,2 und 13,8 credits pro Stunde und GHz, eigentlich noch ganz ok.

aendgraend
29.08.2010, 23:06
Heute ist die Monster-WU fertig geworden für 548,854.51 sec nur 414 Credits :shocked:, das nenn ich Computerzeitverschwendung :(


Gruß phaeton57:sad:

Tjo, das wird das gleiche Problem sein, wie jenes, über welches ich im Forum berichtet habe, und wo ich bis jetzt auf eine Erklärung warte.

:(

Beorn
30.08.2010, 11:28
Moin! Habe heute morgen auch noch mal einen schönen Brocken abgeliefert, wieder NeuralNet_4Gausian, diesmal 37 h run time:

133,517.19 sec / 1,385.39 cr. @ 3,2 GHz

Das sind rund 11,7 credits pro Stunde und GHz, die langen WUs scheinen weniger zu bringen als die kürzeren (?).

Wenn man in den Taskmanager schaut, fällt folgendes auf: CPU-Load liegt auf java.exe, nicht auf der Anwendung stock1_4.30_windows_intelx86.exe. Wenn irgendein nicht-BOINC Programm CPU braucht, denn geht java.exe bei mir offensichtlich am meisten in die Knie (momentan verglichen mit CPDN-famous, PrimeGrid-LLR und RCN). Interessant ist aber auch, das java.exe manchmal geringfügig mehr als eine CPU auslasten kann (wie in den FAQ (http://www.distributeddatamining.org/node/9810) auf der DDM-Website ja schon beschrieben). Könnte es sein, das Java bei Euch irgendwie ausgebremst wird, läuft vielleicht ein anderes Java-Programm gleichzeitig?

Falls Ihr Eure Java-Version mal vergleichen wollt, hier sind meine Versionsmeldungen (am Anfang des stderr out):


Determine Java Version
java version "1.6.0_21"
Java(TM) SE Runtime Environment (build 1.6.0_21-b07)
Java HotSpot(TM) Client VM (build 17.0-b17, mixed mode, sharing)
error: 0 exitcode:0
Windows 7 6.1
Java 1.6.0_21 32bit

(32bit Windows 7)


Determine Java Version
java version "1.6.0_20"
Java(TM) SE Runtime Environment (build 1.6.0_20-b02)
Java HotSpot(TM) Client VM (build 16.3-b01, mixed mode, sharing)
error: 0 exitcode:0
Windows 7 6.1
Java 1.6.0_20 32bit
(64bit Windows 7)

Beorn
10.09.2010, 09:54
Tjo, das wird das gleiche Problem sein, wie jenes, über welches ich im Forum berichtet habe, und wo ich bis jetzt auf eine Erklärung warte.

Hi aendgraend, hast Du die Antwort von Nico Schlitter von 03.09. (http://www.distributeddatamining.org/DistributedDataMining/forum_thread.php?id=125&nowrap=true#804) schon gesehen? Bin heute drüber gestolpert, als ich kurz das Forum überflogen habe.

Hmm... kann man beim Fliegen stolpern? :rolleyes: :D


Hinzugefügter Post:


Heute ist die Monster-WU fertig geworden für 548,854.51 sec nur 414 Credits :shocked:, das nenn ich Computerzeitverschwendung

Heute habe ich meine Monster-WU (http://www.distributeddatamining.org/DistributedDataMining/workunit.php?wuid=2038945) beendet und sie bewegt sich in ähnlichen Regionen, hat jedoch viel mehr, nämlich gut zehnmal so viel, Credits bekommen:

run time 416,157.64 sec. (ca. 116 h)
cpu time 324,866.00 sec.
claimed credit 2,020.69
granted credit 4,041.38

Nicht schlecht, oder? Sind immerhin noch 10,9 Credits pro GHz und Stunde.

aendgraend
10.09.2010, 12:59
Damit wäre ich ja zufrieden (gewesen). Aber da es diese Diskrepanz gibt (und - wenn auch abgeschwächt - noch immer gibt) will ich einfach wissen, woran das liegt?

Wenn ich nicht sicher sein, kann, dass das Projekt jetzt nicht mehr völlig willkürlich meine CPU belegt, und dann ebenso willkürlich Credits vergibt, dann will ich meinen Strom halt da nicht mehr opfern.

Beorn
10.09.2010, 13:51
Das verstehe ich. Aber wie schon beschrieben, scheint der JAVA-Prozeß sich recht bereitwillig von anderen Prozessen zurückdrängen zu lassen. Insofern frage ich mich, ob die unterirdischen Creditausbeuten von Dir und von phaeton57 irgendwie durch Eure Systemkonfig ausgelöst sein könnten. Liest Nico Schlitter eigentlich hier mit? Hat er 'nen Forenaccount?

Gruß :x)

Chillkröte
26.05.2011, 12:20
:shocked: nice output vom [SG]marodeur6 :thumbup: respekt :D

aendgraend
16.12.2011, 00:02
Heute kam eine Mail von dem Projekt:


Dear aendgraend,

your machine '********' appears to have a misconfigured BOINC:

It seems there is no java installation on your PC.
Did you install java 1.6 on this computer?
Boinc expects the path to java.exe to be stored in your PATH variable.
Usually this is automatically done during java installation.
Maybe you have to set it manually. More infos under http://www.java.com/en/download/help/path.xml

Thank you for your support!

Sincerely,
Nico Schlitter
dDM Project Manager

This email was automatically generated and will be sent three times (once per week) until the problem is solved. Afterwards your host will be automatically excluded from dDM.

??

Ich habe mal im dortigen Forum einen Thread (http://www.distributeddatamining.org/DistributedDataMining/forum_thread.php?id=226) dazu erstellt, und nachgefragt. Kann ja nicht sein, dass ein Projekt Benutzer auswählt, nur weil der BOINC-Client nicht in der Lage ist, die richtige Konfiguration zu finden.

Felix Evermann
16.12.2011, 17:25
ist denn der pfad zur java.exe in den umgebungsvariablen eingetragen?

anchedo
17.12.2011, 11:48
Ich habe mal im dortigen Forum einen Thread (http://www.distributeddatamining.org/DistributedDataMining/forum_thread.php?id=226) dazu erstellt, und nachgefragt. Kann ja nicht sein, dass ein Projekt Benutzer auswählt, nur weil der BOINC-Client nicht in der Lage ist, die richtige Konfiguration zu finden.

Ich finde es eigentlich richtig, dass man vom Projekt auf das Problem aufmerksam gemacht wird und von Projektseite unterbunden wird, dass zu viele Berechnungsfehler aufgrund ungeeignet konfigurierter beteiligter Rechner erzeugt werden. Und der Benutzer wird ja auch nicht komplett vom Projekt ausgeschlossen, sondern eben nur (und nach ausreichend Zeit für die nötige Konfigurationsanpassung) der gegenwärtig für dDM ungeeignete PC.

MichaelR
17.12.2011, 13:03
na ja, es ist ja eigentlich ein Öffentlich Verteiltes Rechnen und da sollte man von der Projektseite eigentlich schon eine möglichst große Bandbreite von PCs einbinden und sich nicht die "Leckerbissen" raussuchen.
Gruß Michael

Chillkröte
17.12.2011, 16:45
ist denn der pfad zur java.exe in den umgebungsvariablen eingetragen?

ja, ganz genau:
Boinc beenden -> Systemsteuerung -> System -> erweiterte Systemeinst. -> Erweitert -> Umgebungsvariablen -> Sytemvariable "path" heraussuchen -> bearbeiten
-> hier sollte der Install-Pfad von Java liegen (meist C:\Program Files (x86)\Java\jre6\bin) o.ä. -> ist der nicht vorhanden dann gaaaanz hinten ein Semikolon (;) einfügen und dahinter den o.g. Java-Pfad bzw. euren eigenen
-> Boinc starten -> freuen :D


Ich finde es eigentlich richtig, dass man vom Projekt auf das Problem aufmerksam gemacht wird und von Projektseite unterbunden wird, dass zu viele Berechnungsfehler aufgrund ungeeignet konfigurierter beteiligter Rechner erzeugt werden. Und der Benutzer wird ja auch nicht komplett vom Projekt ausgeschlossen, sondern eben nur (und nach ausreichend Zeit für die nötige Konfigurationsanpassung) der gegenwärtig für dDM ungeeignete PC.

:zustimm:
Der Projekt-Admin Nico gibt sich echt viel Mühe und arbeitet sicher schon an dem Problem, das Projekt ist ja auch noch "relativ" neu. Die Java-Sache ist wahrscheinlich auch nur ein vorübergehendes Problem - ist jetzt aber auch nicht der große Aufwand es eben zu beheben. :rolleyes: Die Lunatics-App installation dauert länger ;)

aendgraend
17.12.2011, 17:33
@Felix: Ich habe Jave auf allen meinen Rechner, und alle haben bisher mit dDM funktioniert, und aktuell rechnet auch einer schon seit einigen Tagen dDM, und das mit Erfolg. Auch auf diesem Rechner habe ich Java und es taucht nicht in der Pfadvariable auf...

Ich habe ja nicht gemeckert, weil ich auf etwas hingewiesen werde, sondern weil man, wenn man die PN nicht liest, bekommt oder was auch immer, wohl im BOINC Manager keinen Hinweis bekommen würde, wenn der Rechner ausgeschlossen würde. Ein Hinweis dagegen im BOINC Manager würde immens helfen...

Felix Evermann
17.12.2011, 22:57
bei mir ist auch schonmal die Pfadvariable "verlorengegangen" (keine ahnung warum und neuinstallation java hats auch nicht gebracht).
da hilft wirklich nur der eintrag per hand.
ich denke aber das es ein problem von java ist (ist ja häufig mal zickig).

aendgraend
18.12.2011, 02:11
Ich habe heute mal per Fernwartung @Work nachgeguckt und auf sicherlich mehr als 10 Rechnern die Pfadvariable gecheckt. Nirgends steht Java dabei, aber es ist überall installiert.

Felix Evermann
18.12.2011, 13:40
dann hast du den (java)fehler ja schon gefunden.
den pfad eintragen wie Chillkröte es so schön beschrieben hat, dann sollte es funktionieren:x)

aendgraend
18.12.2011, 22:00
Nope, ich sehe nicht ein, warum ich ein offensichtlich funktionierendes System umbiegen sollte, nur weil Projekt die - offensichtlich - richtigen Einstellungen nicht finden kann.

Denn Java funktioniert und alle Rechner, die ich bisher gecheckt habe, sind gleich konfiguriert. Ich kann gerne diese Woche mal unsere ganzen Clients per remote-Script prüfen (>3000), aber da wird sich nichts ändern, da bin ich fast sicher.

Somit ergibt sich für mich: Wenn das Projekt nicht in der Lage ist, das richtig auszulesen: "No new Work", danke und Tschüss :abgelehnt:

Felix Evermann
19.12.2011, 23:55
das ist kein umbiegen. normalerweise sollte java bei der installation die pfadvariable alleine setzen, funktioniert aber seit einiger zeit recht selten. hab das problem schon bei diversen windows-servern gehabt. da musste der pfad dann aber auch in der registry gesetzt werden (wenn das mal kein umbiegen ist).

Chillkröte
23.12.2011, 16:41
Ich habe heute mal per Fernwartung @Work nachgeguckt und auf sicherlich mehr als 10 Rechnern die Pfadvariable gecheckt. Nirgends steht Java dabei, aber es ist überall installiert
...
Wenn das Projekt nicht in der Lage ist, das richtig auszulesen: "No new Work", danke und Tschüss

Ich versteh nicht ganz wo das Problem liegen soll. Auch auf meinen 6 Rechnern war der Pfad nicht gesetzt (unterschiedliche Win OS und Javaversionen). Vielleicht ist ja Java auch einfach zu besch**eiden um den path ordentlich zu setzen !? Warum beharrst du so darauf das es ein Projektfehler ist? Felix schrieb auch schon das es ein Javafehler zu sein scheint.

Das ist jetzt nicht bös gemeint, aber es entzieht sich leider jeglicher Logik. Wie kann man Opti-Apps installieren, app.infos umschreiben, extra Sachen herunterladen u.v.m. damit man (besser) crunchen kann - aber mit 10 Klicks nen Pfad zu setzen ist zuviel? http://i270.photobucket.com/albums/jj107/tildewave/facepalm.gif

Schade das du so denkst denn es scheint ja doch bei dir gelaufen zu sein, du hattest die letzten Tage ja ein paar Credits gemacht.

Schöne Feiertage an alle die die SG-Fahne hochhalten @ ddm :thumbup:

aendgraend
23.12.2011, 17:02
Eben WEIL es gelaufen ist, verstehe ich die Mail nicht, und warum ich etwas ändern soll an der Konfiguration. Und ja, ich hab mein persönliches Ziel dort erreicht.

Chillkröte
18.04.2012, 16:54
SG MEILENSTEIN 10.000.000 (10Mio) ERREICHT !! :shocked:
http://www.abload.de/img/ddmsebcd.jpg

So wie es im Moment ausschaut werden wir in ca 21 Tagen von Team [BS]BoincStats überholt :(, sollten dafür aber in ca 50 Tagen Sic* endlich eingeholt haben :thumbup:
Kommt Leute da geht noch einiges... Nur 2-3 einsame [SG] Cruncher hier :undecided:

JayPi
05.03.2017, 14:32
Oh, staubt es hier, der Thread ist ja lange liegen geblieben.

Falls jemand hier rechnen will, es gibt Arbeit, aber man bekommt die WUs zurzeit nicht wieder los, da die Serverplatte voll ist!

JayPi
07.03.2017, 20:51
Die Serverplatte wurde zwischenzeitlich geputzt und die WUs konnten abgeliefert werden. Jetzt ist man sehr knauserig mit neuen WUs, aber sonst läuft wieder alles.

pons66
01.12.2017, 18:35
Die WU-Bereitstellung ist derzeit sehr gut. :thumbup:

Felix_M_
01.12.2017, 20:50
kann ich nur bestätigen

-jb-
02.12.2017, 06:27
Sa 02 Dez 2017 06:15:15 CET | DistributedDataMining | [error] Error reported by file upload server: Server is out of disk space
Sa 02 Dez 2017 06:15:15 CET | DistributedDataMining | [error] Error reported by file upload server: can't write file /home/boincadm/projects/DistributedDataMining/upload/138/4231269_SVM_Rand-2003_Par1-1200_Par2-1600_Dim-20_13847_0_1: No space left on server


Im Moment ist die Platte voll. Hoffentlich läuft ein Cronjob, der die wieder freischaufelt.

Edit:
Alles wieder im grünen Bereich. Gibt auch ordentlich WUs.

Felix_M_
02.12.2017, 10:58
wus gibts ordentlich, aber platte ist wieder voll

aendgraend
09.12.2017, 11:29
Ich tendiere derzeit dazu, vor dem Projekt zu warnen. Hier hat offensichtlich der Betreiber kein Interesse mehr an seinem eigenen Projekt.

Die Festplatte ist nun schon seit einigen Monaten immer wieder voll, und wird - wenn überhaupt - dann nur auf mehrfache Nachfrage, und auch dann nur mit Wochen Verzögerung wieder bereinigt.

Ich habe eigentlich besseres vor, als meinen Strom und die Rechenzeit mit solchem Unsinn zu verschwenden.

Zumal die Webseite, bzw. der Forenbereich, ja auch nicht wirklich bedienbar ist. Das Problem wurde auch schon vor über 1 Jahr gemeldet, uns seither hat sich da nichts verbessert.

Es ist schade, dass das Projekt nicht einfach beendet wird, wenn man schon kein Interesse mehr hat. So würden sich einige Benutzer ihre Zeit sparen.

:abgelehnt:

totoshi
13.12.2017, 14:30
Falls noch jemand fertige WUs hat: Die Festplatte scheint bereinigt - sprich der Upload funktioniert wieder. Also seid schnell ehe die Platte wieder überläuft. :wacko:

aendgraend
14.12.2017, 08:34
Pünktlich 1/2 Tag nachdem meine WUs alle vorgestern abend um 22:30 abgelaufen waren.

DANKE! NICHT! Hr. Schlütter! :ranting:

pschoefer
23.04.2018, 14:14
Es ist schade, dass das Projekt nicht einfach beendet wird, wenn man schon kein Interesse mehr hat. So würden sich einige Benutzer ihre Zeit sparen.
Spät, aber immerhin wird diesem Wunsch nun entsprochen:

Das Projekt distributedDataMining wird beendet!
Liebe ddm-Teilnehmer,

wir hatten in den letzten Jahren einen guten Lauf und die Rechenleistung, die ihr zur Verfügung gestellt habt, hat vielen Forschern geholfen, ihre wissenschaftlichen Ziele zu erreichen.

Leider konnte ich nicht so viel Zeit in die Instandhaltung des ddm-Projektes investieren, wie ich wollte, und während der BOINC-Client die meiste Zeit gut funktionierte, gab es zunehmend Probleme mit der Seite, die nicht vernünftig behandelt wurden. Ich habe oftmals überlegt, das Projekt abzuschalten, aber es gab nie den richtigen Moment dazu.

Das hat sich kürzlich geändert, als eine kritische Schwachstelle des Inhaltsverwaltungssystems Drupal bekanntgegeben wurde. Da die ddm-Webseite eine alte Drupal-Version verwendete, gibt es keine Lösung für dieses Problem. Daher habe ich die Webseite abgeschaltet. Es gibt keine Anzeichen, dass die Schwachstelle ausgenutzt wurde. Der eigentliche BOINC-Server läuft auf einem anderen Rechner und wäre in keinem Fall betroffen gewesen.

Ich hatte die Wahl, entweder auf die neueste Drupal-Version zu aktualisieren mitsamt der zeitaufwendigen Re-Integration aller BOINC-Funktionen oder das Projekt endgültig abzuschalten. Ich habe entschieden, dass das der richtige Moment ist, die Sache zu beenden. Ich habe einfach nicht die Zeit, das Projekt auf eine Weise zu betreiben, wie ihr sie verdient hättet.

Ab jetzt werden keine neuen WUs mehr erzeugt. Die verbliebenen Pakete werden an die BOINC-Clients verteilt und die eintreffenden Ergebnisse werden wie gewohnt behandelt. Die BOINC-Statistiken, die regelmäßig von mehreren Webseiten abgerufen werden, werden noch für eine Weile verfügbar bleiben, sodass eure Punkte nicht verloren gehen.

Danke für euer Verständnis und all eure Unterstützung in den letzten Jahren.

Mit freundlichen Grüßen,
Nico


The DistributedDataMining project is shutting down!
Dear ddm users,

we had a good run during the last years and the computing power which you provided enabled many researchers to achieve there scientific goals.

Unfortunately, I wasn't able to invest as much time as I wanted into maintaining the ddm project and although the BOINC client was working fine most of the time, the page had more and more problems which were not addressed properly. I was thinking about shuting down the project many times but there was never the right moment.

Recently, this changed when a critical vulnerability of the Drupal content management system was publicly announced. Since the ddm website was running an old version of Drupal, no fix is available for this issue. As a consequence, I took the website down. There are no indications that the vulnerability was exploited. The actual BOINC server is running on a different machine and would not have been effected anyway.

I had the choice between (1) updating to the latest Drupal version including the time consuming re-integration of all the BOINC features and (2) shutting down the project for good. I decided that this is the right moment to let it come to an end. I simply do not have the time to operate the project in the way that you would deserve.

From now on, no new workunits will be generated. The remaining units will be distributed to the BOINC clients and the incomming results will be processed as usuall. The BOINC statistics which are frequently crawled by multiple websites will stay online for a while, so that your credits won't be lost.

Thank you for your understanding and all your support during the last years.

Best regards,
Nico