PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : LHC@home



Seiten : 1 2 [3] 4

Bullitt
04.06.2010, 22:40
Jap, war auch zu spät. aber es kommt bestimmt wieder neue LHC Goldstaub :)

SDI
05.06.2010, 00:37
Hier sind gerade noch WUs reingekommen...

Beorn
06.06.2010, 11:42
Hab' etwas Goldstaub eingefangen! :thumbup:


06.06.2010 10:54:00 lhcathome Sending scheduler request: To fetch work.
06.06.2010 10:54:00 lhcathome Requesting new tasks
06.06.2010 10:54:40 lhcathome Scheduler request completed: got 2 new tasks
06.06.2010 10:54:42 lhcathome Started download of sixtrack_4209.0_windows_intelx86.exe
06.06.2010 10:54:42 lhcathome Started download of w3_DA-scaling-law2__1__s__64.31_59.32__30_32__6__58.5_1_sixvf_bo inc14124.zip
06.06.2010 10:55:12 lhcathome Finished download of w3_DA-scaling-law2__1__s__64.31_59.32__30_32__6__58.5_1_sixvf_bo inc14124.zip
06.06.2010 10:55:12 lhcathome Started download of w3_DA-scaling-law2__1__s__64.31_59.32__52_54__6__42_1_sixvf_boin c14480.zip
06.06.2010 10:55:37 lhcathome Finished download of w3_DA-scaling-law2__1__s__64.31_59.32__52_54__6__42_1_sixvf_boin c14480.zip
06.06.2010 11:01:41 lhcathome Finished download of sixtrack_4209.0_windows_intelx86.exe
06.06.2010 11:01:42 lhcathome Starting w3_DA-scaling-law2__1__s__64.31_59.32__30_32__6__58.5_1_sixvf_bo inc14124_0
06.06.2010 11:01:42 lhcathome Starting task w3_DA-scaling-law2__1__s__64.31_59.32__30_32__6__58.5_1_sixvf_bo inc14124_0 using sixtrack version 420900
06.06.2010 11:01:42 lhcathome Starting w3_DA-scaling-law2__1__s__64.31_59.32__52_54__6__42_1_sixvf_boin c14480_1
06.06.2010 11:01:42 lhcathome Starting task w3_DA-scaling-law2__1__s__64.31_59.32__52_54__6__42_1_sixvf_boin c14480_1 using sixtrack version 420900


Gerade erst gesehen, Server Status (http://lhcathome.cern.ch/lhcathome/server_status.php) sagt aber bereits wieder:

Results ready to send 0
Results in progress 4,475

Gruß und noch einen schönen Sonntag Euch allen!

schensi
06.06.2010, 11:58
Am besten ist es , LHC immer nebenbei mitlaufen zu lassen , hab seit gestern 11 Stück bekommen .:cool:

newman
15.06.2010, 18:48
Es gibt gerade wieder WUs bei LHC

SDI
29.06.2010, 20:12
Hab gerade durch Zufall gesehen, dass ich seit 21.05. noch eine grössere im Pending habe: klick (http://lhcathome.cern.ch/lhcathome/workunit.php?wuid=3836223)

Das komische ist, dass beide scheinbar fehlerfrei geliefert haben und trotz Erfüllung des Quorums 2 weiterhin nicht gutgeschrieben wird...

Major
29.06.2010, 20:30
Von dieser Sorte liegen bei mir noch einige mehr "auf Halde". :rolleyes:

Mit dem "Pending"-abarbeiten habens die Jungs beim LHC irgendwie nicht so richtig.
Allgemein ist die Datenbank dort wohl so ziemlicher Schrott, wenn ich z.B. sehe, dass ein (Uralt-)Rechner von mir durch ein Result aus dem Jahre 2006 (http://lhcathome.cern.ch/lhcathome/results.php?hostid=732217) (!!!) blockiert wird.

*nachträglich Glückwunsch zum 4. Geburtstag* :rolleyes:

Bullitt
29.06.2010, 20:45
So eine hab ich leider auch, keine Ahnung wo es da hakt: http://lhcathome.cern.ch/lhcathome/workunit.php?wuid=3884328

Beorn
03.08.2010, 00:57
Hallo liebe Freunde des gepflegten Siliziumquälens,

es gibt Arbeit bei den Architekten des Hadronen-Pogo:


02.08.2010 23:38:32 lhcathome Sending scheduler request: To fetch work.
02.08.2010 23:38:32 lhcathome Requesting new tasks
02.08.2010 23:38:47 lhcathome Scheduler request completed: got 2 new tasks
02.08.2010 23:38:50 lhcathome Started download of sixtrack_4209.0_windows_x86_64.exe
02.08.2010 23:38:50 lhcathome Started download of w3_nominal_collision_err_bb__2__s__64.31_59.32__38 _40__6__75_1_sixvf_boinc57664.zip
02.08.2010 23:38:53 WUProp@Home Sending scheduler request: To report completed tasks.
02.08.2010 23:38:53 WUProp@Home Reporting 1 completed tasks, requesting new tasks
02.08.2010 23:39:23 WUProp@Home Scheduler request completed: got 1 new tasks
02.08.2010 23:39:25 WUProp@Home Started download of data_collect_1.35_windows_intelx86__nci.exe
02.08.2010 23:39:26 WUProp@Home Started download of wu_1280777863_854


Guten Appetit! :x)

Die ersten vier Wutzen brauchten gewaltige 15, 9, 8 und 8 Sekunden jeweils. :D

(und außerdem gibt's wie man sieht neue Arbeit bei WUProp :thumbup: - ja, ist denn heute schon Weihnachten? :D )


Hinzugefügter Post:

Öhm, tja, die waren wohl alle so kurz, eben noch Result ready to send = 1300+ und nu Results ready to send = 0. :redface:


Hinzugefügter Post:

Und schon gibt's über 1400 neue Wutzen (http://lhcathome.cern.ch/lhcathome/server_status.php). Ich habe eine mit knapp 16 min Laufzeit bekommen, also nicht nur Goldstaub sondern ein richtiges kleines Nugget.

Claim sichern! :D :x)

Nullinger
03.08.2010, 09:06
Und nun das:

03.08.2010 06:42:27 lhcathome Message from server: Project is temporarily shut down for maintenance

Schade Schade:sad:


Hinzugefügter Post:

Funzt wieder und es kommen auch lange WUs mit! :cheesy::cheesy:

aendgraend
03.08.2010, 09:30
Genial, ich habe 16 Langläufer bekommen, mit vorausgesagten 8 bis 120 Stunden Laufzeit... :thumbup:

Bullitt
03.08.2010, 10:27
Ich hab 8 bekommen, darunter 7 Stück die schon nach ein paar Sekunden fertig waren, aber eine lange war auch dabei :)

Nullinger
03.08.2010, 11:26
Bei mir 2 lange WUs, eine wirds wohl auf 15 h bringen.

Major
03.08.2010, 21:44
LHC legt anscheinend grad nochmal richtig nach:
Results ready to send 5,212
Results in progress 10,917 (http://lhcathome.cern.ch/lhcathome/server_status.php) :eek: Was is'n plötzlich mit denen los?

VB-BOINC
03.08.2010, 21:57
Results ready to send 5,212
Results in progress 10,917

Ja aber dabei bleibt es auch. Server scheinen down zu sein. Weiss jemand was da los ist?

[SG] Harald_(Charly)
03.08.2010, 21:58
Keine Ahnung.. Hab hier ne 7,5h WU die wieder zurück will.. :dry:

VB-BOINC
03.08.2010, 22:07
Na dann hoffen wir mal dass es bald weitergeht und etwas mehr als Goldstaub herauskommt. Ist irgendwie lästig und ziemlicher Mist wenn man nicht weiss wie und wann es weitergeht. Aber irgendwie macht es doch Spass ;) Gehört halt dazu!

Beorn
03.08.2010, 22:40
Ich lasse es momentan parallel zu SIMAP laufen (mal abgesehen von NCI und GPU Projekten), das funktioniert sehr gut. Wenn neue Wutzen von LHC kommen (auch wenn der Server läuft, ist ja immer ein Mindesttimeout drin), dann werden die bevorzugt durchgerechnet und es geht wieder mit SIMAP weiter, ganz ohne rumschrauben. :thumbup:

Was da los ist? K.A., vielleicht testen Sie irgendwas am BOINC-Server, was die Software betrifft? Gründe gäbe es ja. ;) Ist aber reine Kaffeesatzleserei meinerseits auf Basis einiger Infobrocken aus dem Forum in letzter Zeit.

Fröhliches Partikelkreisen Euch allen! :x)

vmc
04.08.2010, 04:01
Und leider wieder keine Linux-WUs dabei :(

Bullitt
04.08.2010, 09:28
So, die 2. lange WU ist jetzt auch durch 15 Stunden.

Hat jemand die Grafik getestet? Gibt's da wieder dann nen Berechnungsfehler? Ich trau mich nämlich nicht :D

Beorn
04.08.2010, 17:44
Hat jemand die Grafik getestet? Gibt's da wieder dann nen Berechnungsfehler?

Yep, ich war so neugierig. Sobald die Grafikausgabe eingeschaltet wurde, brach die Berechnung mit Fehler ab (http://lhcathome.cern.ch/lhcathome/result.php?resultid=18825537). :rolleyes:

Major
04.08.2010, 21:13
Zum Glück hast du es ja mit einer der ultrakurzen WU gemacht.
Ich hätte mir wohl in den Hintern gebissen, wenn ich bei so'nem Versuch eine meiner langen WUs geschrottet hätte.

*Nöööö ... da bin ich zu geizig ... von den Dingern gibts zu einfach wenige.* :D

Rattamahatta
07.08.2010, 21:09
Heute gabs 2 ultrakurze WUs

w3_nominal_injection_ultimate_err_bb__5__s__64.28_ 59.31__16_18__6__12_1_sixvf_boinc94259_1

w3_nominal_injection_ultimate_err_bb__5__s__64.28_ 59.31__38_40__6__46.5_1_sixvf_boinc94932_1

die liefen nur ein paar sekunden. Ist das normal? Sind das Test WUs bevor der große Schwung kommt?

schensi
07.08.2010, 21:16
Große Schwünge gibt es eigentlich gar nicht , alle paar Tage gibt es ein paar tausend Wutzen , mit Laufzeiten zw. 4 Sekunden und bis zu 15 Stunden . Ist halt wie bei ner Lotterie , wenn man mal so ne lange erwischt .

Nullinger
07.08.2010, 22:50
Auf meinem Laptop haben sich einige fette Nuggets angesammelt. Welche Freude.:cheesy:

VB-BOINC
07.08.2010, 23:27
Schön wenn es etws Goldstaub und Hoffnung auf längere WUs gibt. Aber durch die kurzen WUs bekomme ich jetzt die Meldung "Message from Server: (reached daily quota of 10 results)".
Kann man dagegen etwas machen?

GER_Moki
07.08.2010, 23:35
Jepp, warten ;) Sonst nix (außer du richtest dir ne VM mit BOINC ein...)

Czechi
10.08.2010, 19:44
Habe gerade eine längere Wutze abbekommen. Derzeit läuft sie ohne Berechnungsfehler.
War endlich auch mal wieder dran.
Laut Serverstatus sind schon wieder alle raus.

Gruß Czechi

Hoshione
10.08.2010, 20:55
Task ID 18903020
Name w3_nominal_injection_ultimate_err_bb__4__s__64.28_ 59.31__8_10__6__1.5_1_sixvf_boinc98654_1
Workunit 3956791
Created 8 Aug 2010 7:38:19 UTC
Sent 8 Aug 2010 7:53:41 UTC
Received 10 Aug 2010 18:51:37 UTC
Server state Over
Outcome Success
Client state Done
Exit status 0 (0x0)
Computer ID 9709359
Report deadline 14 Aug 2010 23:25:55 UTC
CPU time 63996.421875
stderr out

<core_client_version>6.10.50</core_client_version>

Validate state Valid
Claimed credit 153.982395187344
Granted credit 149.928002882129
application version 4209.00


@Czechi das ist eine von fünf WUs die ich das erste mal seit langer Zeit bekommen habe (FREU)

Gruß

Hoshione:x)

schensi
10.08.2010, 21:02
Man muß nur genung Geduld haben . Ich konnte heute immerhin die 10 k-Grenze überschreiten .:cool:

Hoshione
10.08.2010, 21:34
Grats ! :cool::cheesy:

Hoshione;)

lurchlaich63
10.08.2010, 21:46
10k ist beeindruckend!

Ich "rechne" seit 2 Jahren LHC und habe bisher gerade etwas mehr als 1,5k geschafft.

Beorn
10.08.2010, 21:49
Man muß nur genung Geduld haben . Ich konnte heute immerhin die 10 k-Grenze überschreiten .:cool:

Klasse, herzlichen Glückwunsch. :D :x)

Wird bei mir wohl vorerst ein frommer Wunsch bleiben, bin gerade erst über die 7 k gekraxelt, aber immerhin.

SDI
11.08.2010, 11:27
Ich kriege gerade nix, hatte aber die letzten Tage schon ein wenig Glück.

Habe wieder eine WU (http://lhcathome.cern.ch/lhcathome/workunit.php?wuid=3836223), die mit Quorum 2 von zwei Rechnern ohne Fehler beendet wurde, aber weiterhin auf pending steht. Und das seit Mai...

schensi
11.08.2010, 12:25
Das Problem bei den meisten von Euch ist , glaube ich , daß Ihr eine zu neue Boinc-Version nutzt (6.6.xxx) , die fragen ein paar mal nach Arbeit , wenn das erfolglos ist wartet der Client glaube ich 24 Stunden bis zum nächsten Request . Ich habe bis auf eine Ausnahme noch 6.4.7 am laufen da ist das längste Intervall 4 Stunden . Ich bin damit ganz gut gefahren , die 10 k stammen fast zur Gänze aus 2010 ,ich glaube Anfang des Jahres stand ich bei 280 Cr. Evtl. ist es hier sinnvoll ein Skript einzusetzen, welches alle 2 Stunden bei LHC mal nachhakt , wies denn mit Arbeit aussieht.

Nullinger
11.08.2010, 13:23
Moin Schensi, die Sache mit der Untätigkeit des BM ist mir auch aufgefallen, seit ich mit
6.10.xx arbeite. So ein Skript wär ne feine Sache

Czechi
11.08.2010, 19:20
Für die eine WU hats bei mir 160 Punkte geregnet. Bin damit "schon" bei 2,6k angekommen.
Was lange währt, wird gut. Da kann man sich wenigstens über jede kleine Wutze freuen.

Gruß Czechi

Hoshione
11.08.2010, 19:32
@Czechi ich hatte nach langer Zeit mal Glück und habe "fünf" von den SixTracks 4209.00 ergattert, für über 28 h hat es denn dann auch 149.93 Credits gehagelt ;)

Die anderen laufen noch und wir werden sehen was sie bringen werden.

Info kommt.

Gruß

Hoshione:x)

schensi
12.08.2010, 21:33
@Nullinger , hast ne PN .
Ging net eher , Sch.... Arbeit.:D

Nullinger
12.08.2010, 21:39
Besten Dank, Schensi und auch an aend.

Das mit der Sch...arbeit ist wohl war, werde auch erst am WE Zeit haben mich mal länger an die Kiste zu setzen.

VB-BOINC
17.08.2010, 18:49
Es gibt wieder Arbeit, sind aber wohl fast alles wieder kurze WUs.

Grüße an alle und viel Erfolg!

Beorn
17.08.2010, 19:20
Vielen Dank für den Tipp! :x)

Durch schnelle Reaktion konnte ich mir eine Handvoll abgreifen. :) Da im Moment hauptsächlich noch SIMAP läuft brauchte ich das nur zu stoppen, um die Rechner verzweifelt nach WUs rufen zu lassen. :D

Interessanterweise waren es überwiegend Wutzen für SixtrackBNL diesmal, die Anwendung hatte ich noch gar nicht auf den Rechnern.

Viel Spaß!

PS: Habe gerade im LHC Forum gelesen, die BNL Anwendung hat auch den Screensaver-Bug, also Grafik abgeschaltet lassen. :rolleyes:

Major
17.08.2010, 19:27
Bigmac hat im Forum verlauten lassen, dass LHC wohl ab September wieder "richtig lebendig" sein wird.
We are not dead; I expect we shall
become really alive in September.
*klicks* (http://lhcathome.cern.ch/lhcathome/forum_thread.php?id=3060&nowrap=true#22472)

/me ist da mal sehr gespannt ... :dry:

newman
17.08.2010, 20:03
Jetzt ist der Server aber ersteinmal down :-(

VB-BOINC
17.08.2010, 20:07
Wutzen sind wieder alle vergeben, und ich hatte keinen großen Erfolg. Entweder die Superkurzen oder sie sind mit Berechnungsfehler abgebrochen.

Hoffen wir mal auf September!

Viel Erfolg und viel Spass!

Bullitt
17.08.2010, 20:08
Ich hab auch keine erwischt :(

Aber wenn's im September wieder richtig losgehen wird isses mir recht. Ist immernoch mein Lieblingsprojekt :):)

Beorn
17.08.2010, 20:30
Ich habe jetzt auch diesen ominösen "Maximum elapsed time exceeded (http://lhcathome.cern.ch/lhcathome/result.php?resultid=18934744)" Fehler und zwar bei einer eiinige Minuten langen WU, die mit der Sixtrack Anwendung berechnet wurde. Die SixTrackBNL WUs laufen bisher ohne Fehler durch, sind bei mir aber alle sehr kurz.

Der Server schob wieder welche nach, es lohnt sich also weiterhin nachzufragen.


Hinzugefügter Post:

und noch so'ne Gurke (http://lhcathome.cern.ch/lhcathome/result.php?resultid=18937686). :(

Testen die Jungs irgendwas oder sind diese Wutzen einfach nur im Eimer?

EDIT: Dieser Thread (http://lhcathome.cern.ch/lhcathome/forum_thread.php?id=3173&nowrap=true#22083) aus dem März erklärt zumindest kurz, was das für ein Zeitlimit ist, bringt aber nichts Erhellendes zum derzeitigen Fehler bisher.

Bullitt
17.08.2010, 21:34
Hab auch so eine WU bekommen, gleicher Fehler nach knapp 30 Minuten :(

Czechi
17.08.2010, 22:01
Bei mir warens insgesamt 5 Wutzen. Zwei mit Error abgebrochen und die anderen sehr kurz. Naja, Hauptsache ich war mal wieder dabei.

Gruß Czechi:x)

Sysadm@Nbg
17.08.2010, 22:09
/me wartet immer noch auf die Linux-App
oder auf Frickelkram, wie es manche bezeichnen ...
:undecided:

Major
27.08.2010, 17:41
Wer sich beeilt (und viel Glück hat ;)) kann vielleicht noch 'n paar LHC-WUs abgreifen:
Results ready to send 1,288
Results in progress 2,572

Czechi
29.08.2010, 22:52
Hallo Leute,

ich hatte Glück! :thumbup:
Ich habe Eine von 1023 Wutzen abbekommen. Ist auch noch eine Lange (geschätzte 6 Stunden).

Gruß Czechi :x)

Beorn
01.09.2010, 11:14
Damit das im ganzen LHC+ Hype nicht untergeht (macht doch bei Gelegenheit mal 'nen eigenen Fred dafür auf) es gibt da noch ein kleines, in die Jahre gekommenes LHC@home Projekt...

... und da gibt es gerade wieder Wutzen!! Zugreifen!! :D :thumbup:

Bullitt
01.09.2010, 13:57
Da war bei mir bis jetzt eine längere dabei (1h), der Rest war schon nach wenigen Sekunden fertig :(

Beorn
01.09.2010, 14:21
Ich habe schon einige zwischen 30 min und 45 min erhalten, also richtige kleine Nuggets.

Der Server ist zwischendurch immer wieder auf 0 oder kurzzeitig nicht erreichbar, einfach weiter nachfragen, den ganzen Vormittag über wurde nachgelegt. :thumbup:

Major
01.09.2010, 15:17
*narf* Jetzt gibts schon mal Arbeit in größeren Mengen, dann zersemmelt es den Scheduler. :ranting:

Möööönsch .. ich will doch irgendwann die 100k auch mal vollbekommen ...

Beorn
01.09.2010, 16:51
Und ich arbeite noch an meinen ersten 10k...

Die führen da aber auch ein strenges Regiment: fünfzehn Minuten Timeout für Requests an den Server (und wehe man meldet sich zu früh, dann gibt's gleich einen auf die Finger :D ) und ein max. Quota von 10 Stück pro Kern und Tag. Das habe ich auf einem Rechner schon ausgeschöpft, der ist also aus dem Rennen. :rolleyes:

EDIT: Der zweite, mit zwei CPUs, hat jetzt auch 20 Stck.. Dürfte beim nächsten Mal also auch abschlägig beschieden werden. Falls es noch was gibt, steht nämlich gerade wieder auf zero.

aendgraend
01.09.2010, 17:01
Ich habe mal alles verschoben (http://www.seti-germany.de/forum/astronomie-chemie-und-physik/4721-lhc.html), was zum neuen LHC+ Projekt gehört.

Danke an Major für den Tipp.

Nullinger
01.09.2010, 17:44
Heut´ schon 500 Credits eingestrichen. Da kann man nicht meckern.:cheesy:

Major
01.09.2010, 17:48
Mir geht einfach nur auf den Zeiger dass LHC prinzipiell erstmal nach Arbeit für GPU fragt und dann (da es natürlich dafür nix zu knuspern gibt) wieder in die 15 Minuten Warteschleife geht. :ranting:

VB-BOINC
01.09.2010, 18:51
EILMELDUNG!

3543 WUs sendebereit, aber scheduler läuft noch nicht. Könnte gleich losgehen. Viel Erfolg!

Beorn
02.09.2010, 00:34
Noch 'ne EILMELDUNG: Der Scheduler ist gerade wieder angesprungen und eben waren es noch über 16.000 Wutzen, die zu vergeben waren.

Da drei von vier meiner Rechner ihr tägliches Quota schon erreicht haben, bleibt mehr für Euch übrig. :D

Wird das Quota eigentlich um 00:00 Uhr UTC zurückgesetzt oder 24 h nach Erreichen? Oder wann?

Gruß und Happy Vollgascrunching! :x)

[ETA]MrSpadge
02.09.2010, 10:14
Mir geht einfach nur auf den Zeiger dass LHC prinzipiell erstmal nach Arbeit für GPU fragt und dann (da es natürlich dafür nix zu knuspern gibt) wieder in die 15 Minuten Warteschleife geht. :ranting:

Nicht LHC fragt nach Arbeit, sondern dein BOINC fragt danach. Die Beschwerde geht direkt nach Berkeley, wo man beschlossen hat, dass das Projekt dem client nicht mitteilen muss, wofür es überhaupt Arbeit anbietet. D.h. jeder BOINC client fragt bei jedem Projekt immer nach jedem möglichen Co-Prozessor.

MrS

Major
02.09.2010, 10:45
MrSpadge;164805']Nicht LHC fragt nach Arbeit, sondern dein BOINC fragt danach.Das ist mir schon klar. Ich wollte damit ausdrücken dass, wenn der BOINC-Manager nach Arbeit für LHC fragt, immer zuerst nach Beschäftigung für die GPU und nach vielen Fehlversuchen endlich auch nach Arbeit für die CPU gefragt wird. Bei solchen Projekten wie LHC ist es aber meist schon zu spät, da dort bekanntermaßen die Arbeit etwas rar ist.
MrSpadge;164805']Die Beschwerde geht direkt nach Berkeley, wo man beschlossen hat, dass das Projekt dem client nicht mitteilen muss, wofür es überhaupt Arbeit anbietet. D.h. jeder BOINC client fragt bei jedem Projekt immer nach jedem möglichen Co-Prozessor.

MrS
Das ist einer der Gründe warum ich auf einem Rechner noch immer den BM 5.10.20 einsetze.
Dieser, von Version zu Version mehr verbuggte, Klumpen Software namens BOINC-Manager wird noch dafür sorgen dass ich das DC komplett einstellen werde. :(

Arkturus
02.09.2010, 10:52
Hallo Mario,

ich verwende recht aktuelle Versionen von BOINC auf meinen beiden Rechenknechten und kann deine Kritik nicht nachvollziehen. Bei mir funktioniert es wunderbar...
Leider hab ich keine LHC-WUs abbekommen :-(

Gruß,
Marcel

aendgraend
02.09.2010, 11:02
Dann bist du entweder noch nicht allzu lange am Crunchen Marcel, oder du rechnest bei nicht sehr vielen Projekten mit.
Der BOINC-MissManager frägt bei mir teilweise stundenlang nur nach Arbeit für die GPU, obwohl ich die GPU-Nutzung bei allen Projekten (bei denen das möglich ist) abgeschaltet habe.

Ich setze diverse Versionen ein, von 6.6.xx bis 6.10.xx

Arkturus
02.09.2010, 11:14
Hallo Aendgraend,

richtig dabei bin ich seit etwas mehr als einem Monat, obwohl ich schon seit über einem Jahr bei SETI@Home angemeldet gewesen bin ohne aktiv zu crunchen.
Was meine Projekte angeht, so bin ich momentan bei SETI@Home, Cosmology@Home und MilkyWay@Home aktiv, zur Auslastung meiner Läppi-GPU auch bei Collatz. Der Desktop-PC hingegen rechnet mit der Geforce GT 240 nur bei SETI, der Stromverbrauch des alten Athlon X2 3800+ ist einfach zu groß.
Was das alles angeht, kann ich also sagen, dass BOINC wunderbar läuft :x)

Gruß,
Marcel

aendgraend
02.09.2010, 13:32
Dann hoffe ich, und drück dir die Daumen, dass du diese frustrierenden Meldungen nie sehen musst. :)

Major
08.09.2010, 17:56
LHC vermeldet gerade wieder Arbeit (http://lhcathome.cern.ch/lhcathome/server_status.php):
Results ready to send 1,487
Results in progress 7,095

Blacksmoker
08.09.2010, 18:06
Super habe auch eine WU abbekommen, nur nicht im BM drauf geachtet. :cheesy:

Czechi
10.09.2010, 21:55
Bei LHC@home gibt es wieder Arbeit. Ich habe gleich zwei WUs abbekommen.

Gruß Czechi :x)

aendgraend
13.09.2010, 23:12
Gepostet auch bei den "Links, die man mal gesehen haben muss":

Infos über das CERN, aufbereitet für Kinder.
https://project-cernland.web.cern.ch/project-CERNland/index.html

Ich find's geil, das Thema spielerisch so rüberzubringen. Von mir deshalb: :thumbup: :thumbup: :thumbup:

Yeti45
15.09.2010, 14:32
habe soeben eine WU erhalten .. Leider schon wieder out of work :(

VB-BOINC
05.10.2010, 19:29
Hallo zusammen,

im August hieß es mal, dass lhc im September richtig loslegt. Einige Zeit gab es ja auch mal regelmäßig Arbeit, aber jetzt ist wieder Ruhe. Hat jemand nähere Infos dazu?

Grüße an alle
VB

Nullinger
09.10.2010, 10:05
Moin Moin, es scheint etwas Arbeit zu geben.
Gerade sind 2 WUs reingeflutscht.

Yeti45
09.10.2010, 11:05
Danke für den Hinweis... dadurch hat sich auch eine zu mir verirrt :cheesy:

Stargazer
09.10.2010, 20:51
Ui-- hab drei wu abbekommen :) Laufzeit alle ~30mins (Ausgangszeit)

schönschön :)

Nullinger
10.10.2010, 10:46
Die WUs stapeln sich gerade auf dem Server.

Über 600 St. bereit zum Versand.

Also fröhlich zugelangt!

janosch13
16.10.2010, 09:32
Hi,

zur Info:

http://www.heise.de/newsticker/meldung/Large-Hadron-Collider-hat-Jahresziel-erreicht-1108837.html

VB-BOINC
09.11.2010, 19:52
3.509 Wutzen sendebereit, aber Scheduler läuft nicht... was ist da los?

lurchlaich63
09.11.2010, 19:54
Aber wenn ich so schau habe ich doch tatsächlich zwei bekommen!
Ist ja grandios!

Grubix
10.11.2010, 22:05
Wahnsinn, ich habe 10 Stück bekommen. Die habe auch unglaublich viel Rechenleistung verbraucht. Nach gut 90 Sekunden waren alle WUs fertig. :twisted:

Bis denn dann, Grubix.

SDI
14.11.2010, 00:23
Es wird gerade wieder Arbeit verteilt, habe gerade 2 WUs erhalten...

VB-BOINC
16.11.2010, 20:09
Es gibt wieder Arbeit! Beeilt Euch!

Telaara
16.11.2010, 20:35
Habe mir gestern eine eingefangen. Und das ausgerechnet während der Challenge. Aber LHC geht halt vor ;-)

phaeton57
16.11.2010, 20:47
Bei mir sind auch 2 eingetrudelt. Ich lass den Kanal offen trotz WCG-Challenge :)


Gruss phaeton57:x)

lurchlaich63
16.11.2010, 22:22
Ich habe auch was erwischt!
Und die paar Sekunden Arbeit, die man da bekommt, kann man auch getrost neben einer Challenge rechnen.

Major
29.11.2010, 21:35
LHC kleckert grad wieder etwas Arbeit raus (meist nur Sekunden-WU, aber besser als nix ;))

Telaara
30.11.2010, 00:37
Klasse! Habe gerade mal nachgeschaut und in meiner Abwesenheit sind tatsächlich zwei 8-Sekunden-WUs berechnet worden :-)
Kleinvieh macht auch Mist.

Major
02.01.2011, 15:38
"bigmac" hat sich im LHC-Forum (http://lhcathome.cern.ch/lhcathome/forum_thread.php?id=3060&nowrap=true#22652) wieder zu Wort gemeldet:
Dear LHC@home supporter, I hope you
had a good Christmas and I wish you all
the best for 2011. The last few years have
been difficult, but I now believe there is a
plan in place to repatriate the BOINC
servers to CERN itself and to provide scope for
additional applications as well as an updated
and improved SixTrack service. News should
appear on the LHC@home project NEWS.

2010 was a good year for the LHC and it ended with
a very successfull run using lead ions instead
of protons.

In the meantime I have been busy developing
SixTrack in order to produce executables with
0 ULP difference in the results using different
Fortran compilers, at any optimisation, and on
any IEEE 754 compliant platform. This would be
a small technical breakthrough, but extremely
useful for the portability of SixTrack. It should
(at long last) allow the use of an executable for
MACs and allow me to start development for
GPUs, once a satisfactory service has been
established.

Thankyou again for your continued support and patience.
Ich versuche mich mal an 'ner Übersetzung:
Liebe LHC@home Fans, ich hoffe
ihr hattet ein gutes Weihnachtsfest und ich wünsche Euch allen
das Beste für 2011. Die letzten Jahre waren
schwierig gewesen, aber inzwischen glaube ich dass es einen
Plan gibt den BOINC Server
zu CERN selbst zurückzuholen und somit Spielraum für
zusätzliche Anwendungen sowie eine aktualisierte
und verbesserte SixTrack Service zu bieten. Neuigkeiten sollten
bei den LHC@home Projekt NEWS erscheinen.

2010 war ein gutes Jahr für den LHC und es endete mit
einem sehr erfolgreichen Lauf mit Blei-Ionen anstelle
von Protonen.

In der Zwischenzeit war ich damit beschäftigt
SixTrack weiterzuentwickeln um ausführbare Dateien mit
0 ULP (???) Unterschieden in den Ergebnissen zu erzeugen mit unterschiedlichen
Fortran-Compilern, bei jeder Optimierung und auf
allen IEEE-754-konformen Plattformen. Dies wäre
ein kleiner technischer Durchbruch, aber extrem
nützlich für die Übertragbarkeit von SixTrack. Es sollte
(endlich) die Verwendung einer ausführbaren Datei für
MACs ermöglichen und mir erlauben die Entwicklung für
GPUs zu starten sobald ein zufriedenstellender Dienst
etabliert wurde.

Vielen Dank noch einmal für Eure Unterstützung und Geduld.

Naja ... dann hoffe ich mal *dass man mit der Übersetzung was anfangen kann und* dass es in 2011 mal wieder richtig losgeht bei LHC. ;)

aendgraend
02.01.2011, 20:35
"bigmac" hat sich im LHC-Forum (http://lhcathome.cern.ch/lhcathome/forum_thread.php?id=3060&nowrap=true#22652) wieder zu Wort gemeldet:
Ich versuche mich mal an 'ner Übersetzung:

Naja ... dann hoffe ich mal *dass man mit der Übersetzung was anfangen kann und* dass es in 2011 mal wieder richtig losgeht bei LHC. ;)

Danke für die News :thumbup: und dank


und mir erlauben die Entwicklung für
GPUs zu starten sobald ein zufriedenstellender Dienst
etabliert wurde.

wieder ein Projekt weniger, um das ich mich kümmern muss, wenn das mal anläuft :D

Nullinger
07.01.2011, 20:36
LHC verteilt gerade etwas Arbeit. Hab schon 8 St. abgegriffen.:cheesy:

Major
07.01.2011, 20:56
Waaaaaaaaaaaaaaaaaaaaaaaaaa ................. ich hasse diese mist*** 6-er BOINC-Version

Dieses völlig blödsinnige Fragen nach Arbeit für GPU :wall: :ranting:

Nullinger
07.01.2011, 21:52
Servus Major, Bunker hoch und noch nicht gestartete WUs anhalten.

SoEinWahnsinn
07.01.2011, 22:23
??? Meinst du " Noch nicht gestartete WUs von ANDEREN Projekten anhalten"? Weil sonst, gibt es nichts mehr ;)

Major
07.01.2011, 22:29
Was dann aber auch wieder bedeutet: alle 15 Minuten alle anderen CPU-Projekte anhalten
Auf so'ne Art Babysitting habe ich eigentlich gar keinen Bock. :(


Naja, egal ... irgendwann wird es *vielleicht* mal wieder richtige Arbeit (und nicht immer nur so'nen Fliegenschiss) von LHC geben

Nullinger
07.01.2011, 23:10
Ich habe eOn am laufen und einge DDDT2-WUs auf dem Rechner.
Außer 4 der DDDT2-WU s habe ich alle anderen angehalten.

Seither wird auch wieder Arbeit für die CPU angefordert.
Bei bedarf lasse ich dann wieder WCG-WUs laufen.

[ETA]MrSpadge
08.01.2011, 00:20
Die Entwickler haben irgendwann beschlossen, dass das bisschen inet-Verkehr und BOINC-Aktivität auf dem lokalen Rechner egal ist verglichen mit der Aufgabe, dem BOINC-Server noch sowas wie ein Flag zu geben "ich habe Arbeit für Resource a, b und d", so dass dihn die clienten nicht mehr ständig nach Arbeit für c fragen würden.

Dass dein BOINC keine LHC-WUs angefordert hat (wenn ich das richtig verstanden habe), liegt aber nicht daran, dass es Arbeit für die GPU angefordert hat, sondern daran, dass es das gerade nicht für nötig hielt (die CPU hat ja noch genug). Ohne GPU hätte da sowas gestanden wie "scheduler contact requested by user, not requesting new work". Deshalb hilft es dann auch, die andere CPU-Arbeit schlafen zu legen - irgendwann möchte BOINC dann doch wieder was neues haben.

MrS

Nullinger
04.03.2011, 08:03
Nach langer Zeit sind mal wieder ein paar WUs unterwegs.:cheesy:

Eigentlich möchte ich ja alle für mich selbst, aber ich bin ja nicht so und melde es hier mal.:D

schensi
04.03.2011, 12:12
Eine hab ich auch noch bekommen :cheesy:. Die letzte hatte ich am 1.September 2010.:shocked:

Major
22.04.2011, 22:29
In unregelmässigen Abständen (und mit viel Glück) gibt es schon seit mehreren Stunden wieder einmal LHC-WUs abzugreifen. :thumbup:

Nullinger
05.06.2011, 11:11
Ach ja, seit gestern gibt´s immer wieder mal ein paar WUs.
Die meisten laufen nur ein paar Sekunden, einige wenige, bringen es aber auch mal auf eine halbr Stunde.

Bullitt
05.06.2011, 16:07
Ich konnte immerhin eine WU abgreifen welche mir 13 Cr. gebracht hat. Noch fehlen 630 Cr. bis zur 20000er Marke :D

Major
07.06.2011, 15:40
LHC verteilt momentan wieder "fleissig".

Also Glück haben und zugreifen

Hoshione
11.06.2011, 21:58
Ich greife ja schon die ganze Zeit zu, mit dem Desktop und der VM, am Anfang bei der VM ne normale berechnung der Wutzen aber seid gestern alle nur noch mit Berechnungsfehlern:undecided: und jetzt gibts gar keine mehr


Hoshione

Flummi
15.06.2011, 11:14
Es haben sich drei LHC-WUs auf meinem PC eingenistet. Freu! Aber ich will mehr.

Hoshione
15.06.2011, 19:11
So einfach ist ja nu nich, sonst könnte ja jeder ;):D:thumbup:

Bullitt
15.06.2011, 19:52
Immerhin war bei mir eine 14Cr WU dabei :cool:

Die restlichen dauerten nur ein paar Sekunden.

Hoshione
16.06.2011, 21:19
:thumbup: Na das hätte jeder gerne mal....ich krebse immer nur mit 0, haste nicht gesehen Credits rum....aber das macht nix, der olympische Gedanken zählt oder ? ;):cheesy:

Gruß und schönen Abend noch

Hoshione

Bullitt
17.06.2011, 18:38
Hat von euch überhaupt auch noch jemand solche alten Schätzchen? :D

http://lhcathome.cern.ch/lhcathome/workunit.php?wuid=3884328

Jetzt ein Jahr alt und nicht gutgeschrieben.

Bernd Vogler
17.06.2011, 18:52
Meine älteste Pending ist von Oktober 2007:

http://lhcathome.cern.ch/lhcathome/workunit.php?wuid=1812882

Grüße, Bernd

BiancaW
17.06.2011, 18:56
habe noch
2 vom 28.03.2008 und
7 vom 06.04.2008

Major
17.06.2011, 19:17
Ich hoffe ja auch dass irgendwann einmal die Datenbank aufgeräumt wird. Es steht wohl auch auf der ToDo-Liste (schon seeeeeeehr lange) aber von den Verantwortlichen ist schon seit einiger Zeit keiner mehr im Forum zu lesen gewesen.

Für LHC musst du einfach viel Geduld oder/und Enthusiasmus mitbringen. :D

Achja ... ca.100 WU im Pending, davon die Älteste vom 28.02.2007

Nullinger
17.06.2011, 20:33
Meine älteste WU im Lager unseres kleinen Chinesenhttp://www.abload.de/img/diverses-002t738.gif (http://www.abload.de/image.php?img=diverses-002t738.gif) ist aus dem Juli 2006.
Ich habe sogar noch ein paar WUs mit claimed Credits drin.

Bullitt
17.06.2011, 22:45
Ich hab schon gedacht das das nicht oft vorkam, aber das sieht wohl anders aus :D

Hoshione
27.07.2011, 22:31
Mal was neues zu Cern, zwar keine WUs im Moment aber :

http://www.sueddeutsche.de/wissen/kernphysik-spuren-des-gottesteilchens-1.1125259

http://nachrichten.rp-online.de/wissen/erste-spur-des-gottesteilchens-entdeckt-1.1342701

http://www.dnews.de/nachrichten/wissenschaft/494674/wieder-geruchte-fund-gottesteilchens.html

http://uk.reuters.com/article/2011/07/27/science-us-science-higgs-idUKTRE76O5J120110727

Schönen Abend noch



Gruß

Hoshione:x)

Stargazer
01.08.2011, 18:32
Schade, dass es noch Konjuktivismen sind; Es wirklich zu wissen wär uns allen sicher lieber. ;)

Danke für die Links :)

Saenger
02.09.2011, 06:56
Das Projekt scheint umzuziehen, ich habe gerade ein neues ATA-Team gegründet bekommen unter dieser Adresse:

http://boinc01.cern.ch/sixtrack/index.php

Und als ich mich da angemeldet habe, einfach mal die normalen Daten versucht, kam ich auf ein anderes Konto, nicht Saenger2 sondern den "wahren" Saenger, mit den Daten aus dem alten LHC, inklusive Profil, exklusive Foto.
Auch das Team war falsch, uns gab es aber, bin also gleich beigetreten.

Das passt auch zu der letzten Meldung auf der alten Adresse:

19.08.2011 15:35 BST -
Migration of LHC@home to CERN

Since May 2007 LHC@home has been hosted at Queen Mary, University of London. One thing that is certain in life is change and it is now time for LHC@home to move back to CERN the home of the LHC experiment.

Next week 22nd to 26th August we will be migrating the project back to CERN and so please expect the project to be down for a few days from Monday.

We would like to thank you for your support over the last four years and hope you will continue to subscribe to LHC@home when it is back at CERN. We also wish the new CERN boinc admin's all the best as they take the reins.

Happy number crunching!
Alex and Neasan

pschoefer
02.09.2011, 07:28
Und als ich mich da angemeldet habe, einfach mal die normalen Daten versucht, kam ich auf ein anderes Konto, nicht Saenger2 sondern den "wahren" Saenger, mit den Daten aus dem alten LHC, inklusive Profil, exklusive Foto.
Auch das Team war falsch, uns gab es aber, bin also gleich beigetreten.
Kann ich bestätigen. Die User wurden offenbar einfach importiert, die Teams aber über den BOINC-wide-Team-Kram neu gegründet. Entsprechend passen da einige Teamzugehörigkeiten nicht (ich war im Team "Phenix", ID 42, wie SETI.Germany beim alten LHC@home) und sämtliche Teams sind ihre Credits los (während die User alles behalten haben).

Sysadm@Nbg
02.09.2011, 07:35
;198997']Entsprechend passen da einige Teamzugehörigkeiten nicht (ich war im Team "Phenix", ID 42, wie SETI.Germany beim alten LHC@home)
leaved Phenix, joined SETI.Germany :done:

Bullitt
02.09.2011, 08:36
Bin jetzt auch wieder bei SETI.Germany :x)

Dort sind aber auch noch einige Polen die wohl auch im falschen Team gelandet sind :D

anchedo
02.09.2011, 08:43
Teamwechsel umgesetzt. :done:

HeNiNnG
02.09.2011, 08:48
Wechsel vollzogen :thumbup: :X)

McCarron
02.09.2011, 09:11
ebenfalls ins richtige Team gehüpft.... und man kann endlich allte Rechner aus der Liste löschen... jetzt muss das nur noch beim WCG iwann mal gehen... :)

Bullitt
02.09.2011, 09:35
Und es gibt auch massig WUs :)

pschoefer
02.09.2011, 11:32
Dort sind aber auch noch einige Polen die wohl auch im falschen Team gelandet sind :D
Jepp, Team-ID 2 hatte das kleine polnische Team DistributedComputing@Plock (http://de.boincstats.com/stats/team_graph.php?pr=lhc&id=2). ;)

Major
02.09.2011, 14:19
Diese Teamneugründung per BOINC-wide-Dingenskirchen ist ja mal wieder ein ausgemachter Blödsinn.
Ist denn das so ein Problem ein entsprechendes Script zu schreiben und somit automatisch die User auch wieder in ihre richtigen Teams zu befördern?

Zu einer solchen Stümperei fällt mir echt nix mehr ein. :rolleyes:




Achja ... um noch 'nen halbwegs kosntruktiven Beitrag zu leisten: HIER (http://lhcathome.web.cern.ch/LHCathome/) sind noch ein paar Seiten mit Erklärungen im Old-Style zu finden.

Saenger
02.09.2011, 14:45
Ich hab' grad über einen Trick einen Thread im Forum da erstellt, das wohl vorhanden, aber irgendwie versteckt ist:
http://boinc01.cern.ch/sixtrack/forum_forum.php?id=4

Hier sind die vorhandenen, leeren, Teile direkt, dann geht auch ein "New Post":
(vermutlich News) (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=1) aber mit "New Post", was sonst da nicht geht
LHC@home Science (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=2)
Number crunching (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=3)
Cafe LHC (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=4)
Windows (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=5)
Unix/Linux (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=6)
(nix, vermutlich Mac) (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=7)
Getting started (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=8)
Preferences (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=9)
Wish list (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=10)
Sixtrack (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=11)
Team invites (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=12)

Hoshione
02.09.2011, 19:17
Wechsel ? Done ! (Heute morgen um 07:00 ;)) WUs ? hab noch keine......weiß wer sie hat Bullitt;):x)

Saenger
02.09.2011, 19:22
Wechsel ? Done ! (Heute morgen um 07:00 ;)) WUs ? hab noch keine......weiß wer sie hat Bullitt;):x)

Ich hab's in meinem BOINC gerade erst umgemeldet, und habe prompt eine Sixtrack abbekommen.:D

Flummi
02.09.2011, 19:41
Als ich das hier las, hab ich mich gleich beim "neuen" LHC angemeldet und SETI.Germany rejoined. Schließlich ist LHC mein Lieblingsprojekt. Nur schade, dass ich mich von der LHC-Grafik nicht mehr hypnotisieren lassen kann :D (keine Grafikausgabe)

Wäre es nicht sinnvoll, einen Newsletter an alle LHC-Nutzer von SETI.Germany zu schicken?

Hoshione
02.09.2011, 20:16
Ich hab's in meinem BOINC gerade erst umgemeldet, und habe prompt eine Sixtrack abbekommen.:D

Du glücklicher, LHC ist schon immer das Projekt gewesen das so eingestellt war das egal was sonst gerechnet wurde sich Wutzen ziehen konnte (wenn welche da waren) deshalb geht es hier auf Biegen und Brechen weiter;):D:x)

anchedo
02.09.2011, 22:12
Ich hab's in meinem BOINC gerade erst umgemeldet, und habe prompt eine Sixtrack abbekommen.:D

War wohl übertrieben von mir, heute Vormittag gleich mal 350 Stück davon einzusacken? :redface: 150 Stück davon sind schon erledigt. :D

Dude
02.09.2011, 23:08
Teamwechsel erledigt

lurchlaich63
03.09.2011, 00:19
Zurück bei SG!

vmc
03.09.2011, 01:25
Ha, und es gibt ne App fuer Linux. Vllt bekomme ich da ja doch mal Credits :)

Saenger
03.09.2011, 06:31
Zurück bei SG!

Falsch!:(

Die Idioten haben heute Nacht alles wieder geändert, ich habe auch eine neue Kontomeldung von dem ATA-Konto bekommen, und jetzt sind alle "Early Adopters" Mitglied des holländischen Teams "DistributedComputing@Plock".
Verschickte Wutzen scheinen zu bleiben weiter zugeordnet, was mit den Credits passiert ist müssen andere sagen, meine ist noch nicht durch.

Die Foren wurden auch über Nacht wieder importiert, mit allen alten Posts, aber ohne die neuen.

Ich muss zur Arbeit, bis später.

MichaelR
03.09.2011, 07:22
Ich glaube die wollen das uns nicht langwelig wird, so nach den Motto,wen es schon keine Wu gibt habt ihr wenigstens da was zu tun
Gruß Michl

pschoefer
03.09.2011, 07:42
Die Idioten haben heute Nacht alles wieder geändert, ich habe auch eine neue Kontomeldung von dem ATA-Konto bekommen, und jetzt sind alle "Early Adopters" Mitglied des holländischen Teams "DistributedComputing@Plock".
Verschickte Wutzen scheinen zu bleiben weiter zugeordnet, was mit den Credits passiert ist müssen andere sagen, meine ist noch nicht durch.
So idiotisch finde ich das gar nicht. Es wurden einfach jetzt auch die alten Teams importiert (mitsamt ihrer über die Jahre ercrunchten Credits) und da hatte SG eben die wunderschöne ID 42. Die User wurden freilich nicht nochmal importiert. Der einzige Fehler war, die Website zugänglich zu machen, bevor die Migration komplett abgeschlossen ist. ;)

Für die Credits gilt das übliche: Sie werden dem Team mit der ID gutgeschrieben, dessen Mitglied man im Moment der Creditvergabe ist.

Sysadm@Nbg
03.09.2011, 09:58
;199106']So idiotisch finde ich das gar nicht. Es wurden einfach jetzt auch die alten Teams importiert (mitsamt ihrer über die Jahre ercrunchten Credits) und da hatte SG eben die wunderschöne ID 42. Die User wurden freilich nicht nochmal importiert. Der einzige Fehler war, die Website zugänglich zu machen, bevor die Migration komplett abgeschlossen ist. ;)

Für die Credits gilt das übliche: Sie werden dem Team mit der ID gutgeschrieben, dessen Mitglied man im Moment der Creditvergabe ist.

zum Glück sind die zwei WUtzen noch beim chinesischen Lagerarbeiter, so hatte ich Zeit für den Wechsel und bin nun zürck im Team SETI.Germany
:x)

Bullitt
03.09.2011, 10:43
Wenn bei euch alle WUs weggerechnet bitte wieder die alte URL benutzen!

03.09.2011 10:40:22 LHC@home 1.0 You used the wrong URL for this project. When convenient, remove this project, then add http://lhcathomeclassic.cern.ch/sixtrack/

Major
03.09.2011, 11:22
;199106']So idiotisch finde ich das gar nicht. Es wurden einfach jetzt auch die alten Teams importiert (mitsamt ihrer über die Jahre ercrunchten Credits) und da hatte SG eben die wunderschöne ID 42. Die User wurden freilich nicht nochmal importiert. Der einzige Fehler war, die Website zugänglich zu machen, bevor die Migration komplett abgeschlossen ist. ;)

Für die Credits gilt das übliche: Sie werden dem Team mit der ID gutgeschrieben, dessen Mitglied man im Moment der Creditvergabe ist.Also habe ich mich hier (http://www.seti-germany.de/forum/astronomie-chemie-und-physik/1306-lhc-home-26.html#post199031) anscheinend doch etwas zu früh aufgeregt. :redface:

Bleibt nur noch eins zu sagen .... Attacke auf den Cern-Server! :D

Nullinger
03.09.2011, 12:43
Habe eine ganze Menge WUs bekommen.:cheesy:
Die fertigen enden aber alle als Validierungsfehler.:sad:

Bullitt
03.09.2011, 13:32
Hatte ich auch, ich vermute das das an der alten URL (http://boinc01.cern.ch/sixtrack/index.php) liegt, ich hab das Projekt jetzt gelöscht und die neue URL (http://lhcathomeclassic.cern.ch/sixtrack/) genommen. Aber hier gibt es gerade keine WUs.

newman
03.09.2011, 13:39
Moin moin,

nachdem ich gestern erst das Team Phenix verlassen habe und wieder zu Seti.Germany gewechselt hatte stehe ich heute schon wieder in einem anderen Team. Nämlich DistributedComputing@Plock!! Da sind noch mehr von uns gelandet. Also schaut noch mal nach, ob ihr immer noch im richtigen Team seid ;)

Grüße

Marcus

Bullitt
03.09.2011, 16:49
So, hab jetzt einige WUs mit der neuen URL gerechnet, auch alle mit "Validate error".

Hab da übrigens noch 'n cooles Cartoon gefunden :D

anchedo
03.09.2011, 19:36
Hm, bei mir sind bisher alle gültig, trotz der alten URL (http://boinc01.cern.ch/sixtrack/index.php).

[ETA]MrSpadge
04.09.2011, 11:25
Bei mir auch 4 von 4 mit validate error.

MrS

Hoshione
04.09.2011, 11:38
Schätze mal 2 bis 5 % der ganzen WUs sind s ca. bei mir...mal nen kompletten Schwung alles in bester Ordnung, dann mal wieder welche dabei die mit Berechnungsfehler gemeldet werden.

Gruß

Hoshione:x)

Bullitt
07.09.2011, 17:05
Es gibt wieder WUs.

Aber es wird nichts mit bunkern^^

07.09.2011 17:04:21 LHC@home 1.0 (reached limit of 2 tasks in progress)

dingdong
09.09.2011, 20:38
Es gibt Arbeit, diesmal aber anscheinend 3 WUs pro Core oder Rechner.
Message from server: (reached limit of 12 tasks in progress)

pilotpirx
16.09.2011, 09:15
es gibt immer noch Arbeit,
laut dortigem Forum sollte man das Projekt bei Fehlermeldungen im BM ab- und wieder anmelden

vmc
17.09.2011, 00:24
es gibt immer noch Arbeit,
laut dortigem Forum sollte man das Projekt bei Fehlermeldungen im BM ab- und wieder anmelden

Danke dir! Nu flutschts wieder .. Hatte die neue Adresse zwar drin, aber iwie immer Meldungen von wegen "Missing tag" (oder aehnlich).

Bullitt
18.09.2011, 20:29
Also momentan habe ich einige lange WUs, die laufen schon mehrere Stunden.

Hoshione
18.09.2011, 20:37
dito

BiancaW
18.09.2011, 23:01
Dann könnt ihr euch schon mal auf die Fehler (http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=3348)dieser ~5h WUs freuen.

Nullinger
18.09.2011, 23:20
Hi Bianca, ich habe auch schon 6 WUs, die nach 5 h mit Berechnungsfehler enden.
Die Laufzeit wäre mit dem 980er mit HT etwa 10 h gewesen.

Ich habe die restlichen WUs gelöscht und frische gezogen.
Mal sehen ob sich was ändert.

BiancaW
19.09.2011, 17:49
Hi Bianca, ich habe auch schon 6 WUs, die nach 5 h mit Berechnungsfehler enden.
Die Laufzeit wäre mit dem 980er mit HT etwa 10 h gewesen.

Ich habe die restlichen WUs gelöscht und frische gezogen.
Mal sehen ob sich was ändert.

Fehler wurde heute Mittag beseitigt.
Ältere WUs (mit Laufzeiten >= 5h) sollten abgebrochen werden.

Major
20.09.2011, 17:11
Seit einigen Stunden müht sich der BOINC-Manager vergeblich Kontakt mit dem Server aufzunehmen.
dazu passend die Meldung:
Tue, Sep 20 - 14:05
Sixtrack server is currently under maintenance. Operations should resume soon.

Please come back later

Yamazaki
23.09.2011, 19:28
Hallo ihr ;)
hab jetzt diverse w3-collision... bekommen, von denen einige 3+ Std. laufen werden,
wenn die Anzeige stimmt.
Sind die jetzt ok oder nicht ?

Major
23.09.2011, 20:10
Die sind okay. Manche laufen bei mir ~8 Stunden, zwischendurch kommen auch immer mal wieder 'n paar 30 Sekunden-Teile rein, aber der größte Teil sollte sich im Mehrstunden-Bereich bewegen.

PS: Übrigens haben die Jungs von LHC ihre Creditvergabe etwas überarbeitet. War es bisher so, dass bei Quorum 2 der niedrigere der beiden Cliamwerte den Grantedwert darstellte, wird jetzt der Mittelwert aus den beiden Claimwerten als Granted genommen.

HeNiNnG
30.11.2011, 11:11
Es gibt hier und da mal wieder WUs abzugreifen...
Gestern Abend erst extreme Kurzläufer (wenige Sekunden) und die jetzigen laufen die so um die 8h (Wenn die Anzeige stimmt)

PS: Sind Six Tracks...und nicht wundern...es wandert ALLES ins Pending...der Validator läuft nicht - wieso auch immer :X)
PPS: Validator läuft nun...und es sind wieder Aufgaben bereit zum versenden :thumbup:

PPS: bei mir mit HT um die 9 Stunden (die erste ist durch)

Bullitt
17.12.2011, 20:13
Seit heute Abend kommen immer wieder WUs rein, also los welche abgreifen :)

Treti
17.12.2011, 21:49
sah für den ersten Moment nicht so aus, aber ich hab auch welche bekommen:cool:

Bullitt
19.12.2011, 19:05
Jetzt sind sogar mal lange WUs dabei, 4h> :)

Hoshione
19.12.2011, 20:25
Hab ich so gar nicht mitbekommen, dachte schon ich bin mal wieder ohne geblieben .....aber heute schön brav 13,07 Credits gutgeschrieben bekommen :D Muss sich wohl was in der Nacht durchgeschmuggelt haben ;)


Gruß

Hoshione:thumbup:

Treti
19.12.2011, 20:55
bin im Moment konstant versorgt, würde es aber nicht unbeobachtet als Einzelprojekt laufen lassen :)

dingdong
05.01.2012, 16:22
Es gibt wieder SixTracks

wobei mir gleich auffällt, dass die Rechner mit Boinc - Version 7.03 nichts abgekriegt haben.

Bullitt
05.01.2012, 16:30
Danke für die Info, hab mir doch gleich welche geschnappt :)

SDI
05.01.2012, 20:57
Also meine BOINC-7.0.7er Versionen haben Sixtracks abbekommen.

Treti
05.01.2012, 22:11
mehr als 12 WUs nimmt er leider nicht auf einmal in die Warteschlange. Dafür sind es alles 4-Std-WUs :)

dingdong
06.01.2012, 03:33
Also meine BOINC-7.0.7er Versionen haben Sixtracks abbekommen.

Hmmm, meine 7.03er haben immer noch nichts. Muss ich wohl die 7.07 nachher mal versuchen.

MichaelR
06.01.2012, 12:09
Hi,
mal eine bescheidene Frage, wo findet ihr die BOINC-7.0.7 version?
Gruß Michael

Bullitt
06.01.2012, 12:15
http://boinc.berkeley.edu/dev/forum_thread.php?id=6698

AxelS
06.01.2012, 12:16
Hi,
mal eine bescheidene Frage, wo findet ihr die BOINC-7.0.7 version?
Gruß Michael

Hier (http://boinc.berkeley.edu/dev/forum_thread.php?id=6698) und direkt auf dem Server (http://boinc.berkeley.edu/dl/). :x)

MichaelR
06.01.2012, 12:19
merci :x)

taurec
06.01.2012, 13:43
Ohne lang rumsuchen zu wollen, bei mir kommt immer folgende Meldung:

Fr 06 Jan 2012 13:42:12 CET | LHC@home 1.0 | Message from server: Error in request message: no start tag

Was mache ich denn falsch? Linux 64bit

MichaelR
06.01.2012, 13:57
Hi,hatte ich vorhin auch,bei mir hat ab und anmelden des Projektes im BM geholfen.
Gruß Michael

taurec
06.01.2012, 14:29
Servus, Michael :)

Danke, bei mir hat das auch geholfen :D

dingdong
06.01.2012, 17:05
konnte mir die 7.07 sparen, nun hat auch ein Rechner mit der 7.03 von sich aus Arbeit geholt!

Flummi
06.01.2012, 20:44
Ui ui ui! Bei Boincstats hat's aber ganz schön was durcheinandergewirbelt.http://de.boincstats.com/stats/team_stats.php?pr=lhc&st=0

Piratenpartei Deutschland auf Platz 1 mit nem RAC von 2,5 Millionen bei LHC :D

Edit: Das ist mehr als der RAC des gesamten Projekts :D

Nullinger
06.01.2012, 22:42
Vorallem ist es nur ein Mitglied der mit drei nicht aktiven alten Athlons heute 25 Millionen gemacht hat.:cool:

http://de.boincstats.com/stats/user_graph.php?pr=lhc&id=101328

pschoefer
06.01.2012, 22:45
Ui ui ui! Bei Boincstats hat's aber ganz schön was durcheinandergewirbelt.http://de.boincstats.com/stats/team_stats.php?pr=lhc&st=0

Piratenpartei Deutschland auf Platz 1 mit nem RAC von 2,5 Millionen bei LHC :D

Edit: Das ist mehr als der RAC des gesamten Projekts :D
Schuld ist dieser User (http://lhcathomeclassic.cern.ch/sixtrack/show_user.php?userid=101328)... mehrere CPU-Jahrhunderte (http://lhcathomeclassic.cern.ch/sixtrack/results.php?hostid=9914771) in wenigen Stunden selbst mit einem gigantischen Cluster von AMD X4 zu erreichen, fällt in die Rubrik "unmöglich", da hat mal wieder jemand die Schwächen des Creditsystems auszunutzen gewusst... :rolleyes:

Nullinger
06.01.2012, 22:50
In der Rechnerliste tauchen die Credits nicht mal auf. Wird sich wohl irgendwo anders ein Fehler eingeschlichen habe
http://de.boincstats.com/stats/host_stats.php?pr=lhc&st=0&userid=101328n.

pschoefer
07.01.2012, 01:04
In der Rechnerliste tauchen die Credits nicht mal auf. Wird sich wohl irgendwo anders ein Fehler eingeschlichen habe
http://de.boincstats.com/stats/host_stats.php?pr=lhc&st=0&userid=101328n.
Inzwischen stehen sie dort, vermutlich waren diese Stats vorhin noch nicht aktualisiert. ;)

Nullinger
07.01.2012, 08:57
Moin Patrick, das kann gut sein.
Inzwischen stehen 7 von den Lümmeln an der Spitze der User-Statistik.
http://de.boincstats.com/stats/user_stats.php?pr=lhc&st=0#58

schensi
07.01.2012, 09:21
Es sind diese 2 Rechner
1 (http://lhcathomeclassic.cern.ch/sixtrack/results.php?hostid=9914771), 2 (http://lhcathomeclassic.cern.ch/sixtrack/results.php?hostid=9868114) die anderen haben korrekt geclaimed. Seltsam nur , daß der zweite Rechner nur ein Resultat derart hoch angibt.

Nullinger
09.01.2012, 16:53
Gerade werden wieder ordentlich Wutzen verteilt.
Darunter jede Menge Langläufer.:cheesy:

.:CrunchBeast_[FC]:.
03.02.2012, 15:44
Moin,

habe gerade 3 WU's bekommen. Das war es dann auch schon wieder ...

:undecided:

Yamazaki
07.02.2012, 23:20
In den ltz. Tagen kommen immer mal ein paar kürzere SixTracks...
Ich 'frage allerdings öfter mal nach' ...

Bei einem Blick auf die besten Teams hier:
man achte auf die aktuellen "RAC-Meister" ...

Wenn 2 Leute zusammensitzen,
muss wohl unbedingt
ein Verein gegründet werden. :rolleyes:

Bullitt
14.03.2012, 09:12
Es gibt wieder ein paar WUs :)

BiancaW
22.03.2012, 21:05
Es gibt ein paar WUs

BiancaW
28.03.2012, 22:09
Für jene die es noch nicht bemerkt haben. LHC gibt seit Tagen Schubweise verhältnismäßig viele WUs aus.
Leider bekomme ich heute keine mehr (reached daily quota of 960 tasks), aber eventuell haben andere Glück.

Bia

shka
27.04.2012, 14:07
heute habe ich auch welche bekommen, Zeit wurde es ja mal wieder

Edith meint, wie Bia schon erwähnt hat, kommen die schubweise mehrfach am Tag. Wenns jetzt nicht gleich klappt, dran bleiben.

Edith zwo meint, irgendwo ist da der Wurm drin, die mit Laufzeiten von Sek bis ca. 20 min werden ordentlich gegranted, bei längeren Laufzeiten gehen die Credits in den Keller. Also nur was für Feinschmecker. :(

Nullinger
27.04.2012, 21:18
Seltsam seltsam, egal wie lang die Dinger laufen, maximal 12 Credits pro WU.
Hab schon ne Menge WUs mit über 3 h Rechenzeit durch.

shka
27.04.2012, 21:25
Die einzige Antwort, die ich bisher erhalten habe, lautet CreditNew http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=3437

[ETA]MrSpadge
28.04.2012, 00:20
CreditNew
Nooooo... ! :shocked:

MrS

Bullitt
28.04.2012, 11:51
Tatsächlich, für 5 Stunden Laufzeit gerade mal 12 Credits. So bekomme ich doch nie die 30000 voll...

Bullitt
11.05.2012, 19:53
Die werden doch nicht gerade jetzt während des Pentathlons WUs rausschicken? Eine kam nämlich gerade, aber nur ne super kurze WU.

HeNiNnG
11.05.2012, 22:35
Doch...ich hab auch ein paar auf'm Rechner liegen...zg gesehen, dass der welche gezogen hat und direkt pausiert und auf nnw...mal, wenn die Lage bei den letzten Projekten relativ entspannt ist, vll schiebe ich die dann mal dazwischen...:x)

georg70
05.06.2012, 21:53
Wenn ich heute auf die Statistikseite von S.G. (Seti.Germany) gehe und dann werden dort -13,480 (für die letzten 24 Stunden) für LHC angezeigt. Gibt es einen Grund für diese negativen Punkte?

Saenger
05.06.2012, 22:50
Wenn ich heute auf die Statistikseite von S.G. (Seti.Germany) gehe und dann werden dort -13,480 (für die letzten 24 Stunden) für LHC angezeigt. Gibt es einen Grund für diese negativen Punkte?

Kleiner Glitch beim Serverumzug, die wollen das wieder gradeziehen (http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=3441&nowrap=true#23927), aber wenn's nicht klappt, so what?

Nullinger
05.06.2012, 23:53
Allein bei mir fast 7 K Abzug.

Dafür gibts wieder Arbeit und reguläre Credits.
Die Geschichte mit den max. 12 Credits/WU hat sich somit wohl erledigt.

Yamazaki
07.06.2012, 22:00
Sieht für mich so aus, als ob der Abzug wieder gutgeschrieben wurde.
Und ein paar WUs gibts obendrauf :thumbup:

Flaeminger
08.06.2012, 14:03
Bei mir trudelt sporadisch Arbeit ein.....

HeNiNnG
08.06.2012, 16:04
Bei mir trudelt sporadisch Arbeit ein.....

Dito...sogar fast regelmäßig...:x)

MoKo
08.06.2012, 22:00
Was ist mit regelmäßig gemeint?

Ich habe bis auf 8 vor 2Tagen nie was bekommen wenn ich aktualisiert hab.

HeNiNnG
09.06.2012, 08:02
Was ist mit regelmäßig gemeint?


Dass immer ein paar LHCs bei mir rumliegen...gut...ich kann natürlich nicht komplett auf LHC schwenken, aber nebenbei läuft das durch atm...:x)

Nullinger
25.06.2012, 10:13
Kriegt igr eigentlich auch schon wieder so miese Credits?
Die Langläufer mit 6-7 h Rechenzeit geben gerade mal um die 30 Credits.
Die WUs die etwa ne Stunde laufen, 4-5 Credits.:(
Credit new, oder wie?

shka
25.06.2012, 10:28
Yepp, die Creditvergabe ist wieder wie vor Wochen komplett wirr, insb. für Laufzeiten oberhalb 1h


7,384.59 7,213.19 13.85 SixTrack v443.07
17,025.29 16,687.21 32.49 SixTrack v443.07
1,248.78 1,215.23 1.26 SixTrack v443.07
356.69 345.07 0.44 SixTrack v443.07
aber auch
165.06 158.33 32.68 SixTrack v443.07

MoKo
25.06.2012, 12:56
Naja erstmal freue ich mich, dass es wieder wus gibs.
Ich bin seit Tageswechsel vollständig mit LHCs versorgt.

Auf der andere Seite kann ich aber leider auch die willkürliche Creditverteilung bestätigen:


188.15 169.35 32.06 SixTrack v443.07
280.17 262.96 47.05 SixTrack v443.07
233.15 214.81 3.01 SixTrack v443.07
792.37 747.43 4.42 SixTrack v443.07
127.09 117.03 1.95 SixTrack v443.07

Bei den wirklichen Langläufern (10000+ sec) fehlen mir derzeit noch die Wingmen.

shka
03.07.2012, 09:11
Für die, die gerne mal ne LHC-WU rechnen würden - aktuell bestehen gute Chancen dafür :thumbup:

MoKo
04.07.2012, 15:19
Die Projektstatusseite (http://lhcathomeclassic.cern.ch/sixtrack/server_status.php) von LHC@Home meldet gerade über 26k WUs bereit zum versenden.


Hinzugefügter Post:

Es gibts allerdings derzeit ein paar Serverprobleme klick (http://lhcathomeclassic.cern.ch/sixtrack/index.php)

Müssen wir uns wohl noch ein bissel gedulden bis wir uns über die WUs hermachen können.

Bullitt
04.07.2012, 16:41
Jetzt geht's aber!

fromdusk
07.07.2012, 23:42
Hab gerade von LHC Arbeit bekommen... Gute das ich boxen am PC geschaut habe.

Grüße

Treti
08.07.2012, 17:02
scheint sich aber wieder mal dem Ende zu zu bewegen. Mal sehen, aktuell habe ich keine WU´s mehr im Bunker.

Bullitt
08.07.2012, 17:05
Also ich habe gerade noch welche bekommen.

Nullinger
08.07.2012, 21:12
Nachmittags war LHC mal down, weil der WU download nicht richtig gefunzt hat.
Mittlerweile läufts wieder normal.

Treti
09.07.2012, 17:32
Gewalt geht vor Recht. Mit ein wenig auf-die-Füße-treten bekommt man auch noch was ab :D

HeNiNnG
11.07.2012, 00:46
130 LHC@home 1.0 11-07-2012 00:43 Scheduler request completed: got 1 new tasks
131 LHC@home 1.0 11-07-2012 00:43 Started download of w1jul_niebb0d__26__s__64.28_59.31__8_8.2__6__38_1_ sixvf_boinc44538.zip
132 LHC@home 1.0 11-07-2012 00:44 Giving up on download of w1jul_niebb0d__26__s__64.28_59.31__8_8.2__6__38_1_ sixvf_boinc44538.zip: file not found

Die Wu endet dann mit 'Fehler beim Herunterladen' ...
Fehler dieser Art schon den ganzen Abend...das einzig sich ändernde: die Dateien, bei deren Download etwas schiefgeht...:undecided:

Bin ich der einzige? ^^

[SG] steini
11.07.2012, 05:20
Hier und im LHC-Forum auch ne Menge Leute...

Bullitt
11.07.2012, 09:23
Hatte gestern auch ganz viele mit 'Fehler beim Download'

Grubix
11.07.2012, 11:49
Ist schon ein paar Tage so. Angefangen hat es damit, dass beim LHC die Festplatte voll war. Dadurch wurden WUs mit 0 Byte Inhalt erzeugt und verteilt. Ich habe das am 8.7. bei mir im Download gesehen, vermutlich so ab 6:00 UTC war beim LHC die Festplatte voll.

Seit dem gibt es Probleme mit nicht vorhandenen Download-Dateien, nicht vorhandenen Download-Ordnern, fehlenden Leserechten (Download) oder Schreibrechten (Upload), HTTP-Fehlern oder sonstiges. Die vollgelaufene Festplatte hat vermutlich ein ziemliches Chaos angerichtet. Der Admin hat die Situation mit folgenden Worten beschrieben "Total panic here at least on my part".

Bis denn dann, Grubix.

Bullitt
11.07.2012, 14:12
Danke für die Info!

edit: Jetzt sind wieder 6 WUs durchgekommen ohne Downloadfehler.

Bullitt
16.07.2012, 19:50
Also momentan fluppt das mit LHC. In den letzten Tagen immer WUs bekommen, so kann es ruhig weiter gehen.

Nullinger
16.07.2012, 20:54
Yep, LHC mit Rundum-Wohlfühl-Versorgung gabs wirklich selten.
Ich habe jetzt, zur Monatsmitte, schon mit Abstand meinen besten Monat.

Grubix
17.07.2012, 09:22
Yup, man hat bei LHC die große Keule genommen und alle WUs abgebrochen, damit die Datenbank wieder einen sauberen Zustand hat. Mir wurden dabei zusammengerechnet gut 8 Tage CPU-Zeit in die Tonne gehauen. Dadurch ist jetzt aber alles wieder in Ordnung und es läuft sehr gut.

Im Moment gibt es noch kleine Probleme, den richtigen Client auszuliefern. Beim Server müssen wohl CPU-Flags ausgewertet werden, um die optimierten Clients zu versenden. Das klappt noch nicht ganz. Ihr habt bestimmt auch WUs mit "sse3", "sse2", "pni" oder gar keinem Zusatz. Daran wird aber intensiv gearbeitet...

Bis denn dann, Grubix.

shka
17.07.2012, 17:03
Yup, man hat bei LHC die große Keule genommen und alle WUs abgebrochen, damit die Datenbank wieder einen sauberen Zustand hat. Mir wurden dabei zusammengerechnet gut 8 Tage CPU-Zeit in die Tonne gehauen.

Da hab ich gleich nen Schrecken bekommen und nachgeschaut. Puhhh, bei mir waren es nur knapp 2 Tage. :rolleyes:

Grubix
18.07.2012, 10:50
Die Jungs von LHC@Home sind sehr kommunikativ und haben auch Sinn für Humor bzw. Sarkasmus:


SNAFU on our side. Sending jobs with bad disk quota.
Fixed, but you will probably see some jobs fail rather
quickly. At least not wasting so much CPU. Eric.

Den ersten Begriff musste ich erstmal nachschlagen und habe dann sehr geschmunzelt... :cheesy:

Bis denn dann, Grubix.

[SG]Darkpapa
21.07.2012, 01:09
also ich muß die jungs echt mal loben vom projekt .ist ja echt geil wie es im mom mit der wu versorgung funst :thumbup:
ich hoffe es geht LANGE so weiter :D
macht richtig spaß die letzten tage


Hinzugefügter Post:

ok ich muß wohl mein post zurückziehen *gg
jubdo mahnte es im sg-chat schon an und nu is es auch bei mir real *heulz*
habe/bekomme keine wus mehr
nur gut,das ich mit ihm keine wette abgeschlossen habe :D
aber mein post nu löschen( wie im chat angesagt) wäre nu auch blöd

[ETA]MrSpadge
22.07.2012, 01:45
LOL. Immerruhig bleiben! Wenn die WUs alle sind, heißt das doch auch, dass wir mit der aktuellen Arbeit fertig sind :)

MrS

shka
23.07.2012, 09:08
Die WU-Versorgung ist aktuell wieder im Fluss. Kannst also erneut über eine Wette nachdenken, dunkler Vater.

Yamazaki
05.08.2012, 12:52
Moin zusammen,

ich hab hier plötzlich Sixtrack, die 35h und länger laufen :rolleyes:
(Q9550@3,5GHz W7-64)

Hat jemand ähnliche Zeiten oder könnte es sein, dass sich da etwas gegenseitig ausbremst ...?
(Habe seit gestern die GraKa für SETI Wow testweise am arbeiten inkl. 1 Core für ATI-GraKa-Versorgung).

Edit meint: lies mal vorher die entspr. Foren... ähm ok
Lt. LHC-Forum gibt es also einige von den 'dicken Dingern' zur Zeit.
Alles scheinbar im 'Grünen Bereich'.

Nullinger
05.08.2012, 20:59
Moin Yama, bei mir haben sich auch einige der WUs eingenistet.
Teilweise lauden die schon über 50 h.

Grubix
05.08.2012, 21:26
Danke für die Info, war mir noch nicht aufgefallen. Ich habe eben leider eine abgebrochen. Auf meinem nicht so schnellen Rechner hatte die nach 30 Stunden erst 11% geschafft. Unmöglich die in der Deadline zu schaffen... :sad:

Bis denn dann, Grubix.

Nullinger
06.08.2012, 07:13
Meine längste WU die bisher gegranted wurde lief 65,5 h. Lief auf meinem Läpi (i7-2670QM mit HT).
Dank Credit New nur 268 Credits.

schensi
07.08.2012, 19:21
Bei mir ist heute die hier (http://lhcathomeclassic.cern.ch/sixtrack/workunit.php?wuid=2503385) nach 75 Stunden fertig geworden , mal sehn wie lange der Wingmann noch braucht.

taurec
07.08.2012, 20:00
Hab hier auch eine auf dem Dualcore:
Laufzeit 28h51m 34,2% :rolleyes:

schensi
08.08.2012, 06:34
Das Problem mit den langen Laufzeiten ist erkannt . Zitat HP

I have to look at the Deadline problem for 10**7 turn jobs.
I set a bound of 30 days for any WU....need to discuss with Igor is that is NOT what you see at home. Of course we really want a low bound to get results back quickly, but I also want to use older slower systems. We shall have to work out some sort of compromise. My attempt as 10**7 turns was probably a bit over the top, but I was keen to try it.

Man hat die Deadline wohl auf 30 Tage hochgesetzt , Problem ist , daß wir das im BM nicht zu sehen bekommen. Obwohl man die Resultate so schnell wie möglich zurückhaben möchte , will man aber auch nicht auf die vielen älteren Rechner verzichten . Deshalb wird es wohl einen Kompromiss geben - mal sehen wie der aussieht.

schensi
14.08.2012, 19:54
Bei mir ist heute die hier (http://lhcathomeclassic.cern.ch/sixtrack/workunit.php?wuid=2503385) nach 75 Stunden fertig geworden , mal sehn wie lange der Wingmann noch braucht.

Die Wutze ist heute "validiert" worden :273,807.82 271,926.40 220.68 :rolleyes:

Vec
31.10.2012, 20:48
So, rechne mit meinem kleinen Lappi seit eben auch auch noch LHC. :x) Mal schauen, wie lange der dafür braucht.

Vec
03.11.2012, 10:49
Moin All,

so, hab jetzt die 1K bei LHC geknackt.

Jetzt aber mal eine Frage, kann es sein, dass kaum jemand im Seti Germany Team bei LHC ist. Oder hab ich das falsche Team erwischt? In Sixtrack werden bei Seti Germany nur 5 Mitglieder angezeigt und davon sind nur 2 aktiv.

Grüße
Timo

EDIT: Okay ich bin im falschen Team!! Werde das jetzt ändern.

pschoefer
03.11.2012, 15:55
Ja, leider gibt es Spaßvögel, die Teams mit ähnlichen Namen erstellen... wohl unfähig, sich selbst etwas auszudenken. :lipsrsealed:

Daher immer genau auf die Schreibweise SETI.Germany achten. ;)

Vec
03.11.2012, 18:59
Das weiß ich, aber das Team wo ich war hieß "Seti Germany" mit Leerzeichen anstatt dem Punkt. Gegründet wurde es von aendgraend.

Deshalb war ich auch etwas irritiert. Hier ist der Link (http://lhcathomeclassic.cern.ch/sixtrack/team_display.php?teamid=7250) zum Team.

EDIT: Die Team Beschreibung passt auch auf Seti.Germany.

Bullitt
03.11.2012, 19:06
Gegründet isses von aendqraend, nicht von aendgraend. Kann man das irgendwo melden?

Vec
03.11.2012, 19:10
Ups, klassischer Verleser meinerseits. Hab das wirklich nicht gesehen......

pschoefer
03.11.2012, 19:13
Das weiß ich, aber das Team wo ich war hieß "Seti Germany" mit Leerzeichen anstatt dem Punkt. Gegründet wurde es von aendgraend.

Deshalb war ich auch etwas irritiert. Hier ist der Link (http://lhcathomeclassic.cern.ch/sixtrack/team_display.php?teamid=7250) zum Team.

EDIT: Die Team Beschreibung passt auch auf Seti.Germany.
Ja, nicht nur der Teamname, sondern auch die Beschreibung und sogar der Name des Gründers sind manchmal fast originalgetreu geklaut. Der Gründer des von dir verlinkten Teams ist nicht aendgraend, sondern ein aendqraend. Leider gibt es da noch einige solche Fälle und es ist unheimlich aufwendig, dagegen vorzugehen (was aber im Hintergrund gemacht wird!). :(

MSE29
03.11.2012, 20:25
Es hilft immer noch der Blick auf die Anzahl der Members im Team ;)
Ist für Neueinsteiger extrem verwirrend und irreführend.

PS: Warum gibt es nach zig Jahren Leerlauf wieder Wutzen für Sixtracks, gibt es da eine Erklärung?

Grubix
04.11.2012, 10:55
PS: Warum gibt es nach zig Jahren Leerlauf wieder Wutzen für Sixtracks, gibt es da eine Erklärung?
Ich habe im Moment nicht die Zeit die entsprechenden Beiträge aus den Foren heraus zu suchen, zumal es das alte LHC-Forum nicht mehr gibt. Kurz zusammengefasst:

Das alte LHC@Home Projekt war eigentlich nur ein "Spielprojekt" von Studenten. Das klingt jetzt abwertend, ist aber nicht so von mir gemeint. Für die damaligen Betreiber war es sicherlich wichtig, auch wenn der Support und die Wartung des Projektes häufig als katastrophal zu bezeichnen war. Die Ergebnisse sind beim Cern nie angekommen, es gab keine direkte Zusammenarbeit zwischen LHC@Home und dem Cern. So war es im alten Forum von LHC@Home zu lesen.

Jetzt läuft LHC@Home am Cern. Die Betreiber sind Wissenschaftler, die am LHC arbeiten. Man hat dort die Fähigkeiten von BOINC erkannt und nutzt sie. Interessant fand ich z.B. folgendes: Man hatte Sorge, ob normale PC (übertaktet, mit defekte Hardware usw.) überhaupt verlässliche Ergebnisse liefern können. Einer der Betreiber hat daher einen Test gemacht: Er hat WUs ganz normal über BOINC laufen lassen und die gleichen Daten nochmal über den Cern eigenen Server. Die Fehlerrate von BOINC war nur ein wenig höher als vom Cern-Cluster. Er konnte mit dem Test sogar Rechner am Cern entdecken, die totalen "Müll" produzierten. Das war vorher wohl keinem aufgefallen und man hatte nicht gedacht, dass BOINC so gut ist.

Die Erklärung ist also, dass das alte LHC@Home und das jetzige LHC@Home nichts miteinander zu tun haben.

Lustig fand ich übrigens, als die Wissenschaftler beschrieben haben, dass die Arbeit mit BONIC völlig anders ist. Vorher musste man um jede CPU-Stunde "betteln" und man hatte viel Zeit, die Daten vorzubereiten (wenn der Cern-Cluster z.B. erst in zwei Wochen frei war).
Die BOINC-User hingegen quengeln ständig nach neuer Arbeit und sind beleidigt, wenn ihre Rechner nicht ausgelastet sind. Kaum fallen die zu sendenden WUs unter 1000, gibt es Fragen im Forum. :D Die Wissenschaftler mussten ihre Arbeitsweise also so umstellen, dass immer genug Aufgaben zum Rechnen zur Verfügung stehen.

Übrigens rechnet Cern mit seinen eigenen Rechner auch via BOINC mit. Schau dir mal den User "Agile Boincers" aus der Schweiz an. :D

Ich hoffe das hat dir geholfen, Grubix.

Bullitt
04.11.2012, 11:13
Danke für die Info :thumbup: