Archiv verlassen und diese Seite im Standarddesign anzeigen : LHC@home
Jap, war auch zu spät. aber es kommt bestimmt wieder neue LHC Goldstaub :)
Hier sind gerade noch WUs reingekommen...
Hab' etwas Goldstaub eingefangen! :thumbup:
06.06.2010 10:54:00 lhcathome Sending scheduler request: To fetch work.
06.06.2010 10:54:00 lhcathome Requesting new tasks
06.06.2010 10:54:40 lhcathome Scheduler request completed: got 2 new tasks
06.06.2010 10:54:42 lhcathome Started download of sixtrack_4209.0_windows_intelx86.exe
06.06.2010 10:54:42 lhcathome Started download of w3_DA-scaling-law2__1__s__64.31_59.32__30_32__6__58.5_1_sixvf_bo inc14124.zip
06.06.2010 10:55:12 lhcathome Finished download of w3_DA-scaling-law2__1__s__64.31_59.32__30_32__6__58.5_1_sixvf_bo inc14124.zip
06.06.2010 10:55:12 lhcathome Started download of w3_DA-scaling-law2__1__s__64.31_59.32__52_54__6__42_1_sixvf_boin c14480.zip
06.06.2010 10:55:37 lhcathome Finished download of w3_DA-scaling-law2__1__s__64.31_59.32__52_54__6__42_1_sixvf_boin c14480.zip
06.06.2010 11:01:41 lhcathome Finished download of sixtrack_4209.0_windows_intelx86.exe
06.06.2010 11:01:42 lhcathome Starting w3_DA-scaling-law2__1__s__64.31_59.32__30_32__6__58.5_1_sixvf_bo inc14124_0
06.06.2010 11:01:42 lhcathome Starting task w3_DA-scaling-law2__1__s__64.31_59.32__30_32__6__58.5_1_sixvf_bo inc14124_0 using sixtrack version 420900
06.06.2010 11:01:42 lhcathome Starting w3_DA-scaling-law2__1__s__64.31_59.32__52_54__6__42_1_sixvf_boin c14480_1
06.06.2010 11:01:42 lhcathome Starting task w3_DA-scaling-law2__1__s__64.31_59.32__52_54__6__42_1_sixvf_boin c14480_1 using sixtrack version 420900
Gerade erst gesehen, Server Status (http://lhcathome.cern.ch/lhcathome/server_status.php) sagt aber bereits wieder:
Results ready to send 0
Results in progress 4,475
Gruß und noch einen schönen Sonntag Euch allen!
Am besten ist es , LHC immer nebenbei mitlaufen zu lassen , hab seit gestern 11 Stück bekommen .:cool:
Es gibt gerade wieder WUs bei LHC
Hab gerade durch Zufall gesehen, dass ich seit 21.05. noch eine grössere im Pending habe: klick (http://lhcathome.cern.ch/lhcathome/workunit.php?wuid=3836223)
Das komische ist, dass beide scheinbar fehlerfrei geliefert haben und trotz Erfüllung des Quorums 2 weiterhin nicht gutgeschrieben wird...
Von dieser Sorte liegen bei mir noch einige mehr "auf Halde". :rolleyes:
Mit dem "Pending"-abarbeiten habens die Jungs beim LHC irgendwie nicht so richtig.
Allgemein ist die Datenbank dort wohl so ziemlicher Schrott, wenn ich z.B. sehe, dass ein (Uralt-)Rechner von mir durch ein Result aus dem Jahre 2006 (http://lhcathome.cern.ch/lhcathome/results.php?hostid=732217) (!!!) blockiert wird.
*nachträglich Glückwunsch zum 4. Geburtstag* :rolleyes:
So eine hab ich leider auch, keine Ahnung wo es da hakt: http://lhcathome.cern.ch/lhcathome/workunit.php?wuid=3884328
Hallo liebe Freunde des gepflegten Siliziumquälens,
es gibt Arbeit bei den Architekten des Hadronen-Pogo:
02.08.2010 23:38:32 lhcathome Sending scheduler request: To fetch work.
02.08.2010 23:38:32 lhcathome Requesting new tasks
02.08.2010 23:38:47 lhcathome Scheduler request completed: got 2 new tasks
02.08.2010 23:38:50 lhcathome Started download of sixtrack_4209.0_windows_x86_64.exe
02.08.2010 23:38:50 lhcathome Started download of w3_nominal_collision_err_bb__2__s__64.31_59.32__38 _40__6__75_1_sixvf_boinc57664.zip
02.08.2010 23:38:53 WUProp@Home Sending scheduler request: To report completed tasks.
02.08.2010 23:38:53 WUProp@Home Reporting 1 completed tasks, requesting new tasks
02.08.2010 23:39:23 WUProp@Home Scheduler request completed: got 1 new tasks
02.08.2010 23:39:25 WUProp@Home Started download of data_collect_1.35_windows_intelx86__nci.exe
02.08.2010 23:39:26 WUProp@Home Started download of wu_1280777863_854
Guten Appetit! :x)
Die ersten vier Wutzen brauchten gewaltige 15, 9, 8 und 8 Sekunden jeweils. :D
(und außerdem gibt's wie man sieht neue Arbeit bei WUProp :thumbup: - ja, ist denn heute schon Weihnachten? :D )
Hinzugefügter Post:
Öhm, tja, die waren wohl alle so kurz, eben noch Result ready to send = 1300+ und nu Results ready to send = 0. :redface:
Hinzugefügter Post:
Und schon gibt's über 1400 neue Wutzen (http://lhcathome.cern.ch/lhcathome/server_status.php). Ich habe eine mit knapp 16 min Laufzeit bekommen, also nicht nur Goldstaub sondern ein richtiges kleines Nugget.
Claim sichern! :D :x)
Nullinger
03.08.2010, 08:06
Und nun das:
03.08.2010 06:42:27 lhcathome Message from server: Project is temporarily shut down for maintenance
Schade Schade:sad:
Hinzugefügter Post:
Funzt wieder und es kommen auch lange WUs mit! :cheesy::cheesy:
aendgraend
03.08.2010, 08:30
Genial, ich habe 16 Langläufer bekommen, mit vorausgesagten 8 bis 120 Stunden Laufzeit... :thumbup:
Ich hab 8 bekommen, darunter 7 Stück die schon nach ein paar Sekunden fertig waren, aber eine lange war auch dabei :)
Nullinger
03.08.2010, 10:26
Bei mir 2 lange WUs, eine wirds wohl auf 15 h bringen.
LHC legt anscheinend grad nochmal richtig nach:
Results ready to send 5,212
Results in progress 10,917 (http://lhcathome.cern.ch/lhcathome/server_status.php) :eek: Was is'n plötzlich mit denen los?
VB-BOINC
03.08.2010, 20:57
Results ready to send 5,212
Results in progress 10,917
Ja aber dabei bleibt es auch. Server scheinen down zu sein. Weiss jemand was da los ist?
[SG] Harald_(Charly)
03.08.2010, 20:58
Keine Ahnung.. Hab hier ne 7,5h WU die wieder zurück will.. :dry:
VB-BOINC
03.08.2010, 21:07
Na dann hoffen wir mal dass es bald weitergeht und etwas mehr als Goldstaub herauskommt. Ist irgendwie lästig und ziemlicher Mist wenn man nicht weiss wie und wann es weitergeht. Aber irgendwie macht es doch Spass ;) Gehört halt dazu!
Ich lasse es momentan parallel zu SIMAP laufen (mal abgesehen von NCI und GPU Projekten), das funktioniert sehr gut. Wenn neue Wutzen von LHC kommen (auch wenn der Server läuft, ist ja immer ein Mindesttimeout drin), dann werden die bevorzugt durchgerechnet und es geht wieder mit SIMAP weiter, ganz ohne rumschrauben. :thumbup:
Was da los ist? K.A., vielleicht testen Sie irgendwas am BOINC-Server, was die Software betrifft? Gründe gäbe es ja. ;) Ist aber reine Kaffeesatzleserei meinerseits auf Basis einiger Infobrocken aus dem Forum in letzter Zeit.
Fröhliches Partikelkreisen Euch allen! :x)
Und leider wieder keine Linux-WUs dabei :(
So, die 2. lange WU ist jetzt auch durch 15 Stunden.
Hat jemand die Grafik getestet? Gibt's da wieder dann nen Berechnungsfehler? Ich trau mich nämlich nicht :D
Hat jemand die Grafik getestet? Gibt's da wieder dann nen Berechnungsfehler?
Yep, ich war so neugierig. Sobald die Grafikausgabe eingeschaltet wurde, brach die Berechnung mit Fehler ab (http://lhcathome.cern.ch/lhcathome/result.php?resultid=18825537). :rolleyes:
Zum Glück hast du es ja mit einer der ultrakurzen WU gemacht.
Ich hätte mir wohl in den Hintern gebissen, wenn ich bei so'nem Versuch eine meiner langen WUs geschrottet hätte.
*Nöööö ... da bin ich zu geizig ... von den Dingern gibts zu einfach wenige.* :D
Rattamahatta
07.08.2010, 20:09
Heute gabs 2 ultrakurze WUs
w3_nominal_injection_ultimate_err_bb__5__s__64.28_ 59.31__16_18__6__12_1_sixvf_boinc94259_1
w3_nominal_injection_ultimate_err_bb__5__s__64.28_ 59.31__38_40__6__46.5_1_sixvf_boinc94932_1
die liefen nur ein paar sekunden. Ist das normal? Sind das Test WUs bevor der große Schwung kommt?
Große Schwünge gibt es eigentlich gar nicht , alle paar Tage gibt es ein paar tausend Wutzen , mit Laufzeiten zw. 4 Sekunden und bis zu 15 Stunden . Ist halt wie bei ner Lotterie , wenn man mal so ne lange erwischt .
Nullinger
07.08.2010, 21:50
Auf meinem Laptop haben sich einige fette Nuggets angesammelt. Welche Freude.:cheesy:
VB-BOINC
07.08.2010, 22:27
Schön wenn es etws Goldstaub und Hoffnung auf längere WUs gibt. Aber durch die kurzen WUs bekomme ich jetzt die Meldung "Message from Server: (reached daily quota of 10 results)".
Kann man dagegen etwas machen?
GER_Moki
07.08.2010, 22:35
Jepp, warten ;) Sonst nix (außer du richtest dir ne VM mit BOINC ein...)
Habe gerade eine längere Wutze abbekommen. Derzeit läuft sie ohne Berechnungsfehler.
War endlich auch mal wieder dran.
Laut Serverstatus sind schon wieder alle raus.
Gruß Czechi
Hoshione
10.08.2010, 19:55
Task ID 18903020
Name w3_nominal_injection_ultimate_err_bb__4__s__64.28_ 59.31__8_10__6__1.5_1_sixvf_boinc98654_1
Workunit 3956791
Created 8 Aug 2010 7:38:19 UTC
Sent 8 Aug 2010 7:53:41 UTC
Received 10 Aug 2010 18:51:37 UTC
Server state Over
Outcome Success
Client state Done
Exit status 0 (0x0)
Computer ID 9709359
Report deadline 14 Aug 2010 23:25:55 UTC
CPU time 63996.421875
stderr out
<core_client_version>6.10.50</core_client_version>
Validate state Valid
Claimed credit 153.982395187344
Granted credit 149.928002882129
application version 4209.00
@Czechi das ist eine von fünf WUs die ich das erste mal seit langer Zeit bekommen habe (FREU)
Gruß
Hoshione:x)
Man muß nur genung Geduld haben . Ich konnte heute immerhin die 10 k-Grenze überschreiten .:cool:
Hoshione
10.08.2010, 20:34
Grats ! :cool::cheesy:
Hoshione;)
lurchlaich63
10.08.2010, 20:46
10k ist beeindruckend!
Ich "rechne" seit 2 Jahren LHC und habe bisher gerade etwas mehr als 1,5k geschafft.
Man muß nur genung Geduld haben . Ich konnte heute immerhin die 10 k-Grenze überschreiten .:cool:
Klasse, herzlichen Glückwunsch. :D :x)
Wird bei mir wohl vorerst ein frommer Wunsch bleiben, bin gerade erst über die 7 k gekraxelt, aber immerhin.
Ich kriege gerade nix, hatte aber die letzten Tage schon ein wenig Glück.
Habe wieder eine WU (http://lhcathome.cern.ch/lhcathome/workunit.php?wuid=3836223), die mit Quorum 2 von zwei Rechnern ohne Fehler beendet wurde, aber weiterhin auf pending steht. Und das seit Mai...
Das Problem bei den meisten von Euch ist , glaube ich , daß Ihr eine zu neue Boinc-Version nutzt (6.6.xxx) , die fragen ein paar mal nach Arbeit , wenn das erfolglos ist wartet der Client glaube ich 24 Stunden bis zum nächsten Request . Ich habe bis auf eine Ausnahme noch 6.4.7 am laufen da ist das längste Intervall 4 Stunden . Ich bin damit ganz gut gefahren , die 10 k stammen fast zur Gänze aus 2010 ,ich glaube Anfang des Jahres stand ich bei 280 Cr. Evtl. ist es hier sinnvoll ein Skript einzusetzen, welches alle 2 Stunden bei LHC mal nachhakt , wies denn mit Arbeit aussieht.
Nullinger
11.08.2010, 12:23
Moin Schensi, die Sache mit der Untätigkeit des BM ist mir auch aufgefallen, seit ich mit
6.10.xx arbeite. So ein Skript wär ne feine Sache
Für die eine WU hats bei mir 160 Punkte geregnet. Bin damit "schon" bei 2,6k angekommen.
Was lange währt, wird gut. Da kann man sich wenigstens über jede kleine Wutze freuen.
Gruß Czechi
Hoshione
11.08.2010, 18:32
@Czechi ich hatte nach langer Zeit mal Glück und habe "fünf" von den SixTracks 4209.00 ergattert, für über 28 h hat es denn dann auch 149.93 Credits gehagelt ;)
Die anderen laufen noch und wir werden sehen was sie bringen werden.
Info kommt.
Gruß
Hoshione:x)
@Nullinger , hast ne PN .
Ging net eher , Sch.... Arbeit.:D
Nullinger
12.08.2010, 20:39
Besten Dank, Schensi und auch an aend.
Das mit der Sch...arbeit ist wohl war, werde auch erst am WE Zeit haben mich mal länger an die Kiste zu setzen.
VB-BOINC
17.08.2010, 17:49
Es gibt wieder Arbeit, sind aber wohl fast alles wieder kurze WUs.
Grüße an alle und viel Erfolg!
Vielen Dank für den Tipp! :x)
Durch schnelle Reaktion konnte ich mir eine Handvoll abgreifen. :) Da im Moment hauptsächlich noch SIMAP läuft brauchte ich das nur zu stoppen, um die Rechner verzweifelt nach WUs rufen zu lassen. :D
Interessanterweise waren es überwiegend Wutzen für SixtrackBNL diesmal, die Anwendung hatte ich noch gar nicht auf den Rechnern.
Viel Spaß!
PS: Habe gerade im LHC Forum gelesen, die BNL Anwendung hat auch den Screensaver-Bug, also Grafik abgeschaltet lassen. :rolleyes:
Bigmac hat im Forum verlauten lassen, dass LHC wohl ab September wieder "richtig lebendig" sein wird.
We are not dead; I expect we shall
become really alive in September.
*klicks* (http://lhcathome.cern.ch/lhcathome/forum_thread.php?id=3060&nowrap=true#22472)
/me ist da mal sehr gespannt ... :dry:
Jetzt ist der Server aber ersteinmal down :-(
VB-BOINC
17.08.2010, 19:07
Wutzen sind wieder alle vergeben, und ich hatte keinen großen Erfolg. Entweder die Superkurzen oder sie sind mit Berechnungsfehler abgebrochen.
Hoffen wir mal auf September!
Viel Erfolg und viel Spass!
Ich hab auch keine erwischt :(
Aber wenn's im September wieder richtig losgehen wird isses mir recht. Ist immernoch mein Lieblingsprojekt :):)
Ich habe jetzt auch diesen ominösen "Maximum elapsed time exceeded (http://lhcathome.cern.ch/lhcathome/result.php?resultid=18934744)" Fehler und zwar bei einer eiinige Minuten langen WU, die mit der Sixtrack Anwendung berechnet wurde. Die SixTrackBNL WUs laufen bisher ohne Fehler durch, sind bei mir aber alle sehr kurz.
Der Server schob wieder welche nach, es lohnt sich also weiterhin nachzufragen.
Hinzugefügter Post:
und noch so'ne Gurke (http://lhcathome.cern.ch/lhcathome/result.php?resultid=18937686). :(
Testen die Jungs irgendwas oder sind diese Wutzen einfach nur im Eimer?
EDIT: Dieser Thread (http://lhcathome.cern.ch/lhcathome/forum_thread.php?id=3173&nowrap=true#22083) aus dem März erklärt zumindest kurz, was das für ein Zeitlimit ist, bringt aber nichts Erhellendes zum derzeitigen Fehler bisher.
Hab auch so eine WU bekommen, gleicher Fehler nach knapp 30 Minuten :(
Bei mir warens insgesamt 5 Wutzen. Zwei mit Error abgebrochen und die anderen sehr kurz. Naja, Hauptsache ich war mal wieder dabei.
Gruß Czechi:x)
Sysadm@Nbg
17.08.2010, 21:09
/me wartet immer noch auf die Linux-App
oder auf Frickelkram, wie es manche bezeichnen ...
:undecided:
Wer sich beeilt (und viel Glück hat ;)) kann vielleicht noch 'n paar LHC-WUs abgreifen:
Results ready to send 1,288
Results in progress 2,572
Hallo Leute,
ich hatte Glück! :thumbup:
Ich habe Eine von 1023 Wutzen abbekommen. Ist auch noch eine Lange (geschätzte 6 Stunden).
Gruß Czechi :x)
Damit das im ganzen LHC+ Hype nicht untergeht (macht doch bei Gelegenheit mal 'nen eigenen Fred dafür auf) es gibt da noch ein kleines, in die Jahre gekommenes LHC@home Projekt...
... und da gibt es gerade wieder Wutzen!! Zugreifen!! :D :thumbup:
Da war bei mir bis jetzt eine längere dabei (1h), der Rest war schon nach wenigen Sekunden fertig :(
Ich habe schon einige zwischen 30 min und 45 min erhalten, also richtige kleine Nuggets.
Der Server ist zwischendurch immer wieder auf 0 oder kurzzeitig nicht erreichbar, einfach weiter nachfragen, den ganzen Vormittag über wurde nachgelegt. :thumbup:
*narf* Jetzt gibts schon mal Arbeit in größeren Mengen, dann zersemmelt es den Scheduler. :ranting:
Möööönsch .. ich will doch irgendwann die 100k auch mal vollbekommen ...
Und ich arbeite noch an meinen ersten 10k...
Die führen da aber auch ein strenges Regiment: fünfzehn Minuten Timeout für Requests an den Server (und wehe man meldet sich zu früh, dann gibt's gleich einen auf die Finger :D ) und ein max. Quota von 10 Stück pro Kern und Tag. Das habe ich auf einem Rechner schon ausgeschöpft, der ist also aus dem Rennen. :rolleyes:
EDIT: Der zweite, mit zwei CPUs, hat jetzt auch 20 Stck.. Dürfte beim nächsten Mal also auch abschlägig beschieden werden. Falls es noch was gibt, steht nämlich gerade wieder auf zero.
aendgraend
01.09.2010, 16:01
Ich habe mal alles verschoben (http://www.seti-germany.de/forum/astronomie-chemie-und-physik/4721-lhc.html), was zum neuen LHC+ Projekt gehört.
Danke an Major für den Tipp.
Nullinger
01.09.2010, 16:44
Heut´ schon 500 Credits eingestrichen. Da kann man nicht meckern.:cheesy:
Mir geht einfach nur auf den Zeiger dass LHC prinzipiell erstmal nach Arbeit für GPU fragt und dann (da es natürlich dafür nix zu knuspern gibt) wieder in die 15 Minuten Warteschleife geht. :ranting:
VB-BOINC
01.09.2010, 17:51
EILMELDUNG!
3543 WUs sendebereit, aber scheduler läuft noch nicht. Könnte gleich losgehen. Viel Erfolg!
Noch 'ne EILMELDUNG: Der Scheduler ist gerade wieder angesprungen und eben waren es noch über 16.000 Wutzen, die zu vergeben waren.
Da drei von vier meiner Rechner ihr tägliches Quota schon erreicht haben, bleibt mehr für Euch übrig. :D
Wird das Quota eigentlich um 00:00 Uhr UTC zurückgesetzt oder 24 h nach Erreichen? Oder wann?
Gruß und Happy Vollgascrunching! :x)
[ETA]MrSpadge
02.09.2010, 09:14
Mir geht einfach nur auf den Zeiger dass LHC prinzipiell erstmal nach Arbeit für GPU fragt und dann (da es natürlich dafür nix zu knuspern gibt) wieder in die 15 Minuten Warteschleife geht. :ranting:
Nicht LHC fragt nach Arbeit, sondern dein BOINC fragt danach. Die Beschwerde geht direkt nach Berkeley, wo man beschlossen hat, dass das Projekt dem client nicht mitteilen muss, wofür es überhaupt Arbeit anbietet. D.h. jeder BOINC client fragt bei jedem Projekt immer nach jedem möglichen Co-Prozessor.
MrS
MrSpadge;164805']Nicht LHC fragt nach Arbeit, sondern dein BOINC fragt danach.Das ist mir schon klar. Ich wollte damit ausdrücken dass, wenn der BOINC-Manager nach Arbeit für LHC fragt, immer zuerst nach Beschäftigung für die GPU und nach vielen Fehlversuchen endlich auch nach Arbeit für die CPU gefragt wird. Bei solchen Projekten wie LHC ist es aber meist schon zu spät, da dort bekanntermaßen die Arbeit etwas rar ist.
MrSpadge;164805']Die Beschwerde geht direkt nach Berkeley, wo man beschlossen hat, dass das Projekt dem client nicht mitteilen muss, wofür es überhaupt Arbeit anbietet. D.h. jeder BOINC client fragt bei jedem Projekt immer nach jedem möglichen Co-Prozessor.
MrS
Das ist einer der Gründe warum ich auf einem Rechner noch immer den BM 5.10.20 einsetze.
Dieser, von Version zu Version mehr verbuggte, Klumpen Software namens BOINC-Manager wird noch dafür sorgen dass ich das DC komplett einstellen werde. :(
Arkturus
02.09.2010, 09:52
Hallo Mario,
ich verwende recht aktuelle Versionen von BOINC auf meinen beiden Rechenknechten und kann deine Kritik nicht nachvollziehen. Bei mir funktioniert es wunderbar...
Leider hab ich keine LHC-WUs abbekommen :-(
Gruß,
Marcel
aendgraend
02.09.2010, 10:02
Dann bist du entweder noch nicht allzu lange am Crunchen Marcel, oder du rechnest bei nicht sehr vielen Projekten mit.
Der BOINC-MissManager frägt bei mir teilweise stundenlang nur nach Arbeit für die GPU, obwohl ich die GPU-Nutzung bei allen Projekten (bei denen das möglich ist) abgeschaltet habe.
Ich setze diverse Versionen ein, von 6.6.xx bis 6.10.xx
Arkturus
02.09.2010, 10:14
Hallo Aendgraend,
richtig dabei bin ich seit etwas mehr als einem Monat, obwohl ich schon seit über einem Jahr bei SETI@Home angemeldet gewesen bin ohne aktiv zu crunchen.
Was meine Projekte angeht, so bin ich momentan bei SETI@Home, Cosmology@Home und MilkyWay@Home aktiv, zur Auslastung meiner Läppi-GPU auch bei Collatz. Der Desktop-PC hingegen rechnet mit der Geforce GT 240 nur bei SETI, der Stromverbrauch des alten Athlon X2 3800+ ist einfach zu groß.
Was das alles angeht, kann ich also sagen, dass BOINC wunderbar läuft :x)
Gruß,
Marcel
aendgraend
02.09.2010, 12:32
Dann hoffe ich, und drück dir die Daumen, dass du diese frustrierenden Meldungen nie sehen musst. :)
LHC vermeldet gerade wieder Arbeit (http://lhcathome.cern.ch/lhcathome/server_status.php):
Results ready to send 1,487
Results in progress 7,095
Blacksmoker
08.09.2010, 17:06
Super habe auch eine WU abbekommen, nur nicht im BM drauf geachtet. :cheesy:
Bei LHC@home gibt es wieder Arbeit. Ich habe gleich zwei WUs abbekommen.
Gruß Czechi :x)
aendgraend
13.09.2010, 22:12
Gepostet auch bei den "Links, die man mal gesehen haben muss":
Infos über das CERN, aufbereitet für Kinder.
https://project-cernland.web.cern.ch/project-CERNland/index.html
Ich find's geil, das Thema spielerisch so rüberzubringen. Von mir deshalb: :thumbup: :thumbup: :thumbup:
habe soeben eine WU erhalten .. Leider schon wieder out of work :(
VB-BOINC
05.10.2010, 18:29
Hallo zusammen,
im August hieß es mal, dass lhc im September richtig loslegt. Einige Zeit gab es ja auch mal regelmäßig Arbeit, aber jetzt ist wieder Ruhe. Hat jemand nähere Infos dazu?
Grüße an alle
VB
Nullinger
09.10.2010, 09:05
Moin Moin, es scheint etwas Arbeit zu geben.
Gerade sind 2 WUs reingeflutscht.
Danke für den Hinweis... dadurch hat sich auch eine zu mir verirrt :cheesy:
Stargazer
09.10.2010, 19:51
Ui-- hab drei wu abbekommen :) Laufzeit alle ~30mins (Ausgangszeit)
schönschön :)
Nullinger
10.10.2010, 09:46
Die WUs stapeln sich gerade auf dem Server.
Über 600 St. bereit zum Versand.
Also fröhlich zugelangt!
janosch13
16.10.2010, 08:32
Hi,
zur Info:
http://www.heise.de/newsticker/meldung/Large-Hadron-Collider-hat-Jahresziel-erreicht-1108837.html
VB-BOINC
09.11.2010, 18:52
3.509 Wutzen sendebereit, aber Scheduler läuft nicht... was ist da los?
lurchlaich63
09.11.2010, 18:54
Aber wenn ich so schau habe ich doch tatsächlich zwei bekommen!
Ist ja grandios!
Wahnsinn, ich habe 10 Stück bekommen. Die habe auch unglaublich viel Rechenleistung verbraucht. Nach gut 90 Sekunden waren alle WUs fertig. :twisted:
Bis denn dann, Grubix.
Es wird gerade wieder Arbeit verteilt, habe gerade 2 WUs erhalten...
VB-BOINC
16.11.2010, 19:09
Es gibt wieder Arbeit! Beeilt Euch!
Habe mir gestern eine eingefangen. Und das ausgerechnet während der Challenge. Aber LHC geht halt vor ;-)
phaeton57
16.11.2010, 19:47
Bei mir sind auch 2 eingetrudelt. Ich lass den Kanal offen trotz WCG-Challenge :)
Gruss phaeton57:x)
lurchlaich63
16.11.2010, 21:22
Ich habe auch was erwischt!
Und die paar Sekunden Arbeit, die man da bekommt, kann man auch getrost neben einer Challenge rechnen.
LHC kleckert grad wieder etwas Arbeit raus (meist nur Sekunden-WU, aber besser als nix ;))
Klasse! Habe gerade mal nachgeschaut und in meiner Abwesenheit sind tatsächlich zwei 8-Sekunden-WUs berechnet worden :-)
Kleinvieh macht auch Mist.
"bigmac" hat sich im LHC-Forum (http://lhcathome.cern.ch/lhcathome/forum_thread.php?id=3060&nowrap=true#22652) wieder zu Wort gemeldet:
Dear LHC@home supporter, I hope you
had a good Christmas and I wish you all
the best for 2011. The last few years have
been difficult, but I now believe there is a
plan in place to repatriate the BOINC
servers to CERN itself and to provide scope for
additional applications as well as an updated
and improved SixTrack service. News should
appear on the LHC@home project NEWS.
2010 was a good year for the LHC and it ended with
a very successfull run using lead ions instead
of protons.
In the meantime I have been busy developing
SixTrack in order to produce executables with
0 ULP difference in the results using different
Fortran compilers, at any optimisation, and on
any IEEE 754 compliant platform. This would be
a small technical breakthrough, but extremely
useful for the portability of SixTrack. It should
(at long last) allow the use of an executable for
MACs and allow me to start development for
GPUs, once a satisfactory service has been
established.
Thankyou again for your continued support and patience.
Ich versuche mich mal an 'ner Übersetzung:
Liebe LHC@home Fans, ich hoffe
ihr hattet ein gutes Weihnachtsfest und ich wünsche Euch allen
das Beste für 2011. Die letzten Jahre waren
schwierig gewesen, aber inzwischen glaube ich dass es einen
Plan gibt den BOINC Server
zu CERN selbst zurückzuholen und somit Spielraum für
zusätzliche Anwendungen sowie eine aktualisierte
und verbesserte SixTrack Service zu bieten. Neuigkeiten sollten
bei den LHC@home Projekt NEWS erscheinen.
2010 war ein gutes Jahr für den LHC und es endete mit
einem sehr erfolgreichen Lauf mit Blei-Ionen anstelle
von Protonen.
In der Zwischenzeit war ich damit beschäftigt
SixTrack weiterzuentwickeln um ausführbare Dateien mit
0 ULP (???) Unterschieden in den Ergebnissen zu erzeugen mit unterschiedlichen
Fortran-Compilern, bei jeder Optimierung und auf
allen IEEE-754-konformen Plattformen. Dies wäre
ein kleiner technischer Durchbruch, aber extrem
nützlich für die Übertragbarkeit von SixTrack. Es sollte
(endlich) die Verwendung einer ausführbaren Datei für
MACs ermöglichen und mir erlauben die Entwicklung für
GPUs zu starten sobald ein zufriedenstellender Dienst
etabliert wurde.
Vielen Dank noch einmal für Eure Unterstützung und Geduld.
Naja ... dann hoffe ich mal *dass man mit der Übersetzung was anfangen kann und* dass es in 2011 mal wieder richtig losgeht bei LHC. ;)
aendgraend
02.01.2011, 19:35
"bigmac" hat sich im LHC-Forum (http://lhcathome.cern.ch/lhcathome/forum_thread.php?id=3060&nowrap=true#22652) wieder zu Wort gemeldet:
Ich versuche mich mal an 'ner Übersetzung:
Naja ... dann hoffe ich mal *dass man mit der Übersetzung was anfangen kann und* dass es in 2011 mal wieder richtig losgeht bei LHC. ;)
Danke für die News :thumbup: und dank
und mir erlauben die Entwicklung für
GPUs zu starten sobald ein zufriedenstellender Dienst
etabliert wurde.
wieder ein Projekt weniger, um das ich mich kümmern muss, wenn das mal anläuft :D
Nullinger
07.01.2011, 19:36
LHC verteilt gerade etwas Arbeit. Hab schon 8 St. abgegriffen.:cheesy:
Waaaaaaaaaaaaaaaaaaaaaaaaaa ................. ich hasse diese mist*** 6-er BOINC-Version
Dieses völlig blödsinnige Fragen nach Arbeit für GPU :wall: :ranting:
Nullinger
07.01.2011, 20:52
Servus Major, Bunker hoch und noch nicht gestartete WUs anhalten.
SoEinWahnsinn
07.01.2011, 21:23
??? Meinst du " Noch nicht gestartete WUs von ANDEREN Projekten anhalten"? Weil sonst, gibt es nichts mehr ;)
Was dann aber auch wieder bedeutet: alle 15 Minuten alle anderen CPU-Projekte anhalten
Auf so'ne Art Babysitting habe ich eigentlich gar keinen Bock. :(
Naja, egal ... irgendwann wird es *vielleicht* mal wieder richtige Arbeit (und nicht immer nur so'nen Fliegenschiss) von LHC geben
Nullinger
07.01.2011, 22:10
Ich habe eOn am laufen und einge DDDT2-WUs auf dem Rechner.
Außer 4 der DDDT2-WU s habe ich alle anderen angehalten.
Seither wird auch wieder Arbeit für die CPU angefordert.
Bei bedarf lasse ich dann wieder WCG-WUs laufen.
[ETA]MrSpadge
07.01.2011, 23:20
Die Entwickler haben irgendwann beschlossen, dass das bisschen inet-Verkehr und BOINC-Aktivität auf dem lokalen Rechner egal ist verglichen mit der Aufgabe, dem BOINC-Server noch sowas wie ein Flag zu geben "ich habe Arbeit für Resource a, b und d", so dass dihn die clienten nicht mehr ständig nach Arbeit für c fragen würden.
Dass dein BOINC keine LHC-WUs angefordert hat (wenn ich das richtig verstanden habe), liegt aber nicht daran, dass es Arbeit für die GPU angefordert hat, sondern daran, dass es das gerade nicht für nötig hielt (die CPU hat ja noch genug). Ohne GPU hätte da sowas gestanden wie "scheduler contact requested by user, not requesting new work". Deshalb hilft es dann auch, die andere CPU-Arbeit schlafen zu legen - irgendwann möchte BOINC dann doch wieder was neues haben.
MrS
Nullinger
04.03.2011, 07:03
Nach langer Zeit sind mal wieder ein paar WUs unterwegs.:cheesy:
Eigentlich möchte ich ja alle für mich selbst, aber ich bin ja nicht so und melde es hier mal.:D
Eine hab ich auch noch bekommen :cheesy:. Die letzte hatte ich am 1.September 2010.:shocked:
In unregelmässigen Abständen (und mit viel Glück) gibt es schon seit mehreren Stunden wieder einmal LHC-WUs abzugreifen. :thumbup:
Nullinger
05.06.2011, 10:11
Ach ja, seit gestern gibt´s immer wieder mal ein paar WUs.
Die meisten laufen nur ein paar Sekunden, einige wenige, bringen es aber auch mal auf eine halbr Stunde.
Ich konnte immerhin eine WU abgreifen welche mir 13 Cr. gebracht hat. Noch fehlen 630 Cr. bis zur 20000er Marke :D
LHC verteilt momentan wieder "fleissig".
Also Glück haben und zugreifen
Hoshione
11.06.2011, 20:58
Ich greife ja schon die ganze Zeit zu, mit dem Desktop und der VM, am Anfang bei der VM ne normale berechnung der Wutzen aber seid gestern alle nur noch mit Berechnungsfehlern:undecided: und jetzt gibts gar keine mehr
Hoshione
Es haben sich drei LHC-WUs auf meinem PC eingenistet. Freu! Aber ich will mehr.
Hoshione
15.06.2011, 18:11
So einfach ist ja nu nich, sonst könnte ja jeder ;):D:thumbup:
Immerhin war bei mir eine 14Cr WU dabei :cool:
Die restlichen dauerten nur ein paar Sekunden.
Hoshione
16.06.2011, 20:19
:thumbup: Na das hätte jeder gerne mal....ich krebse immer nur mit 0, haste nicht gesehen Credits rum....aber das macht nix, der olympische Gedanken zählt oder ? ;):cheesy:
Gruß und schönen Abend noch
Hoshione
Hat von euch überhaupt auch noch jemand solche alten Schätzchen? :D
http://lhcathome.cern.ch/lhcathome/workunit.php?wuid=3884328
Jetzt ein Jahr alt und nicht gutgeschrieben.
Bernd Vogler
17.06.2011, 17:52
Meine älteste Pending ist von Oktober 2007:
http://lhcathome.cern.ch/lhcathome/workunit.php?wuid=1812882
Grüße, Bernd
habe noch
2 vom 28.03.2008 und
7 vom 06.04.2008
Ich hoffe ja auch dass irgendwann einmal die Datenbank aufgeräumt wird. Es steht wohl auch auf der ToDo-Liste (schon seeeeeeehr lange) aber von den Verantwortlichen ist schon seit einiger Zeit keiner mehr im Forum zu lesen gewesen.
Für LHC musst du einfach viel Geduld oder/und Enthusiasmus mitbringen. :D
Achja ... ca.100 WU im Pending, davon die Älteste vom 28.02.2007
Nullinger
17.06.2011, 19:33
Meine älteste WU im Lager unseres kleinen Chinesenhttp://www.abload.de/img/diverses-002t738.gif (http://www.abload.de/image.php?img=diverses-002t738.gif) ist aus dem Juli 2006.
Ich habe sogar noch ein paar WUs mit claimed Credits drin.
Ich hab schon gedacht das das nicht oft vorkam, aber das sieht wohl anders aus :D
Hoshione
27.07.2011, 21:31
Mal was neues zu Cern, zwar keine WUs im Moment aber :
http://www.sueddeutsche.de/wissen/kernphysik-spuren-des-gottesteilchens-1.1125259
http://nachrichten.rp-online.de/wissen/erste-spur-des-gottesteilchens-entdeckt-1.1342701
http://www.dnews.de/nachrichten/wissenschaft/494674/wieder-geruchte-fund-gottesteilchens.html
http://uk.reuters.com/article/2011/07/27/science-us-science-higgs-idUKTRE76O5J120110727
Schönen Abend noch
Gruß
Hoshione:x)
Stargazer
01.08.2011, 17:32
Schade, dass es noch Konjuktivismen sind; Es wirklich zu wissen wär uns allen sicher lieber. ;)
Danke für die Links :)
Das Projekt scheint umzuziehen, ich habe gerade ein neues ATA-Team gegründet bekommen unter dieser Adresse:
http://boinc01.cern.ch/sixtrack/index.php
Und als ich mich da angemeldet habe, einfach mal die normalen Daten versucht, kam ich auf ein anderes Konto, nicht Saenger2 sondern den "wahren" Saenger, mit den Daten aus dem alten LHC, inklusive Profil, exklusive Foto.
Auch das Team war falsch, uns gab es aber, bin also gleich beigetreten.
Das passt auch zu der letzten Meldung auf der alten Adresse:
19.08.2011 15:35 BST -
Migration of LHC@home to CERN
Since May 2007 LHC@home has been hosted at Queen Mary, University of London. One thing that is certain in life is change and it is now time for LHC@home to move back to CERN the home of the LHC experiment.
Next week 22nd to 26th August we will be migrating the project back to CERN and so please expect the project to be down for a few days from Monday.
We would like to thank you for your support over the last four years and hope you will continue to subscribe to LHC@home when it is back at CERN. We also wish the new CERN boinc admin's all the best as they take the reins.
Happy number crunching!
Alex and Neasan
pschoefer
02.09.2011, 06:28
Und als ich mich da angemeldet habe, einfach mal die normalen Daten versucht, kam ich auf ein anderes Konto, nicht Saenger2 sondern den "wahren" Saenger, mit den Daten aus dem alten LHC, inklusive Profil, exklusive Foto.
Auch das Team war falsch, uns gab es aber, bin also gleich beigetreten.
Kann ich bestätigen. Die User wurden offenbar einfach importiert, die Teams aber über den BOINC-wide-Team-Kram neu gegründet. Entsprechend passen da einige Teamzugehörigkeiten nicht (ich war im Team "Phenix", ID 42, wie SETI.Germany beim alten LHC@home) und sämtliche Teams sind ihre Credits los (während die User alles behalten haben).
Sysadm@Nbg
02.09.2011, 06:35
;198997']Entsprechend passen da einige Teamzugehörigkeiten nicht (ich war im Team "Phenix", ID 42, wie SETI.Germany beim alten LHC@home)
leaved Phenix, joined SETI.Germany :done:
Bin jetzt auch wieder bei SETI.Germany :x)
Dort sind aber auch noch einige Polen die wohl auch im falschen Team gelandet sind :D
Teamwechsel umgesetzt. :done:
Wechsel vollzogen :thumbup: :X)
McCarron
02.09.2011, 08:11
ebenfalls ins richtige Team gehüpft.... und man kann endlich allte Rechner aus der Liste löschen... jetzt muss das nur noch beim WCG iwann mal gehen... :)
Und es gibt auch massig WUs :)
pschoefer
02.09.2011, 10:32
Dort sind aber auch noch einige Polen die wohl auch im falschen Team gelandet sind :D
Jepp, Team-ID 2 hatte das kleine polnische Team DistributedComputing@Plock (http://de.boincstats.com/stats/team_graph.php?pr=lhc&id=2). ;)
Diese Teamneugründung per BOINC-wide-Dingenskirchen ist ja mal wieder ein ausgemachter Blödsinn.
Ist denn das so ein Problem ein entsprechendes Script zu schreiben und somit automatisch die User auch wieder in ihre richtigen Teams zu befördern?
Zu einer solchen Stümperei fällt mir echt nix mehr ein. :rolleyes:
Achja ... um noch 'nen halbwegs kosntruktiven Beitrag zu leisten: HIER (http://lhcathome.web.cern.ch/LHCathome/) sind noch ein paar Seiten mit Erklärungen im Old-Style zu finden.
Ich hab' grad über einen Trick einen Thread im Forum da erstellt, das wohl vorhanden, aber irgendwie versteckt ist:
http://boinc01.cern.ch/sixtrack/forum_forum.php?id=4
Hier sind die vorhandenen, leeren, Teile direkt, dann geht auch ein "New Post":
(vermutlich News) (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=1) aber mit "New Post", was sonst da nicht geht
LHC@home Science (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=2)
Number crunching (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=3)
Cafe LHC (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=4)
Windows (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=5)
Unix/Linux (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=6)
(nix, vermutlich Mac) (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=7)
Getting started (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=8)
Preferences (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=9)
Wish list (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=10)
Sixtrack (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=11)
Team invites (http://boinc01.cern.ch/sixtrack/forum_forum.php?id=12)
Hoshione
02.09.2011, 18:17
Wechsel ? Done ! (Heute morgen um 07:00 ;)) WUs ? hab noch keine......weiß wer sie hat Bullitt;):x)
Wechsel ? Done ! (Heute morgen um 07:00 ;)) WUs ? hab noch keine......weiß wer sie hat Bullitt;):x)
Ich hab's in meinem BOINC gerade erst umgemeldet, und habe prompt eine Sixtrack abbekommen.:D
Als ich das hier las, hab ich mich gleich beim "neuen" LHC angemeldet und SETI.Germany rejoined. Schließlich ist LHC mein Lieblingsprojekt. Nur schade, dass ich mich von der LHC-Grafik nicht mehr hypnotisieren lassen kann :D (keine Grafikausgabe)
Wäre es nicht sinnvoll, einen Newsletter an alle LHC-Nutzer von SETI.Germany zu schicken?
Hoshione
02.09.2011, 19:16
Ich hab's in meinem BOINC gerade erst umgemeldet, und habe prompt eine Sixtrack abbekommen.:D
Du glücklicher, LHC ist schon immer das Projekt gewesen das so eingestellt war das egal was sonst gerechnet wurde sich Wutzen ziehen konnte (wenn welche da waren) deshalb geht es hier auf Biegen und Brechen weiter;):D:x)
Ich hab's in meinem BOINC gerade erst umgemeldet, und habe prompt eine Sixtrack abbekommen.:D
War wohl übertrieben von mir, heute Vormittag gleich mal 350 Stück davon einzusacken? :redface: 150 Stück davon sind schon erledigt. :D
lurchlaich63
02.09.2011, 23:19
Zurück bei SG!
Ha, und es gibt ne App fuer Linux. Vllt bekomme ich da ja doch mal Credits :)
Zurück bei SG!
Falsch!:(
Die Idioten haben heute Nacht alles wieder geändert, ich habe auch eine neue Kontomeldung von dem ATA-Konto bekommen, und jetzt sind alle "Early Adopters" Mitglied des holländischen Teams "DistributedComputing@Plock".
Verschickte Wutzen scheinen zu bleiben weiter zugeordnet, was mit den Credits passiert ist müssen andere sagen, meine ist noch nicht durch.
Die Foren wurden auch über Nacht wieder importiert, mit allen alten Posts, aber ohne die neuen.
Ich muss zur Arbeit, bis später.
MichaelR
03.09.2011, 06:22
Ich glaube die wollen das uns nicht langwelig wird, so nach den Motto,wen es schon keine Wu gibt habt ihr wenigstens da was zu tun
Gruß Michl
pschoefer
03.09.2011, 06:42
Die Idioten haben heute Nacht alles wieder geändert, ich habe auch eine neue Kontomeldung von dem ATA-Konto bekommen, und jetzt sind alle "Early Adopters" Mitglied des holländischen Teams "DistributedComputing@Plock".
Verschickte Wutzen scheinen zu bleiben weiter zugeordnet, was mit den Credits passiert ist müssen andere sagen, meine ist noch nicht durch.
So idiotisch finde ich das gar nicht. Es wurden einfach jetzt auch die alten Teams importiert (mitsamt ihrer über die Jahre ercrunchten Credits) und da hatte SG eben die wunderschöne ID 42. Die User wurden freilich nicht nochmal importiert. Der einzige Fehler war, die Website zugänglich zu machen, bevor die Migration komplett abgeschlossen ist. ;)
Für die Credits gilt das übliche: Sie werden dem Team mit der ID gutgeschrieben, dessen Mitglied man im Moment der Creditvergabe ist.
Sysadm@Nbg
03.09.2011, 08:58
;199106']So idiotisch finde ich das gar nicht. Es wurden einfach jetzt auch die alten Teams importiert (mitsamt ihrer über die Jahre ercrunchten Credits) und da hatte SG eben die wunderschöne ID 42. Die User wurden freilich nicht nochmal importiert. Der einzige Fehler war, die Website zugänglich zu machen, bevor die Migration komplett abgeschlossen ist. ;)
Für die Credits gilt das übliche: Sie werden dem Team mit der ID gutgeschrieben, dessen Mitglied man im Moment der Creditvergabe ist.
zum Glück sind die zwei WUtzen noch beim chinesischen Lagerarbeiter, so hatte ich Zeit für den Wechsel und bin nun zürck im Team SETI.Germany
:x)
Wenn bei euch alle WUs weggerechnet bitte wieder die alte URL benutzen!
03.09.2011 10:40:22 LHC@home 1.0 You used the wrong URL for this project. When convenient, remove this project, then add http://lhcathomeclassic.cern.ch/sixtrack/
;199106']So idiotisch finde ich das gar nicht. Es wurden einfach jetzt auch die alten Teams importiert (mitsamt ihrer über die Jahre ercrunchten Credits) und da hatte SG eben die wunderschöne ID 42. Die User wurden freilich nicht nochmal importiert. Der einzige Fehler war, die Website zugänglich zu machen, bevor die Migration komplett abgeschlossen ist. ;)
Für die Credits gilt das übliche: Sie werden dem Team mit der ID gutgeschrieben, dessen Mitglied man im Moment der Creditvergabe ist.Also habe ich mich hier (http://www.seti-germany.de/forum/astronomie-chemie-und-physik/1306-lhc-home-26.html#post199031) anscheinend doch etwas zu früh aufgeregt. :redface:
Bleibt nur noch eins zu sagen .... Attacke auf den Cern-Server! :D
Nullinger
03.09.2011, 11:43
Habe eine ganze Menge WUs bekommen.:cheesy:
Die fertigen enden aber alle als Validierungsfehler.:sad:
Hatte ich auch, ich vermute das das an der alten URL (http://boinc01.cern.ch/sixtrack/index.php) liegt, ich hab das Projekt jetzt gelöscht und die neue URL (http://lhcathomeclassic.cern.ch/sixtrack/) genommen. Aber hier gibt es gerade keine WUs.
Moin moin,
nachdem ich gestern erst das Team Phenix verlassen habe und wieder zu Seti.Germany gewechselt hatte stehe ich heute schon wieder in einem anderen Team. Nämlich DistributedComputing@Plock!! Da sind noch mehr von uns gelandet. Also schaut noch mal nach, ob ihr immer noch im richtigen Team seid ;)
Grüße
Marcus
So, hab jetzt einige WUs mit der neuen URL gerechnet, auch alle mit "Validate error".
Hab da übrigens noch 'n cooles Cartoon gefunden :D
Hm, bei mir sind bisher alle gültig, trotz der alten URL (http://boinc01.cern.ch/sixtrack/index.php).
[ETA]MrSpadge
04.09.2011, 10:25
Bei mir auch 4 von 4 mit validate error.
MrS
Hoshione
04.09.2011, 10:38
Schätze mal 2 bis 5 % der ganzen WUs sind s ca. bei mir...mal nen kompletten Schwung alles in bester Ordnung, dann mal wieder welche dabei die mit Berechnungsfehler gemeldet werden.
Gruß
Hoshione:x)
Es gibt wieder WUs.
Aber es wird nichts mit bunkern^^
07.09.2011 17:04:21 LHC@home 1.0 (reached limit of 2 tasks in progress)
dingdong
09.09.2011, 19:38
Es gibt Arbeit, diesmal aber anscheinend 3 WUs pro Core oder Rechner.
Message from server: (reached limit of 12 tasks in progress)
pilotpirx
16.09.2011, 08:15
es gibt immer noch Arbeit,
laut dortigem Forum sollte man das Projekt bei Fehlermeldungen im BM ab- und wieder anmelden
es gibt immer noch Arbeit,
laut dortigem Forum sollte man das Projekt bei Fehlermeldungen im BM ab- und wieder anmelden
Danke dir! Nu flutschts wieder .. Hatte die neue Adresse zwar drin, aber iwie immer Meldungen von wegen "Missing tag" (oder aehnlich).
Also momentan habe ich einige lange WUs, die laufen schon mehrere Stunden.
Hoshione
18.09.2011, 19:37
dito
Dann könnt ihr euch schon mal auf die Fehler (http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=3348)dieser ~5h WUs freuen.
Nullinger
18.09.2011, 22:20
Hi Bianca, ich habe auch schon 6 WUs, die nach 5 h mit Berechnungsfehler enden.
Die Laufzeit wäre mit dem 980er mit HT etwa 10 h gewesen.
Ich habe die restlichen WUs gelöscht und frische gezogen.
Mal sehen ob sich was ändert.
Hi Bianca, ich habe auch schon 6 WUs, die nach 5 h mit Berechnungsfehler enden.
Die Laufzeit wäre mit dem 980er mit HT etwa 10 h gewesen.
Ich habe die restlichen WUs gelöscht und frische gezogen.
Mal sehen ob sich was ändert.
Fehler wurde heute Mittag beseitigt.
Ältere WUs (mit Laufzeiten >= 5h) sollten abgebrochen werden.
Seit einigen Stunden müht sich der BOINC-Manager vergeblich Kontakt mit dem Server aufzunehmen.
dazu passend die Meldung:
Tue, Sep 20 - 14:05
Sixtrack server is currently under maintenance. Operations should resume soon.
Please come back later
Yamazaki
23.09.2011, 18:28
Hallo ihr ;)
hab jetzt diverse w3-collision... bekommen, von denen einige 3+ Std. laufen werden,
wenn die Anzeige stimmt.
Sind die jetzt ok oder nicht ?
Die sind okay. Manche laufen bei mir ~8 Stunden, zwischendurch kommen auch immer mal wieder 'n paar 30 Sekunden-Teile rein, aber der größte Teil sollte sich im Mehrstunden-Bereich bewegen.
PS: Übrigens haben die Jungs von LHC ihre Creditvergabe etwas überarbeitet. War es bisher so, dass bei Quorum 2 der niedrigere der beiden Cliamwerte den Grantedwert darstellte, wird jetzt der Mittelwert aus den beiden Claimwerten als Granted genommen.
Es gibt hier und da mal wieder WUs abzugreifen...
Gestern Abend erst extreme Kurzläufer (wenige Sekunden) und die jetzigen laufen die so um die 8h (Wenn die Anzeige stimmt)
PS: Sind Six Tracks...und nicht wundern...es wandert ALLES ins Pending...der Validator läuft nicht - wieso auch immer :X)
PPS: Validator läuft nun...und es sind wieder Aufgaben bereit zum versenden :thumbup:
PPS: bei mir mit HT um die 9 Stunden (die erste ist durch)
Seit heute Abend kommen immer wieder WUs rein, also los welche abgreifen :)
sah für den ersten Moment nicht so aus, aber ich hab auch welche bekommen:cool:
Jetzt sind sogar mal lange WUs dabei, 4h> :)
Hoshione
19.12.2011, 19:25
Hab ich so gar nicht mitbekommen, dachte schon ich bin mal wieder ohne geblieben .....aber heute schön brav 13,07 Credits gutgeschrieben bekommen :D Muss sich wohl was in der Nacht durchgeschmuggelt haben ;)
Gruß
Hoshione:thumbup:
bin im Moment konstant versorgt, würde es aber nicht unbeobachtet als Einzelprojekt laufen lassen :)
dingdong
05.01.2012, 15:22
Es gibt wieder SixTracks
wobei mir gleich auffällt, dass die Rechner mit Boinc - Version 7.03 nichts abgekriegt haben.
Danke für die Info, hab mir doch gleich welche geschnappt :)
Also meine BOINC-7.0.7er Versionen haben Sixtracks abbekommen.
mehr als 12 WUs nimmt er leider nicht auf einmal in die Warteschlange. Dafür sind es alles 4-Std-WUs :)
dingdong
06.01.2012, 02:33
Also meine BOINC-7.0.7er Versionen haben Sixtracks abbekommen.
Hmmm, meine 7.03er haben immer noch nichts. Muss ich wohl die 7.07 nachher mal versuchen.
MichaelR
06.01.2012, 11:09
Hi,
mal eine bescheidene Frage, wo findet ihr die BOINC-7.0.7 version?
Gruß Michael
http://boinc.berkeley.edu/dev/forum_thread.php?id=6698
Hi,
mal eine bescheidene Frage, wo findet ihr die BOINC-7.0.7 version?
Gruß Michael
Hier (http://boinc.berkeley.edu/dev/forum_thread.php?id=6698) und direkt auf dem Server (http://boinc.berkeley.edu/dl/). :x)
MichaelR
06.01.2012, 11:19
merci :x)
Ohne lang rumsuchen zu wollen, bei mir kommt immer folgende Meldung:
Fr 06 Jan 2012 13:42:12 CET | LHC@home 1.0 | Message from server: Error in request message: no start tag
Was mache ich denn falsch? Linux 64bit
MichaelR
06.01.2012, 12:57
Hi,hatte ich vorhin auch,bei mir hat ab und anmelden des Projektes im BM geholfen.
Gruß Michael
Servus, Michael :)
Danke, bei mir hat das auch geholfen :D
dingdong
06.01.2012, 16:05
konnte mir die 7.07 sparen, nun hat auch ein Rechner mit der 7.03 von sich aus Arbeit geholt!
Ui ui ui! Bei Boincstats hat's aber ganz schön was durcheinandergewirbelt.http://de.boincstats.com/stats/team_stats.php?pr=lhc&st=0
Piratenpartei Deutschland auf Platz 1 mit nem RAC von 2,5 Millionen bei LHC :D
Edit: Das ist mehr als der RAC des gesamten Projekts :D
Nullinger
06.01.2012, 21:42
Vorallem ist es nur ein Mitglied der mit drei nicht aktiven alten Athlons heute 25 Millionen gemacht hat.:cool:
http://de.boincstats.com/stats/user_graph.php?pr=lhc&id=101328
pschoefer
06.01.2012, 21:45
Ui ui ui! Bei Boincstats hat's aber ganz schön was durcheinandergewirbelt.http://de.boincstats.com/stats/team_stats.php?pr=lhc&st=0
Piratenpartei Deutschland auf Platz 1 mit nem RAC von 2,5 Millionen bei LHC :D
Edit: Das ist mehr als der RAC des gesamten Projekts :D
Schuld ist dieser User (http://lhcathomeclassic.cern.ch/sixtrack/show_user.php?userid=101328)... mehrere CPU-Jahrhunderte (http://lhcathomeclassic.cern.ch/sixtrack/results.php?hostid=9914771) in wenigen Stunden selbst mit einem gigantischen Cluster von AMD X4 zu erreichen, fällt in die Rubrik "unmöglich", da hat mal wieder jemand die Schwächen des Creditsystems auszunutzen gewusst... :rolleyes:
Nullinger
06.01.2012, 21:50
In der Rechnerliste tauchen die Credits nicht mal auf. Wird sich wohl irgendwo anders ein Fehler eingeschlichen habe
http://de.boincstats.com/stats/host_stats.php?pr=lhc&st=0&userid=101328n.
pschoefer
07.01.2012, 00:04
In der Rechnerliste tauchen die Credits nicht mal auf. Wird sich wohl irgendwo anders ein Fehler eingeschlichen habe
http://de.boincstats.com/stats/host_stats.php?pr=lhc&st=0&userid=101328n.
Inzwischen stehen sie dort, vermutlich waren diese Stats vorhin noch nicht aktualisiert. ;)
Nullinger
07.01.2012, 07:57
Moin Patrick, das kann gut sein.
Inzwischen stehen 7 von den Lümmeln an der Spitze der User-Statistik.
http://de.boincstats.com/stats/user_stats.php?pr=lhc&st=0#58
Es sind diese 2 Rechner
1 (http://lhcathomeclassic.cern.ch/sixtrack/results.php?hostid=9914771), 2 (http://lhcathomeclassic.cern.ch/sixtrack/results.php?hostid=9868114) die anderen haben korrekt geclaimed. Seltsam nur , daß der zweite Rechner nur ein Resultat derart hoch angibt.
Nullinger
09.01.2012, 15:53
Gerade werden wieder ordentlich Wutzen verteilt.
Darunter jede Menge Langläufer.:cheesy:
.:CrunchBeast_[FC]:.
03.02.2012, 14:44
Moin,
habe gerade 3 WU's bekommen. Das war es dann auch schon wieder ...
:undecided:
Yamazaki
07.02.2012, 22:20
In den ltz. Tagen kommen immer mal ein paar kürzere SixTracks...
Ich 'frage allerdings öfter mal nach' ...
Bei einem Blick auf die besten Teams hier:
man achte auf die aktuellen "RAC-Meister" ...
Wenn 2 Leute zusammensitzen,
muss wohl unbedingt
ein Verein gegründet werden. :rolleyes:
Es gibt wieder ein paar WUs :)
Für jene die es noch nicht bemerkt haben. LHC gibt seit Tagen Schubweise verhältnismäßig viele WUs aus.
Leider bekomme ich heute keine mehr (reached daily quota of 960 tasks), aber eventuell haben andere Glück.
Bia
heute habe ich auch welche bekommen, Zeit wurde es ja mal wieder
Edith meint, wie Bia schon erwähnt hat, kommen die schubweise mehrfach am Tag. Wenns jetzt nicht gleich klappt, dran bleiben.
Edith zwo meint, irgendwo ist da der Wurm drin, die mit Laufzeiten von Sek bis ca. 20 min werden ordentlich gegranted, bei längeren Laufzeiten gehen die Credits in den Keller. Also nur was für Feinschmecker. :(
Nullinger
27.04.2012, 20:18
Seltsam seltsam, egal wie lang die Dinger laufen, maximal 12 Credits pro WU.
Hab schon ne Menge WUs mit über 3 h Rechenzeit durch.
Die einzige Antwort, die ich bisher erhalten habe, lautet CreditNew http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=3437
[ETA]MrSpadge
27.04.2012, 23:20
CreditNew
Nooooo... ! :shocked:
MrS
Tatsächlich, für 5 Stunden Laufzeit gerade mal 12 Credits. So bekomme ich doch nie die 30000 voll...
Die werden doch nicht gerade jetzt während des Pentathlons WUs rausschicken? Eine kam nämlich gerade, aber nur ne super kurze WU.
Doch...ich hab auch ein paar auf'm Rechner liegen...zg gesehen, dass der welche gezogen hat und direkt pausiert und auf nnw...mal, wenn die Lage bei den letzten Projekten relativ entspannt ist, vll schiebe ich die dann mal dazwischen...:x)
Wenn ich heute auf die Statistikseite von S.G. (Seti.Germany) gehe und dann werden dort -13,480 (für die letzten 24 Stunden) für LHC angezeigt. Gibt es einen Grund für diese negativen Punkte?
Wenn ich heute auf die Statistikseite von S.G. (Seti.Germany) gehe und dann werden dort -13,480 (für die letzten 24 Stunden) für LHC angezeigt. Gibt es einen Grund für diese negativen Punkte?
Kleiner Glitch beim Serverumzug, die wollen das wieder gradeziehen (http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=3441&nowrap=true#23927), aber wenn's nicht klappt, so what?
Nullinger
05.06.2012, 22:53
Allein bei mir fast 7 K Abzug.
Dafür gibts wieder Arbeit und reguläre Credits.
Die Geschichte mit den max. 12 Credits/WU hat sich somit wohl erledigt.
Yamazaki
07.06.2012, 21:00
Sieht für mich so aus, als ob der Abzug wieder gutgeschrieben wurde.
Und ein paar WUs gibts obendrauf :thumbup:
Flaeminger
08.06.2012, 13:03
Bei mir trudelt sporadisch Arbeit ein.....
Bei mir trudelt sporadisch Arbeit ein.....
Dito...sogar fast regelmäßig...:x)
Was ist mit regelmäßig gemeint?
Ich habe bis auf 8 vor 2Tagen nie was bekommen wenn ich aktualisiert hab.
Was ist mit regelmäßig gemeint?
Dass immer ein paar LHCs bei mir rumliegen...gut...ich kann natürlich nicht komplett auf LHC schwenken, aber nebenbei läuft das durch atm...:x)
Nullinger
25.06.2012, 09:13
Kriegt igr eigentlich auch schon wieder so miese Credits?
Die Langläufer mit 6-7 h Rechenzeit geben gerade mal um die 30 Credits.
Die WUs die etwa ne Stunde laufen, 4-5 Credits.:(
Credit new, oder wie?
Yepp, die Creditvergabe ist wieder wie vor Wochen komplett wirr, insb. für Laufzeiten oberhalb 1h
7,384.59 7,213.19 13.85 SixTrack v443.07
17,025.29 16,687.21 32.49 SixTrack v443.07
1,248.78 1,215.23 1.26 SixTrack v443.07
356.69 345.07 0.44 SixTrack v443.07
aber auch
165.06 158.33 32.68 SixTrack v443.07
Naja erstmal freue ich mich, dass es wieder wus gibs.
Ich bin seit Tageswechsel vollständig mit LHCs versorgt.
Auf der andere Seite kann ich aber leider auch die willkürliche Creditverteilung bestätigen:
188.15 169.35 32.06 SixTrack v443.07
280.17 262.96 47.05 SixTrack v443.07
233.15 214.81 3.01 SixTrack v443.07
792.37 747.43 4.42 SixTrack v443.07
127.09 117.03 1.95 SixTrack v443.07
Bei den wirklichen Langläufern (10000+ sec) fehlen mir derzeit noch die Wingmen.
Für die, die gerne mal ne LHC-WU rechnen würden - aktuell bestehen gute Chancen dafür :thumbup:
Die Projektstatusseite (http://lhcathomeclassic.cern.ch/sixtrack/server_status.php) von LHC@Home meldet gerade über 26k WUs bereit zum versenden.
Hinzugefügter Post:
Es gibts allerdings derzeit ein paar Serverprobleme klick (http://lhcathomeclassic.cern.ch/sixtrack/index.php)
Müssen wir uns wohl noch ein bissel gedulden bis wir uns über die WUs hermachen können.
fromdusk
07.07.2012, 22:42
Hab gerade von LHC Arbeit bekommen... Gute das ich boxen am PC geschaut habe.
Grüße
scheint sich aber wieder mal dem Ende zu zu bewegen. Mal sehen, aktuell habe ich keine WU´s mehr im Bunker.
Also ich habe gerade noch welche bekommen.
Nullinger
08.07.2012, 20:12
Nachmittags war LHC mal down, weil der WU download nicht richtig gefunzt hat.
Mittlerweile läufts wieder normal.
Gewalt geht vor Recht. Mit ein wenig auf-die-Füße-treten bekommt man auch noch was ab :D
130 LHC@home 1.0 11-07-2012 00:43 Scheduler request completed: got 1 new tasks
131 LHC@home 1.0 11-07-2012 00:43 Started download of w1jul_niebb0d__26__s__64.28_59.31__8_8.2__6__38_1_ sixvf_boinc44538.zip
132 LHC@home 1.0 11-07-2012 00:44 Giving up on download of w1jul_niebb0d__26__s__64.28_59.31__8_8.2__6__38_1_ sixvf_boinc44538.zip: file not found
Die Wu endet dann mit 'Fehler beim Herunterladen' ...
Fehler dieser Art schon den ganzen Abend...das einzig sich ändernde: die Dateien, bei deren Download etwas schiefgeht...:undecided:
Bin ich der einzige? ^^
[SG] steini
11.07.2012, 04:20
Hier und im LHC-Forum auch ne Menge Leute...
Hatte gestern auch ganz viele mit 'Fehler beim Download'
Ist schon ein paar Tage so. Angefangen hat es damit, dass beim LHC die Festplatte voll war. Dadurch wurden WUs mit 0 Byte Inhalt erzeugt und verteilt. Ich habe das am 8.7. bei mir im Download gesehen, vermutlich so ab 6:00 UTC war beim LHC die Festplatte voll.
Seit dem gibt es Probleme mit nicht vorhandenen Download-Dateien, nicht vorhandenen Download-Ordnern, fehlenden Leserechten (Download) oder Schreibrechten (Upload), HTTP-Fehlern oder sonstiges. Die vollgelaufene Festplatte hat vermutlich ein ziemliches Chaos angerichtet. Der Admin hat die Situation mit folgenden Worten beschrieben "Total panic here at least on my part".
Bis denn dann, Grubix.
Danke für die Info!
edit: Jetzt sind wieder 6 WUs durchgekommen ohne Downloadfehler.
Also momentan fluppt das mit LHC. In den letzten Tagen immer WUs bekommen, so kann es ruhig weiter gehen.
Nullinger
16.07.2012, 19:54
Yep, LHC mit Rundum-Wohlfühl-Versorgung gabs wirklich selten.
Ich habe jetzt, zur Monatsmitte, schon mit Abstand meinen besten Monat.
Yup, man hat bei LHC die große Keule genommen und alle WUs abgebrochen, damit die Datenbank wieder einen sauberen Zustand hat. Mir wurden dabei zusammengerechnet gut 8 Tage CPU-Zeit in die Tonne gehauen. Dadurch ist jetzt aber alles wieder in Ordnung und es läuft sehr gut.
Im Moment gibt es noch kleine Probleme, den richtigen Client auszuliefern. Beim Server müssen wohl CPU-Flags ausgewertet werden, um die optimierten Clients zu versenden. Das klappt noch nicht ganz. Ihr habt bestimmt auch WUs mit "sse3", "sse2", "pni" oder gar keinem Zusatz. Daran wird aber intensiv gearbeitet...
Bis denn dann, Grubix.
Yup, man hat bei LHC die große Keule genommen und alle WUs abgebrochen, damit die Datenbank wieder einen sauberen Zustand hat. Mir wurden dabei zusammengerechnet gut 8 Tage CPU-Zeit in die Tonne gehauen.
Da hab ich gleich nen Schrecken bekommen und nachgeschaut. Puhhh, bei mir waren es nur knapp 2 Tage. :rolleyes:
Die Jungs von LHC@Home sind sehr kommunikativ und haben auch Sinn für Humor bzw. Sarkasmus:
SNAFU on our side. Sending jobs with bad disk quota.
Fixed, but you will probably see some jobs fail rather
quickly. At least not wasting so much CPU. Eric.
Den ersten Begriff musste ich erstmal nachschlagen und habe dann sehr geschmunzelt... :cheesy:
Bis denn dann, Grubix.
[SG]Darkpapa
21.07.2012, 00:09
also ich muß die jungs echt mal loben vom projekt .ist ja echt geil wie es im mom mit der wu versorgung funst :thumbup:
ich hoffe es geht LANGE so weiter :D
macht richtig spaß die letzten tage
Hinzugefügter Post:
ok ich muß wohl mein post zurückziehen *gg
jubdo mahnte es im sg-chat schon an und nu is es auch bei mir real *heulz*
habe/bekomme keine wus mehr
nur gut,das ich mit ihm keine wette abgeschlossen habe :D
aber mein post nu löschen( wie im chat angesagt) wäre nu auch blöd
[ETA]MrSpadge
22.07.2012, 00:45
LOL. Immerruhig bleiben! Wenn die WUs alle sind, heißt das doch auch, dass wir mit der aktuellen Arbeit fertig sind :)
MrS
Die WU-Versorgung ist aktuell wieder im Fluss. Kannst also erneut über eine Wette nachdenken, dunkler Vater.
Yamazaki
05.08.2012, 11:52
Moin zusammen,
ich hab hier plötzlich Sixtrack, die 35h und länger laufen :rolleyes:
(Q9550@3,5GHz W7-64)
Hat jemand ähnliche Zeiten oder könnte es sein, dass sich da etwas gegenseitig ausbremst ...?
(Habe seit gestern die GraKa für SETI Wow testweise am arbeiten inkl. 1 Core für ATI-GraKa-Versorgung).
Edit meint: lies mal vorher die entspr. Foren... ähm ok
Lt. LHC-Forum gibt es also einige von den 'dicken Dingern' zur Zeit.
Alles scheinbar im 'Grünen Bereich'.
Nullinger
05.08.2012, 19:59
Moin Yama, bei mir haben sich auch einige der WUs eingenistet.
Teilweise lauden die schon über 50 h.
Danke für die Info, war mir noch nicht aufgefallen. Ich habe eben leider eine abgebrochen. Auf meinem nicht so schnellen Rechner hatte die nach 30 Stunden erst 11% geschafft. Unmöglich die in der Deadline zu schaffen... :sad:
Bis denn dann, Grubix.
Nullinger
06.08.2012, 06:13
Meine längste WU die bisher gegranted wurde lief 65,5 h. Lief auf meinem Läpi (i7-2670QM mit HT).
Dank Credit New nur 268 Credits.
Bei mir ist heute die hier (http://lhcathomeclassic.cern.ch/sixtrack/workunit.php?wuid=2503385) nach 75 Stunden fertig geworden , mal sehn wie lange der Wingmann noch braucht.
Hab hier auch eine auf dem Dualcore:
Laufzeit 28h51m 34,2% :rolleyes:
Das Problem mit den langen Laufzeiten ist erkannt . Zitat HP
I have to look at the Deadline problem for 10**7 turn jobs.
I set a bound of 30 days for any WU....need to discuss with Igor is that is NOT what you see at home. Of course we really want a low bound to get results back quickly, but I also want to use older slower systems. We shall have to work out some sort of compromise. My attempt as 10**7 turns was probably a bit over the top, but I was keen to try it.
Man hat die Deadline wohl auf 30 Tage hochgesetzt , Problem ist , daß wir das im BM nicht zu sehen bekommen. Obwohl man die Resultate so schnell wie möglich zurückhaben möchte , will man aber auch nicht auf die vielen älteren Rechner verzichten . Deshalb wird es wohl einen Kompromiss geben - mal sehen wie der aussieht.
Bei mir ist heute die hier (http://lhcathomeclassic.cern.ch/sixtrack/workunit.php?wuid=2503385) nach 75 Stunden fertig geworden , mal sehn wie lange der Wingmann noch braucht.
Die Wutze ist heute "validiert" worden :273,807.82 271,926.40 220.68 :rolleyes:
So, rechne mit meinem kleinen Lappi seit eben auch auch noch LHC. :x) Mal schauen, wie lange der dafür braucht.
Moin All,
so, hab jetzt die 1K bei LHC geknackt.
Jetzt aber mal eine Frage, kann es sein, dass kaum jemand im Seti Germany Team bei LHC ist. Oder hab ich das falsche Team erwischt? In Sixtrack werden bei Seti Germany nur 5 Mitglieder angezeigt und davon sind nur 2 aktiv.
Grüße
Timo
EDIT: Okay ich bin im falschen Team!! Werde das jetzt ändern.
pschoefer
03.11.2012, 14:55
Ja, leider gibt es Spaßvögel, die Teams mit ähnlichen Namen erstellen... wohl unfähig, sich selbst etwas auszudenken. :lipsrsealed:
Daher immer genau auf die Schreibweise SETI.Germany achten. ;)
Das weiß ich, aber das Team wo ich war hieß "Seti Germany" mit Leerzeichen anstatt dem Punkt. Gegründet wurde es von aendgraend.
Deshalb war ich auch etwas irritiert. Hier ist der Link (http://lhcathomeclassic.cern.ch/sixtrack/team_display.php?teamid=7250) zum Team.
EDIT: Die Team Beschreibung passt auch auf Seti.Germany.
Gegründet isses von aendqraend, nicht von aendgraend. Kann man das irgendwo melden?
Ups, klassischer Verleser meinerseits. Hab das wirklich nicht gesehen......
pschoefer
03.11.2012, 18:13
Das weiß ich, aber das Team wo ich war hieß "Seti Germany" mit Leerzeichen anstatt dem Punkt. Gegründet wurde es von aendgraend.
Deshalb war ich auch etwas irritiert. Hier ist der Link (http://lhcathomeclassic.cern.ch/sixtrack/team_display.php?teamid=7250) zum Team.
EDIT: Die Team Beschreibung passt auch auf Seti.Germany.
Ja, nicht nur der Teamname, sondern auch die Beschreibung und sogar der Name des Gründers sind manchmal fast originalgetreu geklaut. Der Gründer des von dir verlinkten Teams ist nicht aendgraend, sondern ein aendqraend. Leider gibt es da noch einige solche Fälle und es ist unheimlich aufwendig, dagegen vorzugehen (was aber im Hintergrund gemacht wird!). :(
Es hilft immer noch der Blick auf die Anzahl der Members im Team ;)
Ist für Neueinsteiger extrem verwirrend und irreführend.
PS: Warum gibt es nach zig Jahren Leerlauf wieder Wutzen für Sixtracks, gibt es da eine Erklärung?
PS: Warum gibt es nach zig Jahren Leerlauf wieder Wutzen für Sixtracks, gibt es da eine Erklärung?
Ich habe im Moment nicht die Zeit die entsprechenden Beiträge aus den Foren heraus zu suchen, zumal es das alte LHC-Forum nicht mehr gibt. Kurz zusammengefasst:
Das alte LHC@Home Projekt war eigentlich nur ein "Spielprojekt" von Studenten. Das klingt jetzt abwertend, ist aber nicht so von mir gemeint. Für die damaligen Betreiber war es sicherlich wichtig, auch wenn der Support und die Wartung des Projektes häufig als katastrophal zu bezeichnen war. Die Ergebnisse sind beim Cern nie angekommen, es gab keine direkte Zusammenarbeit zwischen LHC@Home und dem Cern. So war es im alten Forum von LHC@Home zu lesen.
Jetzt läuft LHC@Home am Cern. Die Betreiber sind Wissenschaftler, die am LHC arbeiten. Man hat dort die Fähigkeiten von BOINC erkannt und nutzt sie. Interessant fand ich z.B. folgendes: Man hatte Sorge, ob normale PC (übertaktet, mit defekte Hardware usw.) überhaupt verlässliche Ergebnisse liefern können. Einer der Betreiber hat daher einen Test gemacht: Er hat WUs ganz normal über BOINC laufen lassen und die gleichen Daten nochmal über den Cern eigenen Server. Die Fehlerrate von BOINC war nur ein wenig höher als vom Cern-Cluster. Er konnte mit dem Test sogar Rechner am Cern entdecken, die totalen "Müll" produzierten. Das war vorher wohl keinem aufgefallen und man hatte nicht gedacht, dass BOINC so gut ist.
Die Erklärung ist also, dass das alte LHC@Home und das jetzige LHC@Home nichts miteinander zu tun haben.
Lustig fand ich übrigens, als die Wissenschaftler beschrieben haben, dass die Arbeit mit BONIC völlig anders ist. Vorher musste man um jede CPU-Stunde "betteln" und man hatte viel Zeit, die Daten vorzubereiten (wenn der Cern-Cluster z.B. erst in zwei Wochen frei war).
Die BOINC-User hingegen quengeln ständig nach neuer Arbeit und sind beleidigt, wenn ihre Rechner nicht ausgelastet sind. Kaum fallen die zu sendenden WUs unter 1000, gibt es Fragen im Forum. :D Die Wissenschaftler mussten ihre Arbeitsweise also so umstellen, dass immer genug Aufgaben zum Rechnen zur Verfügung stehen.
Übrigens rechnet Cern mit seinen eigenen Rechner auch via BOINC mit. Schau dir mal den User "Agile Boincers" aus der Schweiz an. :D
Ich hoffe das hat dir geholfen, Grubix.
Danke für die Info :thumbup:
Powered by vBulletin® Version 4.2.5 Copyright ©2022 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.