PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : LHC@home



Seiten : 1 2 3 [4]

Bullitt
13.01.2013, 15:12
"First tests 2013
Trying to run a few thousand cases from Scinetific Linux 6 (SLC6)
here at CERN. Eric. 11 Jan 2013 | 12:09:25 UTC"

Und es gibt wieder WUs :)

georg70
15.01.2013, 19:00
Danke für den Tipp, dass es endlich wieder WUs gibt,, habe nun auch sofort WUs bekommen.
Unsere französischen Freunde geben hier dieses Jahr schon mächtig Gas (Statistik (http://fb.biaweb.de/pd_data.php?pro=5&proTyp=t)),
wir sollten auch mal nutzen, dass es gerade neue Arbeit gibt.

Aktuelle Wus brauchen bei mir auf einer Intel Core i7-2670 CPU 2.20GHz ca. 7-10 Std., wobei man sich eben nicht erschrecken darf,
wenn zu beginn erstmal die "Verbleidende Zeit" viel zu hoch angezeigt wird.
Es gibt ein paar Quickis unter den WUs, diese laufen eben nur ca. 1 Std., kommen aber nur ca.10% vor.

Hoshione
20.07.2013, 12:09
Mahlzeit zusammen, jemand ggf. eine Einladung bekommen ?
LHC Beauty (http://lhcbathome.cern.ch/Beauty/)

Saenger
20.07.2013, 13:27
Mahlzeit zusammen, jemand ggf. eine Einladung bekommen ?
LHC Beauty (http://lhcbathome.cern.ch/Beauty/)

Wenn ich mir die bislang 18 Teilnehmer (http://lhcbathome.cern.ch/Beauty/top_users.php) so anschaue, werden das wohl nur Interne sein, kein bekannter ATA oder auch nur üblicher Testboincy, dabei. Sprich: es gibt keinen Einladungscode ohne Zugangsausweis zum CERN.

Hoshione
20.07.2013, 15:31
Schade, aber da kann man ja nix machen.Danke für die Info und nen schönen Tag für dich:-)

Beorn
09.10.2013, 10:40
Herzlichen Glückwunsch an François Englert und Peter Higgs zum Nobelpreis für Physik 2013!

:Applaus: :Applaus: :Applaus: :Applaus: :Applaus: :Applaus: :Applaus: :Applaus: :Applaus:

Ein paar kurze Infos und Links gibt's z.B. hier (http://www.dradio.de/aktuell/2278785/) beim Deutschlandradio.

Alle früheren LHC@home Teilnehmer dürfen sich mitfreuen, denn der (mit hoher Wahrscheinlichkeit) Nachweis des Higgs-Bosons letztes Jahr am LHC in Genf war wohl eine wesentliche Voraussetzung für den diesjährigen Nobelpreis.

Gruß :x)

Beorn
09.10.2013, 13:13
In der internationalen Presseschau des DLF werden heute drei Zeitungen zitiert, die ebenfalls die Bedeutung des CERN und der interessierten Öffentlichkeit hervorheben. :D

http://www.dradio.de/presseschau/, Mittwoch, 09. Oktober 2013 12:50 Uhr, die letzten drei Auszüge (RZECZPOSPOLITA, TAGES-ANZEIGER, SKANSKA DAGBLADET).

EDITH sagt: Wieso funktioniert denn das 'unten-dran-kleben' wieder nicht. :sad:

MSE29
09.10.2013, 23:58
Zitate:

>>
Den Physik-Nobelpreis erhalten in diesem Jahr zwei Forscher, die die Entdeckung eines neuen Elementarteilchens vorhergesagt haben: der Brite Peter Higgs und der Belgier François Englert.

Die polnische Zeitung RZECZPOSPOLITA erläutert:

"Der diesjährige Physik-Nobelpreis ist eine Verbeugung vor der Theorie und dem Triumph des Gedankens, durch den ein Teilchen 50 Jahre vor seiner tatsächlichen Entdeckung vorhergesehen wurde. Nobelpreise werden für Arbeiten vergeben, die sich in der Praxis bestätigen, nicht nur für reine Theorien. Offenbar wurde im Falle des Higgs-Teilchens überlegt, ob man die bestehenden Nobel-Regeln durchbrechen und auch dem Forschungszentrum Cern den Preis hätte verleihen können. Doch hier gab es keine konkrete Person, keinen führenden Kopf, der für die Entdeckung des Teilchens verantwortlich gewesen wäre",

notiert die RZECZPOSPOLITA aus Warschau.


"Stolz dürfen die Leute vom Cern aber trotzdem sein",

unterstreicht der TAGES-ANZEIGER aus der Schweiz.

"Und das Nobelpreiskomitee erwähnte die Experimentierer in seiner Huldigung denn auch ausdrücklich. Nur dank ihres Einsatzes und dank der immensen technischen und finanziellen Anstrengungen, welche die Physikergemeinschaft in Genf in ihr gemeinsames Ziel steckte, konnte ein Teilchen entdeckt werden, das bisher nur in der Theorie existierte. Es ist der letzte Puzzlestein im Modell der Physiker, der die Materie im Innersten zusammenhält. Kein Wunder, wird das Higgs- manchmal auch Gottesteilchen genannt",

resümiert der TAGES-ANZEIGER aus Zürich.


"Noch vor ein paar Jahren wusste man nicht, was das Universum zusammenhält und welche geheimnisvolle Kraft dafür sorgt, dass Sterne, Planeten und Menschen überhaupt existieren können",

erklärt die Zeitung SKANSKA DAGBLADET aus Malmö.

"Durch Higgs und Englert sind wir nun aber vermutlich der Erkenntnis näher gekommen, woraus die Grundlage des Universums besteht. Die Higgs-Teilchen sind nicht nur aus der konventionellen wissenschaftlichen Perspektive heraus interessant, sondern können jedermann das berauschende Gefühl vermitteln, bei der Lösung eines großen Rätsels dabei gewesen zu sein. Und eine bessere Begründung für den Nobelpreis lässt sich kaum denken",

findet die schwedische Zeitung SKANSKA DAGBLADET, und damit endet die internationale Presseschau.<<

Jogibaer
11.10.2013, 00:12
Moinsen,
ich wollt einen Rechner bei seti@home abziehen und den gerne für LHC rechnen lassen weil der keine Grafikkarte hat. LHC ist ja mehr CPU lastig, ist doch richtig ? Nun steht bei Einstellungen maximale CPU bei Grafiken 0-100, wie habe ich das zu verstehen ?
Aber anscheinend sind da nicht viele WU's vorhanden ?

Moorhuepfer
11.10.2013, 06:58
Moinsen,
ich wollt einen Rechner bei seti@home abziehen und den gerne für LHC rechnen lassen weil der keine Grafikkarte hat. LHC ist ja mehr CPU lastig, ist doch richtig ? Nun steht bei Einstellungen maximale CPU bei Grafiken 0-100, wie habe ich das zu verstehen ?
Aber anscheinend sind da nicht viele WU's vorhanden ?


Adde es lieber als zusätzliches Projekt auf den Rechnern. Sie verteilen nur sehr sporadisch Arbeit (CPU). :x)

pschoefer
11.10.2013, 07:42
LHC ist ja mehr CPU lastig, ist doch richtig ? Nun steht bei Einstellungen maximale CPU bei Grafiken 0-100, wie habe ich das zu verstehen ?
Mit Grafiken ist die Grafikausgabe (Bildschirmschoner) gemeint. Da die Grafikausgabe meines Wissens sowieso gar nicht mehr zur Verfügung steht (zuletzt zerschoss sie die WUs), kann diese Einstellung einfach ignoriert werden.


Aber anscheinend sind da nicht viele WU's vorhanden ?
Der Normalfall ist eigentlich, dass es -wie gerade jetzt- immer mal wieder ein paar WUs gibt. Zuletzt gab es auch mehrmals für einige Tage kontinuierliche Versorgung, es gab aber auch schon monatelang keine einzige WU. Es sollte also mindestens ein anderes Projekt auf dem Rechner angemeldet sein, um Leerlauf zu vermeiden. ;)

[ETA]MrSpadge
12.10.2013, 09:46
Nebenbei: die sache mit dem Higgs Boson als "Gottesteilchen", die die MEdien so gerne aufgreifen.. ist nur ein dummer Fehler. Der Begriff bezieht sich auf ein etwas älteres Buch über die Suche nach dem Higgs, welche sich bis in die 90'er als so derart schwierig erwiesen hatte, dass man bis dahin noch absolut gar nicht vorzeigen konnte. Deshalb der Titel

"That goddamn particle" = "Dieses gottverdammte Teilchen"

Daraus wurde dann flugs "the god particle" = "das Gottesteilchen", was zu Kommentaren der Klasse "wie können die sich nur anmaßen... ?!" führt. Einfache Antwort, wie so oft: haben sie gar nicht!

MrS

Yamazaki
22.10.2013, 12:14
Uploads funzen momentan bei mir nicht!
Verstopfung?! ;)

Nullinger
22.10.2013, 12:35
Servus Yama, seit gestern Abend geht bei mir auch nix mehr hoch.

aendgraend
22.10.2013, 14:56
Hier das gleiche:

Transient Upload Error

Macht nix, knabbern wir halt derweil was anderes.

pschoefer
22.10.2013, 18:48
Schön, dass es trotzdem neue WUs gibt, aber schade, dass BOINC irgendwann keine mehr ziehen mag, wenn zu viele Uploads ausstehen.

automatiknoob
23.10.2013, 22:01
Die uploads stehen immer noch.
Schade hab so viel Dateien zum hochladen.
Stand jetzt sind es auch schon 43 Dateien.

pschoefer
24.10.2013, 09:30
Uploads funktionieren wieder.

Treti
29.11.2013, 20:08
Arbeit, Arbeit, Arbeit.... :)

[SG] MO
29.11.2013, 20:25
Jep :thumbup:;)

VG
MO

AxelS
29.11.2013, 20:35
Super, na endlich :thumbup:

Treti
30.11.2013, 13:52
aber aktuell kann man zur Lauf- und Restzeitberechnung der WUs nur sagen: für die Tonne. Sowohl auf dem I7 2600k (WIN 7 64) als auch auf dem Q6600 (WIN XP)

Bsp: 67,7% in 6:24h, Restzeitanzeige: 1:24h, der Rest war/ist aber vergleichbar.

Bei euch auch so?

AxelS
30.11.2013, 16:07
Die Restzeitberechnung von BOINC kann man getrost ignorieren. Bei meinen wutzen betrugen die Laufzeiten zuletzt zwischen 34 und 32100 sec. Da kann der schon mal durcheinander kommen.

[SG] NEYTIRI
30.11.2013, 18:56
HI,

bei uns laufen die WU`s auch total unterschiedlich lang. ;)

Viele Grüße
NEYTIRI:x)

AxelS
01.12.2013, 12:31
Ich fürchte das war schon wieder... :x)


boinctask - Nachrichten

2563 LHC@home 1.0 01.12.2013 12:24:50 Requesting new tasks for CPU
2564 LHC@home 1.0 01.12.2013 12:24:53 Scheduler request completed: got 0 new tasks
2565 LHC@home 1.0 01.12.2013 12:24:53 Project has no tasks available

[SG] MO
01.12.2013, 13:03
Jep ... http://lhcathomeclassic.cern.ch/sixtrack/server_status.php


VG
MO:x)

bossmaniac
20.12.2013, 20:30
Neuer stoß WUtzen zu haben.

Treti
05.03.2014, 14:53
aktuell schmeißt LHC wieder mit WUs um sich. Also langt zu :)

lukesh
05.03.2014, 15:34
nein, alles meins!

aber mal im ernst, LHC scheint seit ein paar wochen halbwegs aktiv zu sein. alle paar tage gibts akzeptable WU schübe.

AxelS
08.03.2014, 22:04
Und schon ist Sixtrack wieder leer gerechnet ;)


08-Mar-2014 14:48:44 [LHC@home 1.0] Requesting new tasks for CPU
08-Mar-2014 14:48:46 [LHC@home 1.0] Scheduler request completed: got 0 new tasks
08-Mar-2014 14:48:46 [LHC@home 1.0] Project has no tasks available

pschoefer
06.04.2014, 10:44
Nun gibt es schon seit einigen Tagen eine Flut von WUs mit annehmbaren Laufzeiten im Bereich einiger Stunden. Ein Ende ist noch immer nicht in Sicht, aktuell warten fast 400k WUs auf den Versand. :cool:

Christoph D.
08.04.2014, 17:48
ab und an lasse ich auch bei LHC rechnen aber, da öffters ich keine WUs bekommen habe rechne ich auch weiter bei meinen anderen Projekten .

AxelS
08.04.2014, 22:49
Schön, daß die Wutzen-Flut derzeit anhält, so komme ich meinem Ziel immer näher ;)

Christoph D.
09.04.2014, 16:32
irgend wie bekomme ich immer noch keine WUs bei LHC@Home Laut Server steht da weniger Arbeit als Aktive Recher.

pschoefer
03.10.2014, 09:15
Derzeit gibt es etliche WUs, leider mit zu geringem erlaubten Festplattenplatz. Sehr viele laufen nach 20-30 Minuten in den Fehler EXIT_DISK_LIMIT_EXCEEDED. :sad:

Nullinger
03.10.2014, 12:08
Yep, geht mir auch so.

HJL
04.10.2014, 05:03
hier steht was dazu ;)

http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=3874

http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=3873

:x) hl

DaMe
03.12.2014, 15:54
Volunteer computing: 10 years of supporting CERN through LHC@home
http://www.isgtw.org/feature/volunteer-computing-10-years-supporting-cern-through-lhchome

Grubix
29.01.2015, 11:27
Wohnt von euch jemand in der Nähe des Cern?
Könnte der so lieb sein kurz vorbeizufahren und denen eine größere Festplatte bringen? :twisted:


LHC@home 29.01.2015 10:44:36 Sending scheduler request: To report completed tasks.
LHC@home 29.01.2015 10:44:36 Reporting 3 completed tasks, not requesting new tasks
LHC@home 29.01.2015 10:44:37 [error] Error reported by file upload server: Server is out of disk space
LHC@home 29.01.2015 10:44:37 [error] Error reported by file upload server: Server is out of disk space
LHC@home 29.01.2015 10:44:37 Temporarily failed upload of w2_jobhllhc10_sflat_000_w2__11__s__62.31_60.32__16 _18__5__15_1_sixvf_boinc23058_0_0: transient upload error
LHC@home 29.01.2015 10:44:37 Backing off 5 min 25 sec on upload of w2_jobhllhc10_sflat_000_w2__11__s__62.31_60.32__16 _18__5__15_1_sixvf_boinc23058_0_0
LHC@home 29.01.2015 10:44:37 Temporarily failed upload of w2_jobhllhc10_sflat_000_w2__11__s__62.31_60.32__22 _24__5__75_1_sixvf_boinc23099_1_0: transient upload error
LHC@home 29.01.2015 10:44:37 Backing off 5 min 40 sec on upload of w2_jobhllhc10_sflat_000_w2__11__s__62.31_60.32__22 _24__5__75_1_sixvf_boinc23099_1_0
LHC@home 29.01.2015 10:44:37 Computation for task w3_jobhllhc10_sround_000_w3__31__s__62.31_60.32__1 4_16__5__82.5_1_sixvf_boinc25476_0 finished
LHC@home 29.01.2015 10:44:37 Scheduler request completed
LHC@home 29.01.2015 10:44:39 Started upload of w3_jobhllhc10_sround_000_w3__31__s__62.31_60.32__1 4_16__5__82.5_1_sixvf_boinc25476_0_0
LHC@home 29.01.2015 10:44:40 [error] Error reported by file upload server: Server is out of disk space
LHC@home 29.01.2015 10:44:40 Temporarily failed upload of w3_jobhllhc10_sround_000_w3__31__s__62.31_60.32__1 4_16__5__82.5_1_sixvf_boinc25476_0_0: transient upload error
LHC@home 29.01.2015 10:44:40 Backing off 3 min 1 sec on upload of w3_jobhllhc10_sround_000_w3__31__s__62.31_60.32__1 4_16__5__82.5_1_sixvf_boinc25476_0_0
LHC@home 29.01.2015 10:44:41 Started upload of w200_HLLHC_RFcav_scanb3_50000.BOINC__53__s__62.31_ 60.32__12_14__5__52.5_1_sixvf_boinc12366_1_0
LHC@home 29.01.2015 10:44:41 Started upload of w200_HLLHC_RFcav_scanb3_50000.BOINC__59__s__62.31_ 60.32__10_12__5__43.5_1_sixvf_boinc13717_0_0
LHC@home 29.01.2015 10:44:42 [error] Error reported by file upload server: Server is out of disk space
LHC@home 29.01.2015 10:44:42 [error] Error reported by file upload server: Server is out of disk space

Danke, Grubix. ;)

iz-germany-timo
29.01.2015, 15:29
uuuund das zweite Projekt was im Upload festhängt:wall:

Oliver Deisenroth
29.01.2015, 16:57
Jap, mit dem Upload/Download (eher Download - Datei wurde nicht mehr heruntergeladen) gab es bei mir auch Probs, so dass ich gestern das Projekt zurückgesetzt hatte. Jetzt gibt's gar keine WUs mehr, andere Projekte ohne Probleme.

Edit: http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=3911 (Entschuldigung von Eric - die Festplatte ist wohl voll :D:D )

iz-germany-timo
29.01.2015, 18:26
juhuuu...läuft wieder *STIMMUNG*
Solange SCG beim Charity Event schwächelt, schnell mal paar Wutzen von LHC wegknuspern:D

fromdusk
31.01.2015, 19:29
Alle WU´s sind verteilt... Hoffe es kommt noch etwas nach :rtfm:

BlueUniverse
11.02.2015, 12:53
Hi Leute,

ich hab von LHC diese Meldung erhalten als ich neue Arbeit anfordern wollte.

11.02.2015 12:45:40 | LHC@home 1.0 | Giving up on download of sixtrack_win32_4517_sse2.exe: permanent HTTP error


Was will mir das sagen? Ich hoffe ja nicht, dass der Fehler auf meiner Seite zu finden ist...:undecided:

Grüßle, Susanne

Stargazer
11.02.2015, 12:55
Wenn bei Dir das Internet soweit funktioniert, ist die Webseite - bzw der Webserver vom Projekt - gerade offline. Mehr nicht. ;)

Oder um es anders zu sagen: The server you've called is temporarely not available. Please try later again. ^^


Beim Aufruf der Webseite würde ich mal sagen.... Der 'Fehler' besteht dort. :)

Nullinger
11.02.2015, 12:56
Hi Susanne, derzeit gibts ne Menge Download-Fehler. Ist bei mir das gleiche.
Liegt wohl am Server.

BlueUniverse
11.02.2015, 13:58
Da bin ich sehr beruhigt, vielen lieben Dank [emoji3] [emoji106]

Gesendet von meinem GT-I9505 mit Tapatalk

fromdusk
23.03.2015, 15:22
Servus zusammen,

aktuell ist die Versorgung mit WU´s gesichert. Noch über 100.000 WU´s stehen bereit und es kommen immer wieder neue hinzu. Wer die gesicherte Versorgung nutzen möchte sollte jetzt auf LHC umstellen.

Die Laufzeiten variieren von 10min - 8 Stunden. Viel Spass beim knuspern :x)

Viele Grüße

HJL
23.03.2015, 18:22
ich klemm mich mal für ein paar Tage mit rein,
benötige dort noch ein paar tsd. Std. :cheesy:

:x) hl

Oliver Deisenroth
29.03.2015, 18:53
Zitiere "CERN: Bald geht's rund": http://www.heute.de/teilchenbeschleuniger-lhc-am-cern-startet-mit-mehr-energie-37698628.html :x)

Melbar
05.04.2015, 11:39
http://www.spiegel.de/wissenschaft/technik/cern-neustart-weltmaschine-lhc-laeuft-wieder-a-1027139.html

Zeit zum Feiern - und gebt den Jungs und Mädels am CERN jede CPU-Power, die ihr erübrigen könnt!

Grubix
05.04.2015, 12:41
Für alle die davon träumen einmal ihren eigenen Beschleuniger zu bauen: Der Traum könnte bald wahr werden, mit dem LHC von LEGO (https://ideas.lego.com/projects/94885). :cheesy:

Ich finde die Idee witzig, im LHC-Forum wurde im Thread "Build your own Lego LHC (http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=3930)" auch schon Werbung dafür gemacht.

Schöne Ostern, Grubix. :x)

schensi
05.04.2015, 14:14
Stutzig macht mich nur , daß der Fred am 1.April gestartet wurde ... :D

Grubix
05.04.2015, 14:51
Das hatte ich ursprünglich auch gedacht und erst einen Tag später die Geschichte genau gelesen. :thumbup:

Diese Umfragen über neue Ideen/Bausätze gibt es bei LEGO schon länger. Jeder kann dort seine eigenen Ideen vorstellen und darüber abstimmen lassen.

Bis denn dann, Grubix.

pschoefer
15.05.2015, 23:45
Nun haben wir es auch in die News geschafft:

News 15th May, 2015
As many of you know LHC@home has been selected to host the Sprint event of the BOINC Pentathlon organised by Seti.Germany. Information can be found at http://www.seti-germany.de/boinc_pentathlon/22_en_Welcome.html The event starts at midnight and will last for three days.

This is rather exciting for us and will be a real test of our BOINC server setup at CERN. Although this is the weekend following Ascension my colleagues are making a big effort to submit lots of work, and I am seeing a new record number of active WUs every time I look. The latest number was over 270,000 and the Sprint has not yet officially started.

We have done our best to be ready without making any last minute changes and while this should be fun I must confess to being rather worried about our infrastructure. We shall see.

We still have our problems, for a year now.

I am having great difficulties building new executables since Windows XP was deprecated and I am now tring to switch to gfortran on Cygwin. It would seem to be appropriate to use the free compiler on our volunteer project.

We are seeing too many null/empty result files. While an empty result can be valid if the initial conditions for tracking are invalid, I am hoping to treat these results as invalid. These errors are making it extremely difficult for me to track down the few real validated but wrong results. I have seen at least one case where a segment violation occurred, a clear error, but an empty result was returned. The problem does not seem to be OS or hardware or case dependent.

I am also working on cleaning the database of ancient WUs. We had not properly deprecated old versions of executables until very recently.

I am currently using boinctest/sixtracktest to try a SixTrack which will return the full results giving more functionality and also allowing a case to be automatically handled as a series of subcases.

Then we must finally get back MacOS executables, AVX support, etc

Still an enormous amount of production is being carried out successfully thanks to your support.

I shall say no more until we see how it goes for the next three days. Eric.
15 May 2015, 20:34:20 UTC

Neuigkeiten vom 15. Mai 2015
Wie viele von euch wissen, wurde LHC@home für die Sprint-Disziplin des von SETI.Germany organisierten BOINC Pentathlons ausgesucht. Informationen dazu können unter http://www.seti-germany.de/boinc_pentathlon/22_en_Welcome.html gefunden werden. Die Veranstaltung beginnt um Mitternacht und dauert drei Tage.

Das ist ziemlich spannend für uns und wird ein richtiger Test für unser BOINC-Server-Setup am CERN sein. Obwohl dies das Wochenende nach Himmelfahrt ist, unternehmen meine Kollegen große Anstrengungen, um große Mengen Arbeit einzuspeisen, und ich sehe jedes Mal einen neuen Rekord aktiver WUs, wenn ich nachsehe. Die letzte Zahl war über 270000 und der Sprint hat noch nicht einmal offiziell begonnen.

Wir haben unser bestes getan, ohne irgendwelche Änderungen in letzter Minute vorzunehmen, und obwohl dies Spaß sein sollte, muss ich zugeben, dass ich recht besorgt um unsere Infrastruktur bin. Wir werden sehen.

Wir haben noch immer unsere Probleme, jetzt seit über einem Jahr.

Ich habe große Schwierigkeiten neue Anwendungen zu bauen, da Windows XP veraltet ist und ich jetzt auf gfortran auf Cygwin umsteige. Es scheint passend, den freien Compiler für unser Freiwilligen-Projekt zu verwenden.

Wir sehen zu viele Null- bzw. leere Ergebnisdateien. Während ein leeres Ergebnis möglich ist, wenn die Anfangsbedingungen der Spuren unmöglich sind, hoffe ich, diese Ergebnisse als invalid behandeln zu können. Diese Fehler machen es mir sehr schwer, die wenigen wirklichen validierten, aber falschen Ergebnisse zu finden. Ich habe mindestens einen Fall gesehen, wo eine Segmentverletzung vorkam, ein klarer Fehler, aber ein leeres Ergebnis gemeldet wurde. Das Problem scheint nicht Betriebssystem-, Hardware- oder fallabhängig zu sein.

Ich arbeite auch daran, die Datenbank von uralten WUs zu reinigen. Wir haben alte Anwendungsversionen bis vor Kurzem nicht richtig deaktiviert.

Ich verwende momentan boinctest/sixtracktest, um ein SixTrack auszuprobieren, das die vollständigen Ergebnisse zurückgibt, was mehr Funktionalität mit sich bringt und außerdem erlaubt, einen Fall automatisch als Serie von Unterfällen zu behandeln.

Dann müssen wir endlich die MacOS-Anwendungen zurückbekommen sowie AVX-Unterstützung, etc.

Dennoch wird eine enorme Menge Arbeit erfolgreich durchgeführt dank eurer Unterstützung.

Ich sollte nichts weiteres sagen, bis wir sehen, wie es die nächsten drei Tage läuft. Eric.
15.05.2015, 21:34:20 MEZ

Grubix
16.05.2015, 00:12
Schönen Dank für die Info, echt genial das die Mitarbeiter vom LHC so hinter dem Pentathlon stehen. :thumbup:


Ich arbeite auch daran, die Datenbank von uralten WUs zu reinigen...
Oh, das hört sich ja gut an. :cheesy:

Bis denn dann, Grubix.

Freezing
16.05.2015, 11:48
find ich top dass ein Projektbetreiber da so mitmacht ;)

pschoefer
17.05.2015, 19:31
Es gibt noch eine Newsmeldung zu den berühmt-berüchtigten wzero-WUs:

Quorom of 5, wzero and Pentathlon
I am currently running a set of very important tests to try and find the cause of a few numerical differences between different platforms and executables. I could/would not do this usually but because of your efforts during the Pentathlon I have a unique opportunity. Also keeps up the workload and gives you all an opportunity to get credits. These test are wzero with a quorum of 5.
Thanks. Eric.
17 May 2015, 14:32:09 UTC

Quorum 5, wzero und der Pentathlon
Ich führe gerade eine Reihe sehr wichtiger Tests durch, um zu versuchen, den Grund für ein paar numerische Unterschiede zwischen verschiedenen Plattformen und Anwendungen zu finden. Ich könnte/würde dies normalerweise nicht tun, aber wegen eurer Anstrengungen während des Pentathlons habe ich diese einmalige Gelegenheit. Somit gibt es auch weiterhin genug Arbeit und ihr alle habt die Möglichkeit, Credits zu bekommen. Diese Tests sind wzero mit einem Quorum von 5.
Danke. Eric.
17.05.2015, 15:32:09 MEZ

HJL
17.05.2015, 19:54
Zitat:
.... und ihr alle habt die Möglichkeit, Credits zu bekommen.

das klingt irgend wie so nach "vielleicht, in ferner Zukunft" ... :D

:x) hl

Sysadm@Nbg
17.05.2015, 20:12
das klingt irgend wie so nach "vielleicht, in ferner Zukunft" ... :D
:x) hl

Hey, Zweckoptimismus !!!
bloß keine pessimistische Stimmung verbreiten
http://junialeigh.files.wordpress.com/2010/10/8pysozionbxlkxqwy8qg6cgd_500.jpg

Isenherz
17.05.2015, 22:16
Wenigstens geben sie bescheid und machen sich ein paar Gedanken. Ich hab zwar auf die WUs geschimpft, werde aber denke ich für das Projekt weiter rechnen.

totoshi
18.05.2015, 08:13
Ich hatte mir auch vorgenommen, dass ich nach dem Pentathlon wieder primär auf medizinische bzw. semi-medizinische Projekte umschwenke - allerdings gefällt mir die Art und Weise der Kommunikation, so dass ich hier ebenfalls noch ein wenig weiterrechnen werde.

arctic light
18.05.2015, 19:20
So was ist halt ärgerlich: http://lhcathomeclassic.cern.ch/sixtrack/workunit.php?wuid=32828183

Zwei Rechner haben die wzero komplett berechnet, aufgrund zu vieler Fehler und Abbrüche wird aber nichts validiert, da die maximale Anzahl von 10 erreicht wurde. Hab die WU bei mir jetzt auch abgebrochen, 6h für nix.

Grubix
18.05.2015, 20:47
Genau solche Fälle habe ich befürchtet. Ich hoffe das es bei LHC möglich ist diese WUs auszufiltern um ihnen ein zweites Leben (oder besser nochmal 10 ;)) zu schenken. Naja, wir werden sehen...

Bis denn dann, Grubix.

fromdusk
18.05.2015, 21:28
Wieder ein sehr schönes Beispiel wie eine Gemeinschaft funktionieren kann. Unsere Freude am Event ist deren Nutzen. Einfach :thumbup:

Vielen Dank an die Organisatoren des Pentathlons und das LHC Team.

[SG]_Jupp
18.05.2015, 21:49
Auch mein Dank an alle Organisatoren des Pentathlons und das LHC Team. :thumbup:

Isenherz
20.05.2015, 10:25
Gibt es zu dieser Problematik, mittlerweile neu Informationen?

Grubix
20.05.2015, 11:38
Du meinst die abgebrochenen WUs, die dadurch in die maximale Fehlerzahl laufen? Im LHC-Forum wurde dazu bisher nichts geschrieben. Die Projektbetreiber wurden auf das Problem aber bereits hingewiesen. Das Beispiel von arctic light zeigt, dass sich konkret noch nichts getan hat. Dafür wäre es IMHO noch zu früh (s.u.).

Der Serverstatus sieht im Moment auch etwas "merkwürdig" aus, könnte ein Hinweis darauf sein das was in Vorbereitung ist. Das ist aber nur eine Vermutung.

Der große Schwung an abgebrochenen WUs wird aber erst noch kommen. Erfahrungsgemäß werden von vielen Usern die überzähligen WUs nicht abgebrochen (was im Verhältnis noch gut wäre), sondern einfach gelöscht oder liegen gelassen. Zwischen dem 22. und 24. dürfte die Deadline von zahlreichen Pentathlon WUs auslaufen. Dann sieht man genauer wie viele dadurch die maximale Fehlerzahl erreicht haben.

Bis denn dann, Grubix.

Isenherz
21.05.2015, 21:27
Du meinst die abgebrochenen WUs, die dadurch in die maximale Fehlerzahl laufen? Im LHC-Forum wurde dazu bisher nichts geschrieben. Die Projektbetreiber wurden auf das Problem aber bereits hingewiesen. Das Beispiel von arctic light zeigt, dass sich konkret noch nichts getan hat. Dafür wäre es IMHO noch zu früh (s.u.).

Der Serverstatus sieht im Moment auch etwas "merkwürdig" aus, könnte ein Hinweis darauf sein das was in Vorbereitung ist. Das ist aber nur eine Vermutung.

Der große Schwung an abgebrochenen WUs wird aber erst noch kommen. Erfahrungsgemäß werden von vielen Usern die überzähligen WUs nicht abgebrochen (was im Verhältnis noch gut wäre), sondern einfach gelöscht oder liegen gelassen. Zwischen dem 22. und 24. dürfte die Deadline von zahlreichen Pentathlon WUs auslaufen. Dann sieht man genauer wie viele dadurch die maximale Fehlerzahl erreicht haben.

Bis denn dann, Grubix.

Ok, danke für die Informationen.

arctic light
23.05.2015, 14:02
Die von mir verlinkte WU ist weg, ich gehe also davon aus, dass die WUs mit maximaler Fehleranzahl aus der DB getilgt worden sind, ohne dass man sie nochmals berechnen lässt.

Isenherz
23.05.2015, 19:18
Bei mir wurde die mindest Anzahl runter gesetzt und dadurch mein Paket als ungültig makiert.

nexiagsi16v
27.05.2015, 21:01
gestern gab es eine wiederholung der doku mit ranga yogeshwar als er anno 2013 am LHC war. ich find den detektor echt beeindruckend....aber auch die leeren sektflaschen. :shocked:
http://http-ras.wdr.de/CMS2010/mdb/ondemand/weltweit/fsk0/23/230648/230648_2159974.mp4
ich weiß, in sehr alten beiträgen wurde die sendung schon aufgeführt, aber nicht jeder kramt im archiv. :D

pschoefer
14.06.2015, 11:16
Seit Donnerstag gab es ein Serverproblem, das aber inzwischen behoben ist (weshalb ich mir auch die Übersetzung der Projektnews dazu spare).

Ebenfalls behoben ist die Kürze des Projektartikels im Wiki (http://www.seti-germany.de/wiki/LHC@home). ;)

Grubix
06.09.2015, 21:27
Die Schlagseite aus dem c't Magazin 20/2015 (http://www.heise.de/ct/schlagseite/2015/20/) hat den LHC als Thema. :D

Jetzt suche ich nur noch eine Schere, dann kann es losgehen, Grubix. :cool:

Hoshione
28.12.2015, 21:51
Hallo zusammen, wollte mal fragen wie es mit dem Einladungscode für Beauty@LHC aussieht ?

Gruß

Hoshione:x)

pschoefer
16.03.2016, 08:00
Es sind zwei WU-Serien im Umlauf, die irgendwann in einen Fehler laufen, weil das Speicherplatz-Limit überschritten wird. Daher ist es sinnvoll, diese gleich abzubrechen:


Disk Space Exceeded
I am sorry we have submitted some "bad" WUs.
They are using too much disk space.
Please delete any WUS with names like
wjt-18-L1-trc......
wjt-15-L1-trc.......
Apologies.
16 Mar 2016, 6:15:12 UTC

Maximaler Speicherplatz überschritten
Leider haben wir einige "schlechte" WUs verschickt.
Sie brauchen zu viel Festplattenspeicher.
Bitte löscht alle WUs mit Namen wie
wjt-18-L1-trc......
wjt-15-L1-trc.......
Entschuldigung.
16.03.2016, 7:15:12 MEZ

Major
13.04.2016, 21:06
Im Cern scheint jemand den Stecker gezogen zu haben.
Schon seit einigen Stunden kein Kontakt mehr möglich.
Und das wo es doch zuletzt so schön zu tun gab. :cry:

Tante Edith sacht: läuft wieder ... zwar noch etwas zäh ... neue Arbeit ist auch wieder in Sicht ...

HJL
30.04.2016, 19:23
Cern hat sich entschlossen, die Daten des Large Hadron Colliders (LHC) aus dem Jahre 2011 auf
opendata.cern.ch (http://opendata.cern.ch/search?cc=CMS-Simulated-Datasets&jrec=1) zum Download bereitzustellen.

Wer sich das antun möchte, sollte sich aber von den "etwas" größeren Plattenformaten einen großen
Vorrat anlegen, sowie mit seinem Provider über die ganz dicken DSL-Leitungen reden.

Alles in allem stehen so etwa 300 TB an Daten bereit...

Da für die allermeisten von uns das ausserhalb ihrer Möglichkeiten liegt,
lege ich das ganze mal unter "nice to know" ab.

wer´s dennoch versuchen möchte,
viel Spaß,


PS: habe gerade noch gelesen, dass ein kleines Tierchen, welches normalerweise
nur Zündkabel und Gummi-Teile in KFZ´s annagt, den ganzen Collider lahmgelegt hat. Link
(http://www.focus.de/wissen/technik/reparaturen-werden-tage-dauern-schwere-stromstoerung-wiesel-legt-teilchenbeschleuniger-am-cern-lahm_id_5486551.html)
:x) hl

MichaelR
22.05.2016, 21:20
Hi zusammen, ich find den richtigen Tread momentan nicht, aber ich habe bei Beauty@LHC folgendes Problem:
22.05.2016 20:57:55 | Beauty@LHC | Scheduler request completed: got 1 new tasks
22.05.2016 20:57:57 | Beauty@LHC | Started download of vboxwrapper_26167_windows_x86_64.exe
22.05.2016 20:57:58 | Beauty@LHC | Giving up on download of vboxwrapper_26167_windows_x86_64.exe: permanent HTTP error

ich bekomme aus irgendwelchen Gründen den vboxwrapper nicht downloaded
hat jemand einen Rat?

pilotpirx
22.05.2016, 23:32
wenn man die download url aus der client_state.xml im Browser eingibt kommt folgende Meldung: "The requested URL /Beauty/download/vboxwrapper_26167_windows_x86_64.exe was not found on this server." würde mal sagen da ist was putt. :x)

MichaelR
23.05.2016, 18:36
Ok, danke für den Tipp, darauf bin ich ja gar nicht gekommen.

pschoefer
30.07.2016, 17:45
Es gibt einen neuen Beitrag dazu, woran die Wissenschaftler hinter SixTrack derzeit arbeiten und welche wichtige Rolle das BOINC-Projekt dabei spielt:


Projektneuigkeiten zu LHC@Home - SixTrack
Die Mitglieder des SixTrack-Projektes von LHC@Home (http://lhcathome.web.cern.ch/projects/sixtrack) möchten all den Freiwilligen danken, die uns ihre CPUs zur Verfügung gestellt haben! Euer Beitrag ist wertvoll, da wir in unserer Forschung einen recht großen Parameterraum durchsuchen müssen, um die besten Arbeitspunkte für unsere Maschinen zu finden, und dies ohne die Rechenleistung, die ihr alle uns anbietet, schwer möglich wäre!

Seit 2012 haben wir mit Leistungsmessungen mit dem Strahl begonnen, welche auf die Untersuchung der sogenannten "dynamischen Apertur" (DA) spezialisiert sind. Dies ist der Bereich im Phasenraum, wo sich Teilchen ohne einen großen Anstieg der Bewegungsamplitude bewegen können. Für große Maschinen wie den LHC ist dies ein wesentlicher Parameter für die Strahlstabilität und die Möglichkeit, über längere Zeit Daten aufzunehmen mit den riesigen LHC-Detektoren. Die Messungen werden mit numerischen Simulationen verglichen und an diesem Punkt spielt ihr eine wichtige Rolle! Derzeit stellen wir eine erste Simulationskampagne fertig und sind dabei, die Ergebnisse zusammenzuschreiben. Als nächstes werden wir die zweite Hälfte der gemessenen Daten auswerten, wofür eine neue Spurverfolgungskampagne benötigt werden wird. …also, bleibt dran!

Magnete sind die Hauptbestandteile eines Beschleunigers und Nichtlinearitäten in ihren Feldern haben direkten Einfluss auf die Strahlendynamik. Die Studien, die wir mit eurer Hilfe durchführen, konzentrieren sich nicht nur auf den aktuellen Betrieb des LHC, sondern auch auf dessen Erweiterung, den High Luminosity LHC (HL-LHC (http://hilumilhc.web.cern.ch/)). Der Aufbau der neuen Komponenten der Maschine ist kurz vor dem Abschluss und es ist sehr wichtig sicherzustellen, dass die Qualität der Magnetfelder der neu gebauten Komponenten der Erreichen der anspruchsvollen Projektziele erlaubt. Zwei Aspekte sind besonders wichtig:

Spezifikationen der Feldqualität der neuen Magnete. Das Kriterium zur Beurteilung, ob die Feldqualität eines Magnets akzeptabel ist, basiert auf der Berechnung der DA, welche größer als eine vorgegebene Untergrenze sein sollte. Die verschiedenen Magnet-Klassen werden nach und nach in den Simulationen hinzugefügt, der Einfluss auf die DA wird ausgewertet und die erwartete Feldqualität wird variiert, bis das Kriterium für die DA erfüllt ist.
Dynamische Apertur unter verschiedenen optischen Bedingungen, Auswertung des nichtlinearen Korrektursystems und Optimierung der Optik sind wesentliche Schritte bei der Bestimmung der Feldqualität-Ziele für die Konstrukteure der Magneten sowie der Auswertung und Optimierung der Strahlleistung.

An diesen Forschungen sind Beschleuniger-Physiker von CERN und SLAC beteiligt.


Langer Rede kurzer Sinn: Die Spurensimulationen, die wir durchführen, benötigen signifikante Rechenleistung und BOINC ist sehr hilfreich bei der Durchführung der Forschung. Vielen Dank für eure Hilfe!
Das SixTrack-Team


Neueste Publikationen:

R. de Maria, M. Giovannozzi, E. McIntosh (CERN), Y. Cai, Y. Nosochkov, M-H. Wang (SLAC), DYNAMIC APERTURE STUDIES FOR THE LHC HIGH LUMINOSITY LATTICE, vorgestellt auf der IPAC 2015 (http://inspirehep.net/record/1417371?ln=en).
Y. Nosochkov, Y. Cai, M-H. Wang (SLAC), S. Fartoukh, M. Giovannozzi, R. de Maria, E. McIntosh (CERN), SPECIFICATION OF FIELD QUALITY IN THE INTERACTION REGION MAGNETS OF THE HIGH LUMINOSITY LHC BASED ON DYNAMIC APERTURE, vorgestellt auf der IPAC 2014 (https://inspirehep.net/record/1314176?ln=en)

Neueste Vorträge:

Y. Nosochkov, Dynamic Aperture and Field Quality, DOE review of LARP, FNAL, USA, July 2016
Y. Nosochkov , Field Quality and Dynamic Aperture Optimization, LARP HiLumi LHC collaboration meeting, SLAC, USA, May 2016
M. Giovannozzi, Field quality update and recent tracking results, HiLumi LHC LARP annual meeting, CERN, October 2015
Y. Nosochkov, Dynamic Aperture for the Operational Scenario Before Collision, LARP HiLumi LHC collaboration meeting, FNAL, USA, May 2015
26.07.2016, 9:37:55 MEZ


Originaltext:

LHC@Home - SixTrack Project News
The members of the SixTrack project from LHC@Home (http://lhcathome.web.cern.ch/projects/sixtrack) would like to thank all the volunteers who made their CPUs available to us! Your contribution is precious, as in our studies we need to scan a rather large parameter space in order to find the best working points for our machines, and this would be hard to do without the computing power you all offer to us!

Since 2012 we have started performing measurements with beam dedicated to probing what we call the “dynamic aperture” (DA). This is the region in phase space where particles can move without experiencing a large increase of the amplitude of their motion. For large machines like the LHC this is an essential parameter for granting beam stability and allowing long data taking at the giant LHC detectors. The measurements will be benchmarked against numerical simulations, and this is the point where you play an important role! Currently we are finalising a first simulation campaign and we are in the process of writing up the results in a final document. As a next step we are going to analyse the second half of the measured data, for which a new tracking campaign will be needed. …so, stay tuned!

Magnets are the main components of an accelerator, and non-linearities in their fields have direct impact on the beam dynamics. The studies we are carrying out with your help are focussed not only on the current operation of the LHC but also on its upgrade, i.e. the High Luminosity LHC (HL-LHC (http://hilumilhc.web.cern.ch/)). The design of the new components of the machine is at its final steps, and it is essential to make sure that the quality of the magnetic fields of the newly built components allow to reach the highly demanding goals of the project. Two aspects are mostly relevant:

specifications for field quality of the new magnets. The criterion to assess whether the magnets’ filed quality is acceptable is based on the computation of the DA, which should larger than a pre-defined lower bound. The various magnet classes are included in the simulations one by one and the impact on DA is evaluated and the expected field quality is varied until the acceptance criterion of the DA is met.
dynamic aperture under various optics conditions, analysis of non-linear correction system, and optics optimisation are essential steps to determine the field quality goals for the magnet designers, as well as evaluate and optimise the beam performance.

The studies involve accelerator physicists from both CERN and SLAC.


Long story made short, the tracking simulations we perform require significant computer resources, and BOINC is very helpful in carrying out the studies. Thanks a lot for your help!
The SixTrack team


Latest papers:

R. de Maria, M. Giovannozzi, E. McIntosh (CERN), Y. Cai, Y. Nosochkov, M-H. Wang (SLAC), DYNAMIC APERTURE STUDIES FOR THE LHC HIGH LUMINOSITY LATTICE, Presented at IPAC 2015 (http://inspirehep.net/record/1417371?ln=en).
Y. Nosochkov, Y. Cai, M-H. Wang (SLAC), S. Fartoukh, M. Giovannozzi, R. de Maria, E. McIntosh (CERN), SPECIFICATION OF FIELD QUALITY IN THE INTERACTION REGION MAGNETS OF THE HIGH LUMINOSITY LHC BASED ON DYNAMIC APERTURE, Presented at IPAC 2014 (https://inspirehep.net/record/1314176?ln=en)

Latest talks:

Y. Nosochkov, Dynamic Aperture and Field Quality, DOE review of LARP, FNAL, USA, July 2016
Y. Nosochkov , Field Quality and Dynamic Aperture Optimization, LARP HiLumi LHC collaboration meeting, SLAC, USA, May 2016
M. Giovannozzi, Field quality update and recent tracking results, HiLumi LHC LARP annual meeting, CERN, October 2015
Y. Nosochkov, Dynamic Aperture for the Operational Scenario Before Collision, LARP HiLumi LHC collaboration meeting, FNAL, USA, May 2015
26 Jul 2016, 8:37:55 UTC

MichaelR
08.12.2016, 18:18
Hi zusammen,
ich bekomme seit einiger Zeit bei LHC und vLHCathome keine WU mehr durch, das heißt sie brechen nach ca 11 min ab.
https://lhcathome.cern.ch/lhcathome/result.php?resultid=109577242
Stderr- Ausgabe:
2016-12-08 16:55:46 (9104): VM Heartbeat file specified, but missing.
2016-12-08 16:55:46 (9104): VM Heartbeat file specified, but missing file system status. (errno = '2')


Boinc mit VB schon neu installiert, Erweiterungspacks, äm halt erweitert, Oracle VB als Solo ohne Boinc auf den PC, Projekte neu im BM angemeldet
VB Dateileichen gesucht,aber keine gefunden. Google und diverse Foren durchsucht (natürlich zuerst unseres
Ich meinte mich dunkel erinnern zu können das es mit VB Dateiresten zusammenhängt , finde aber die Beiträge nicht mehr
Ich bin momentan echt ratlos was ich noch ändern,machen könnte.

taurec
08.12.2016, 18:38
Hi zusammen,
ich bekomme seit einiger Zeit bei LHC und vLHCathome keine WU mehr durch, das heißt sie brechen nach ca 11 min ab.
https://lhcathome.cern.ch/lhcathome/result.php?resultid=109577242
Stderr- Ausgabe:
2016-12-08 16:55:46 (9104): VM Heartbeat file specified, but missing.
2016-12-08 16:55:46 (9104): VM Heartbeat file specified, but missing file system status. (errno = '2')


Boinc mit VB schon neu installiert, Erweiterungspacks, äm halt erweitert, Oracle VB als Solo ohne Boinc auf den PC, Projekte neu im BM angemeldet
VB Dateileichen gesucht,aber keine gefunden. Google und diverse Foren durchsucht (natürlich zuerst unseres
Ich meinte mich dunkel erinnern zu können das es mit VB Dateiresten zusammenhängt , finde aber die Beiträge nicht mehr
Ich bin momentan echt ratlos was ich noch ändern,machen könnte.

Servus MichaelR,
rechnest du mehrere WUs gleichzeitig auf dem Rechner? Evtl. könnte RAM knapp sein. So ne CMS belegt scho a weng Speicher ....

- - - Aktualisiert - - -

Michl, ist dein Rechner dauernd online?

MichaelR
08.12.2016, 19:42
na ja, 16GB Ram sollten reichen,eigentlich. aber auch wenn ich nur eine berechne nach 11mi,14 sec ist schluss:(

und ja dauernd online

pilotpirx
08.12.2016, 20:50
Hi zusammen,
ich bekomme seit einiger Zeit bei LHC und vLHCathome keine WU mehr durch, das heißt sie brechen nach ca 11 min ab.
https://lhcathome.cern.ch/lhcathome/result.php?resultid=109577242
Stderr- Ausgabe:
2016-12-08 16:55:46 (9104): VM Heartbeat file specified, but missing.
2016-12-08 16:55:46 (9104): VM Heartbeat file specified, but missing file system status. (errno = '2')


Boinc mit VB schon neu installiert, Erweiterungspacks, äm halt erweitert, Oracle VB als Solo ohne Boinc auf den PC, Projekte neu im BM angemeldet
VB Dateileichen gesucht,aber keine gefunden. Google und diverse Foren durchsucht (natürlich zuerst unseres
Ich meinte mich dunkel erinnern zu können das es mit VB Dateiresten zusammenhängt , finde aber die Beiträge nicht mehr
Ich bin momentan echt ratlos was ich noch ändern,machen könnte.

schau mal in diesen beiden Foren, bei dev wird möglicherweise was zu finden sein

http://lhcathome2.cern.ch/vLHCathome/forum_index.php
http://lhcathomedev.cern.ch/vLHCathome-dev/forum_index.php

MichaelR
28.12.2016, 13:33
Fehler gefunden, es war (vermutlich) ein Verbindungsproblem aus der VM in das "normale" Computernetzwerk und damit ins Internet. Obwohl aus einer Gastsitzung heraus jederzeit zugriff auf das I-net war, konnte die VM-Boinc eben nicht auf das I-Net zugreifen und damit die geforderten HTTP-Pings beim Starten der VM zum CERN-Server durchführen. Ergo= abbruch der WU nach 11 Minuten.
Der VirtualBox Host-Only Ethernet Adapter sollte IP-Adresse automatisch beziehen und in der VM das selbige, wobei dort auf -Einstellungen-Netzwerk-Adapter1 die Netzwerkbrücke ausgewählt sein sollte.
Obwohl ich das ganze x-mal kontroliert habe und die Einstellungen so waren,haben sich die falschen Einstellungen irgenwie im Hintergrund durchgemogelt,oder so:lam:
Boinc und VM und PC-Neustart nix hat geholfen, Per regedit alles was mit VM zu tun hat runtergeschmissen..... frust, man hat ja nichts anderes zu tun:wall:
Aber jetzt gehts wieder.

Stargazer
28.12.2016, 18:01
Ahhhja - nu weiß ich wenigstens, woran es bei mir lag, dass Atlas@home in der VM nicht funktionieren mochte (auch so ein Heart-dingenz-Error). Ich löste den Spass, indem ich bei Oracle die aktuellste VM-Version lud und einfach über die via Boinc mitgelieferte VM drüberbügelte... Die arbeitete dann auf Anhieb.

MichaelR
28.12.2016, 18:52
Bei mir eben nicht und das hat mich gewaltig geärgert,erst die Totallöschung hat geholfen.

MichaelR
09.01.2017, 15:10
Mal ne frage, wer rechnet den noch bei "LHC@home 1.0" und könnte mir die Anmelde-URL schreiben?
Ich finde die nirgens mehr.

pschoefer
09.01.2017, 15:24
Mal ne frage, wer rechnet den noch bei "LHC@home 1.0" und könnte mir die Anmelde-URL schreiben?
Ich finde die nirgens mehr.
Das gibt es auch nicht mehr als eigenständiges Projekt. Die LHC-Projekte werden allesamt unter einem Dach (https://lhcathome.cern.ch/lhcathome/) zusammengeführt, das ursprüngliche LHC@home (1.0) ist dort das Subprojekt SixTrack (das einzige, das ohne vbox funktioniert).

MichaelR
09.01.2017, 15:43
Hmm,
warum erscheinen dann bei WUprop zwei LHC, einmal als LHC@Home und einmal als LHC@Home 1.0
LHC@home 1.0 CMS Simulation 646
LHCb Simulation 1
Theory Simulation 242

pschoefer
28.04.2017, 08:35
Das Projekt hat ein wenig aufgerüstet, um größeren Andrang bei den Dateitransfers vertragen zu können:

Neuer Dateiserver
Wir haben einen neuen Dateiserver für Downloads und Uploads hinzugefügt, um mit höherer Last besser umgehen zu können. Sollte es Fehler beim Herunter- oder Hochladen von Aufgaben geben, meldet dies bitte im Forum.

Danke für eure Teilnahme an LHC@home!
26.04.2017, 15:00:48 MEZ

Originaltext:

New file server
We have added a new file server for download/upload to scale better with higher load. If there should be errors with download or upload of tasks, please report on the MBs.

Thanks for contributing to LHC@home!
26 Apr 2017, 14:00:48 UTC

Hoshione
05.05.2017, 22:43
Tach zusammen, da ich mich im Moment über einen neuen Rechenknecht freue da mein alter abgeraucht war, hab ich jetzt prompt ein Prob bei LHC@home. ich bekomme im Moment nach 1,611 % Abarbeitung ständig die gleiche Fehlermeldung : "Verschoben:VMHypervisor failed to enter an online state in a timely fashion." Ich hab versucht was bei LHC zu finden, aber scheinbar bin ich blind oder schlimmer :p

Hat jemand ne Idee was ich machen kann ? Herzlichen Dank für´s lesen und ggf. Antwort geben :D:x)

Gr. der Hoshi

Bullitt
06.05.2017, 11:45
Hatte ich auch. Ich gehe mittlerweile den VM Anwendungen aus dem Weg. Bei LHC kannst du die SixTrack Anwendung auswählen, die geht ohne VM. Im Pentathlon Thread hatten wir das Thema ja auch schon, bei Cosmology klappt es mit den VM auch eher schlecht.

lugu
06.05.2017, 12:04
Gibt es eigentlich Anzeichen dafür, dass irgendwann für die anderen Subprojekte auch Anwendungen entwickelt werden, die keine VirtualBox voraussetzen? Ich finde LHC@home eigentlich extrem spannend, hab aber überhaupt keinen Bock auf die VirtualBox.

pschoefer
06.05.2017, 12:40
Tach zusammen, da ich mich im Moment über einen neuen Rechenknecht freue da mein alter abgeraucht war, hab ich jetzt prompt ein Prob bei LHC@home. ich bekomme im Moment nach 1,611 % Abarbeitung ständig die gleiche Fehlermeldung : "Verschoben:VMHypervisor failed to enter an online state in a timely fashion." Ich hab versucht was bei LHC zu finden, aber scheinbar bin ich blind oder schlimmer :p

Hat jemand ne Idee was ich machen kann ? Herzlichen Dank für´s lesen und ggf. Antwort geben :D:x)
Es gibt eine sehr gute Anleitung (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4161) im LHC-Forum (ich hoffe, dass wir sowas irgendwann auch einmal in deutscher Sprache im Wiki haben werden). Bei dir hängt es wahrscheinlich an:
(Punkt 2 in der Checkliste) einer nicht ganz kompatiblen Version von VirtualBox (ATLAS empfiehlt 5.1.16 oder neuer, Berkeley bietet aber z.B. zusammen mit dem BOINC-Download brillianterweise die veraltete Version 5.0.18 an; man sollte also VirtualBox immer allein herunterladen (https://www.virtualbox.org/wiki/Downloads), nicht im Paket mit BOINC)
(Punkt 4) Hardwarevirtualisierung im BIOS nicht aktiviert



Gibt es eigentlich Anzeichen dafür, dass irgendwann für die anderen Subprojekte auch Anwendungen entwickelt werden, die keine VirtualBox voraussetzen? Ich finde LHC@home eigentlich extrem spannend, hab aber überhaupt keinen Bock auf die VirtualBox.
Naja, beim Testprojekt gibt es die ATLAS-Anwendung auch ohne vbox. Das setzt dann voraus, dass man ein Linux verwendet und sich selbst um all die Software-Abhängigkeiten kümmert, die man in der vbox einfach mitgeliefert bekommt. Das macht das 'aber' in 'ja, aber' so groß, dass man deine Frage vielleicht besser gleich mit 'nein' beantworten sollte. ;)

walker123
06.05.2017, 13:27
War bei mir mit cosmo genau der gleiche fall ... Die Installation von boinc mit der alten Version und dieser Fehler tritt auf ! Neue Version von virtuell Box und alles ist gut !

Gesendet von meinem HTC One mit Tapatalk

Hoshione
06.05.2017, 20:58
Na dann sag ich mal ganz brav Danke für die vielen Info´s :D Werde das mal alles checken und sehen ob ich das so hinbekomme ;)

Ciao:x)

Flaeminger
08.05.2017, 12:40
Ich würde mich gerne mit meinem aktuellen Rechner (Account vorhanden) anmelden, bekomme jedoch immer die Meldung:
"Anmeldung fehlgeschlagen" im Anmeldefenster des BOINC-Managers.
Ich bin mal wieder zu dumm....

walker123
08.05.2017, 12:43
Da gibt's je zweite Seite vom lhc da funktioniert es ! Ist bei mir das gleiche ! Wenn du über Google suchst die erste zweite Seite !

Gesendet von meinem HTC One mit Tapatalk

taurec
08.05.2017, 12:46
https://lhcathome.cern.ch/lhcathome/

Flaeminger
08.05.2017, 13:20
https://lhcathome.cern.ch/lhcathome/

Hatt ich, geht nich

XSmeagolX
09.05.2017, 07:46
Geht mir genauso.... bekomme das Projekt nicht zugefügt.

shka
09.05.2017, 09:10
Und was macht ihr falsch? Der BM sagt euch das doch?

XSmeagolX
09.05.2017, 10:35
Wenn man https://lhcathome.cern.ch/lhcathome nutzt, klappt es....

Also mit https.... ich nutze Boinctasks... da wurde nur http://.... vorgewählt

Flaeminger
09.05.2017, 10:36
Mein BM ist sooooo alt, da gibt es noch Adresse


http://lhcathome.cern.ch/

Deshalb manuelles hinzufügen.....

Geht trotzdem nicht :-(

cozmic
09.05.2017, 11:43
Bei mir gehts weder mit https noch mit http... authentication error.

- - - Aktualisiert - - -


Mein BM ist sooooo alt, da gibt es noch Adresse


http://lhcathome.cern.ch/

Deshalb manuelles hinzufügen.....

Nee, scheint an der Authentisierung zu liegen, unter Linux meldet er 225 Authentication error... Egal wie und wo.

KidDoesCrunch
09.05.2017, 16:29
Also ich habe gerade an einem Rechner LHC hinzu genommen. Über die normale Adresse "http://lhcathome.cern.ch/". Das hat mit meinem Username und Password auf Anhieb geklappt und auch sofort eine WU bekommen.
Jetzt habe ich 31 Threads Cosmo und 1 LHC :-)

pons66
09.05.2017, 21:45
lhc-Server ist leergesaugt. Oder es war ein schwarzes Loch? :)

pschoefer
11.05.2017, 00:05
Nee, scheint an der Authentisierung zu liegen, unter Linux meldet er 225 Authentication error... Egal wie und wo.
Nutzt du auf den Rechnern, wo es nicht klappt, eventuell eine ältere BOINC-Version? Das ist zumindest eine Idee der CERN-Leute in dem von dir erstellten Thread (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4262&postid=30264#30264).


lhc-Server ist leergesaugt. Oder es war ein schwarzes Loch? :)
Nun gibt es wieder reichlich und es wird immer mehr. Aber auch der LHC arbeitet mit endlicher Energie. ;)

pschoefer
26.05.2017, 18:59
Trotz der Probleme mit der WU-Versorgung insbesondere an den letzten beiden Tagen war das Schwimmen im Genfer See im Rahmen des BOINC Pentathlon ein voller Erfolg für das Projekt. Klar erkennen lässt sich der Einfluss des Pentathlons schon am Verlauf der Zahl der in Bearbeitung befindlichen WUs:
https://lhcathome.cern.ch/lhcathome/8th_Pentathlon.png

Nun gibt es auch noch eine Nachricht von den Menschen hinter dem am stärksten betroffenen Subprojekt SixTrack:

SixTrack-Neuigkeiten - Mai 2017
Das SixTrack-Team möchte allen Teams danken, die am von SETI.Germany veranstalteten BOINC Pentathlon 2017 teilgenommen haben:
https://www.seti-germany.de/boinc_pentathlon/
wobei LHC@Home für die Disziplin Schwimmen ausgesucht wurde. Der Pentathlon gab uns die Möglichkeit, eine riesige Simulationskampagne durchzuführen, bei der eine Menge Ergebnisse erzeugt wurden, die wir nun auswerten. Während die LHC-Experimente den Freiwilligen Aufgaben, in denen von den LHC-Detektoren gesammelte Daten ausgewertet werden müssen, oder Monte-Carlo-Codes zur Datenerzeugung schicken, untersuchen SixTrack-Workunits die Dynamik der Strahlen im LHC; somit läuft auf euren Rechnern ein Live-Modell des LHC, um sein Potenzial zu untersuchen, ohne Zeit an der echten LHC-Maschine zu benutzen, was wertvoll für die Physik ist.

Euer Beitrag zu unseren Untersuchungen ist essentiell. Wir haben beispielsweise insgesamt ~2,5 Millionen WUs und in der Spitze etwas über 400000 WUs gleichzeitig bearbeitet und mehr als 50 TFLOPs in den gesamten zwei Wochen des Pentathlons erreicht. Der Pentathlon war auch die Gelegenheit, kürzliche Verbesserungen unserer Server-Infrastruktur zu überprüfen. Nach dieser wertvollen Erfahrung konzentrieren wir unsere Energie nun darauf, die Anwendungen zu aktualisieren mit brandneuer Funktionalität und dadurch den Bereich der Untersuchungen und der unterstützten Systeme zu erweitern. Das bedeutet eine noch größere Abhängigkeit von eurer wertvollen Unterstützung.

Vielen Dank an alle beteiligten Leute! Wir zählen auf eure Hilfe und euer Engagement für die Wissenschaft und LHC@home, um den vor uns liegenden neuen Herausforderungen der Strahlendynamik nachzugehen.
26.05.2017, 15:43:25 MEZ

Originaltext:

SixTrack News - May 2017
The SixTrack team would like to thank all the teams who took part in the 2017 pentathlon hosted by SETI.Germany:
https://www.seti-germany.de/boinc_pentathlon/
where LHC@Home was chosen for the swimming discipline. The pentathlon gave us the possibility of carrying out a vast simulation campaign, with lots of new results generated that we are now analysing. While the LHC experiments send volunteers tasks where data collected by the LHC detectors has to be analysed or Monte Carlo codes for data generation, SixTrack work units probe the dynamics of LHC beams; hence, your computers are running a live model of the LHC in order to explore its potential without actually using real LHC machine time, precious to physics.

Your contribution to our analyses is essential. For instance, we reached ~2.5 MWUs processed in total, with a peak slightly above 400kWUs processed at the same time, and >50TFLOPs, during the entire two weeks of the pentathlon. The pentathlon was also the occasion to verify recent improvements to our software infrastructure. After this valuable experience, we are now concentrating our energies on updating the executables with brand new functionality, extending the range of studies and of supported systems. This implies an even increased dependence on your valuable support.

Thanks a lot to all people involved! We count on your help and committment to science and to LHC@home to pursue the new challenges of beam dynamics which lie ahead.
26 May 2017, 14:43:25 UTC

Freezing
26.05.2017, 21:15
Genau solche Meldungen gefallen mir und motivieren mich jedes mal aufs Neue bei jedem Event dabei zu sein und alles zu geben ;)

nexiagsi16v
26.05.2017, 21:33
dito...hier sieht man was der pentathlon bewirken kann. am ende kommt es dem projekt auf lange sicht zugute und verbessert es auch im normalbetrieb.

AxelS
27.05.2017, 08:24
Solche Rückmeldung von den Leuten hinter dem LHC liest man doch gerne...

btw. Meine Probleme mit Bestätigungsfehler bei ATLAS Berechnungen sind gelöst. Während des Penta hatte ich 2 Cores für die ATLAS eingestellt gehabt, die WU crashte da, mit 4 Cores läuft es jetzt. Zur Zeit lasse ich auf meinem Hauptrechner nur eine ATLAS gleichzeitig laufen, die restlichen 4 Cores sind mit VGTUs beschäftigt.

aendgraend
28.05.2017, 21:15
Vielen Dank Patrick, zum Einen für's Weitergeben des Feedbacks und zum Andren für's Herstellen und Aufrechterhalten des Kontakts zum LHC. :thumbup:

No_Name
31.05.2017, 17:20
In welchen Abständen gibt es denn Sixtrack WUs?
Wollte nach dem Pentathlon auch mal was für dieses Projekt machen, erhalte allerdings seit 5 Tagen keine WU?

pschoefer
31.05.2017, 22:28
Sehr unregelmäßig, es kann durchaus auch wochenlang nichts geben.

lugu
05.06.2017, 16:13
Ich hab heute neue gekriegt.

No_Name
07.06.2017, 12:35
Hab gestern auch 4 Stück bekommen.

Edit: Heute am 14.06.2017 gibt es einen großen Haufen.

pschoefer
20.06.2017, 21:17
Derzeit warten reichlich SixTrack-WUs auf Berechnung, jedoch gibt es wie in den letzten Tagen des Pentathlons Probleme mit der Verteilung. Es wird aktiv daran gearbeitet, in den letzten Tagen wurde schon mit den Einstellungen des Feeders experimentiert. Teilnehmerseitig lässt sich nicht viel an der Situation verändern.

Probleme mit der Verteilung von SixTrack-WUs
Siehe bitte unter Diskussionsforen : Sixtrack Application den Thread "SixTrack Tasks NOT being distributed (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4324)". Dieser Thread soll dazu dienen, alle relevanten Beiträge dazu zu bündeln. Dieser Thread betrifft nur SixTrack. Mein erster Beitrag beinhaltet meine persönlichen Erfahrungen.
20.06.2017, 13:43:01 MEZ

Originaltext:

SixTrack Tasks distribution issues
Please see Message boards:SixTrack application, thread "SixTrack Tasks NOT being distributed". This is to have one place for all relevant messages. This thread is for SixTrack only. My first post reports my personal status.
20 Jun 2017, 12:43:01 UTC

pschoefer
24.06.2017, 15:08
Ein neuer Sixtrack-Validator wurde inzwischen installiert und behebt unter anderem das Problem, dass eine leere Ergebnisdatei als valides Ergebnis behandelt und unter Umständen richtige Ergebnisse als ungültig markiert werden konnten.

Sixtrack-Validator
Es wird eine (sehr) kurze Unterbrechung geben, während ich einen neuen Sixtrack-Validator installiere. Dieser sollte das Problem mit leeren fort.10-Dateien und das garstige "Ausreißer"-Problem beheben. Siehe SixTrack Application: sixtrack_validator (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4336) für weitere Neuigkeiten und Einzelheiten.
24.06.2017, 10:21:04 MEZ

Originaltext:

sixtrack_validator
There will be a (very) short interruption while I install a new sixtrack_validator. Should fix null/empty fort.10 and the nasty "outlier" problem. See SixTrack Application, sixtrack_validator for more news and details.
24 Jun 2017, 9:21:04 UTC

pschoefer
26.06.2017, 22:16
Der neue Sixtrack-Validator funktionierte noch nicht richtig und führte zu einer erhöhten Zahl von als ungültig markierten WUs. Im Laufe des Tages wurden einige Rechner mit hoher Fehlerquote gesperrt (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4337), das wurde inzwischen wieder rückgängig gemacht (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4341). An einer dauerhaften Lösung wird weiterhin gearbeitet.


Außerdem wird es in wenigen Stunden wegen einer Softwareaktualisierung zeitweise keine Aufgaben für die vbox-WUs des Subprojektes CMS Simulation geben. Um auszuschließen, dass man zeitweise leere vbox-WUs bekommt, empfiehlt es sich, so lange keine neuen Aufgaben des Projektes zuzulassen.

Aufgabenwarteschlange der CMS-Anwendung läuft leer.
Wir wollen die WMAgent-Aufgabensteuerung aktualisieren, daher habe ich (hoffentlich) den nächsten Aufgabenstapel angehalten. Es sollte in 10-12 Stunden keine neuen Aufgaben mehr geben, setzt daher bitte sobald wie möglich alle Rechner, die CMS-Aufgaben bearbeiten, auf "keine neue Arbeit". Es sollte morgen wieder laufen.
26.06.2017, 16:59:30 MEZ


Originaltext:

CMS application job queue is being run down.
We want to update the WMAgent job controller, so I've stopped the next batch (I hope). We should run out of jobs in 10-12 hours, so set any machine running CMS tasks to No New Tasks as soon as practicable. Should be up again tomorrow.
26 Jun 2017, 15:59:30 UTC

pschoefer
14.07.2017, 18:06
Es gibt ein Problem mit SixTrack auf einigen Rechnern mit Linux-Kernel 4.8.x, daher bekommen diese Rechner über das Wochenende keine neuen WUs, bis das Problem genauer eingegrenzt und behoben werden kann.

Keine Ergebnisse von Linux-Kernel 4.8.* akzeptiert
Als Notfallmaßnahme habe ich über das Wochenende für alle Rechner mit dem Linux-(Ubuntu?)Kernel 4.8.* max_results_day auf -1 gesetzt. SixTrack bricht ständig mit einem Formatted-I/O-Fehler zur IFORT-Laufzeit ab. Dadurch wird eine Verschwendung eurer wertvollen Beiträge vermieden. Eric.
14.07.2017, 14:50:37 MEZ

Originaltext:

No RESULTS accepted from Linux Kernel 4.8.*
As an emergency measure and over the weekend, I have set max_results_day to -1 for all hosts running Linux (Ubuntu?) Kernel 4.8.*. SixTrack is consistently crashing with an IFORT run time formatted I/O error. This will avoid wasting your valuable contributions. Eric.
14 Jul 2017, 13:50:37 UTC

pschoefer
27.07.2017, 18:10
Es wurden weitere Veränderungen bezüglich der Verteilung von SixTrack-WUs unternommen. Wer noch immer Probleme hat, solche WUs zu erhalten, wird gebeten, sich zu melden.

Optimierung der Verteilung von SixTrack-Aufgaben
Liebe Freiwillige,

wir versuchen, die Verteilung von SixTrack-Aufgaben zu verbessern. Wenn eure Rechner mehr Aufgaben bearbeiten könnten, aber während des Serverkontakts keine bekommen, könnt ihr uns das wissen lassen und uns die Log-Dateien eurer Clients schicken? Bitte setzt dazu den Thread "SixTrack Tasks NOT being distributed" fort, den Eric hier eröffnet hat:
http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=4324,
sodass wir alle Probleme an einem Ort sammeln können. Auf diese Weise können wir versuchen, die Parameter, welche die Verteilung der Aufgaben auf Serverseite kontrollieren, besser einzustellen.

Wir bitten außerdem um Entschuldigung für Creditverlust wegen der versehentlichen Löschung von Einträgen aus der Hauptdatenbank; siehe dazu diese Nachricht:
http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=4362&postid=31563#31563
Wir ihr sehen könnte, läuft die Aufgabenverteilung gleichmäßig seit Anfang der Woche

Danke im Voraus für eure wertvolle Mitarbeit,
Alessio und Riccardo für das SixTrack-Team
27.07.2017, 13:44:17 MEZ

Originaltext:

Optimising distribution of SixTrack tasks
Dear Volunteers,

we are trying to improve the distribution of SixTrack tasks. If your host could process more tasks but during the project update you don't receive any, can you let us know and send us your client logging report? Please continue the thread "SixTrack Tasks NOT being distributed" opened by Eric here:
http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=4324
so that we can collect all the issues in only one place. In this way, we could try to better tune parameters controlling the distribution of tasks on the server side.

At the same time, we apologize for the loss of credits following the accidental deletion of lines in the main DB - please see message:
http://lhcathomeclassic.cern.ch/sixtrack/forum_thread.php?id=4362&postid=31563#31563
As you can see, task distribution is progressing regularly since the beginning of the week

Thanks in advance for your precious cooperation,
Alessio and Riccardo, for the SixTrack Team
27 Jul 2017, 12:44:17 UTC

pschoefer
05.08.2017, 07:56
Es gibt derzeit ein Problem mit der Erzeugung von WUs des Subprojektes CMS Simulation. Wer bei diesem aktiv ist, sollte reagieren:

CMS-Problem am Wochenende
Warnung: Eine Komponente des WMAgent, der die CMS-Jobs überwacht, scheint kürzlich ausgefallen zu sein. Die Warteschlange ist wohl erschöpft. Bitte stellt auf "Keine neuen Aufgaben" oder wechselt zu einer Ersatz-Anwendung, während ich versuche, jemanden am CERN zur Reparatur aufwecken kann. Das könnte problematisch werden, da dieses Wochenende wohl das reichste an Urlaubsreisen in diesem Jahr in Europa ist...
05.08.2017, 5:31:20 MEZ

Originaltext:

CMS Weekend problem
Warning: The WMAgent which controls CMS jobs appears to have a failed component very recently. Queue seems to be exhausted. Please set No New Tasks or change to a backup app while I try to raise someone at CERN to fix it. This could be a problem given that this is expected to be the heaviest weekend of the year for holiday travel in Europe...
5 Aug 2017, 4:31:20 UTC

Felix_M_
05.08.2017, 09:21
schon wieder cms.....

pschoefer
05.08.2017, 15:11
Das Problem ist inzwischen behoben, es war doch noch jemand am CERN wach und nicht im Urlaub.

pschoefer
06.09.2017, 13:01
Es sind neue Anwendungen für SixTrack verfügbar, erstmals nun auch für Mac OS (64 Bit). Weitere Anwendungen z.B. für ARM-CPUs werden bald folgen.

Neue SixTrack-Anwendungen
Hallo zusammen,

nachdem wir sie über das sixtracktest-Subprojekt getestet hatten, haben wir die Anwendungen gerade für das Sixtrack-Subprojekt herausgegeben. Im Moment haben wir nur Anwendungen für die wichtigsten Betriebssysteme, also Windows, Linux und brandneu auch für Mac OS. Wir sind bei sixtracktest noch dabei, die Definitionen der Planklassen für Android, FreeBSD und ARM-CPUs fertigzustellen - siehe z.B. https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4296&postid=32169#32169 (engl.)

Vielen Dank für eure Mithilfe und ... frohes Crunchen!
Alessio für das Sixtrack-Team
05.09.2017, 17:40:44 MEZ

Originaltext:

New SixTrack exes
Dear all,

After testing them as the sixtracktest app, we have just pushed out executables to the sixtrack app. For the moment, we have exes only targeted for the main OSs, i.e. Windows, Linux, and the brand new one for MacOS. We are still finalising the definition of the plan classes with the sixtracktest app for targeting Android, freeBSD, and Arm CPUs - e.g. see
https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4296&postid=32169#32169

Thanks a lot for your contribution and ... happy crunching!
Alessio, for the sixtrack Team
5 Sep 2017, 16:40:44 UTC

pschoefer
26.09.2017, 19:35
Wer am Subprojekt CMS Simulation teilnimmt, sollte zeitnah alle Aufgaben fertigrechnen und keine neuen mehr annehmen, da am morgigen Mittwoch, den 27. September, während einer Wartungspause den laufenden vbox-WUs keine Arbeit zugeteilt werden kann.

Keine CMS-Aufgaben verfügbar am Mittwoch, den 27. September
Eine Aktualisierung des CMS@Home-Workflow-Management-Systems (WMAgent) ist für morgen (Mittwoch, 27. September) geplant. Dafür muss der aktuelle Aufgabenstapel angehalten werden, damit die Warteschleife leer ist. Ich plane, das gegen 9:00-10:00 MESZ am Mittwoch zu tun.
Um Abbrüche mit "Berechnungsfehler" und die resultierende Zurücksetzung eures Tageskontingents zu vermeiden, empfehlen wir, dass ihr auf allen für CMS benutzten Rechnern mindestens 12 Stunden vorher keine neue Arbeit mehr zulasst, damit die aktuellen Aufgaben normal zu Ende gerechnet werden können. Ihr könnt BOINC anhalten, wenn all eure Aufgaben beendet sind, wenn ihr wollt.
Wie lange die Unterbrechung genau dauern wird, ist unklar, und es wird eine Verzögerung von bis zu einer Stunde geben, bis danach ein neuer Aufgabenstapel aufgebaut ist. Ich werde hier schreiben, wenn es wieder Aufgaben gibt, hoffentlich vor Ende des Tages nach europäischer Zeit.
26.09.2017, 13:23:21 MEZ

Originaltext:

CMS jobs unavailable Weds 27th September
An upgrade to the CMS@Home workflow management system (WMAgent) is planned for tomorrow (Wed Sep 27th). This needs the current batch of jobs to be stopped so that the queue is empty. I plan to do this about 0700-0800 UTC on Wednesday.
To avoid "error while computing" task failures and the resulting back-off of your daily quotas, we suggest you set all your CMS machines to No New Tasks at least 12 hours beforehand to allow current tasks to time out in the normal way. You can stop BOINC once all your tasks are finished, if you wish.
Exactly how long the intervention will take is unclear, and there will be a delay of up to an hour to get a new batch of jobs queued afterwards. I will post here when jobs are available again, hopefully before the end of the day European time.
26 Sep 2017, 12:23:21 UTC

pschoefer
29.09.2017, 19:47
Das Projekt wird bald nicht mehr unter der alten Adresse http://lhcathomeclassic.cern.ch/sixtrack erreichbar sein. Wer seine Rechner noch mit dieser URL angemeldet hat, sollte das Projekt daher abmelden und mit der aktuellen URL http://lhcathome.cern.ch bzw. https://lhcathome.cern.ch/lhcathome wieder anmelden.

Alte Seite lhcathomeclassic.cern.ch/sixtrack läuft aus
LHC@home wurde konsolidiert und benutzt SSL für die Kommunikation, wie letztes Jahr in diesem Thread erwähnt (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4002&postid=27816#27816).

Einige BOINC-Clients verbinden sich noch immer mit der alten Adresse lhcathomeclassic.cern.ch/sixtrack, die bald auslaufen wird.

Wenn euch das betrifft, meldet das Projekt bitte mit der aktuellen LHC@home-URL, die im BOINC Manager angezeigt wird, neu an. (http://lhcathome.cern.ch leitet euren BOINC-Client auf https://lhcathome.cern.ch/lhcathome weiter)

Diejenigen, die noch immer einen alten BOINC-Client der Version 6 benutzen, sollten bitte auf BOINC 7.2 oder neuer aktualisieren. (Die neuesten Versionen des BOINC-Clients sind 7.6.33 oder 7.8.)

Vielen Dank für euren Beitrag zu LHC@home!
29.09.2017, 14:50:32 MEZ

Originaltext:

Phaseout of legacy site: lhcathomeclassic.cern.ch/sixtrack
LHC@home has been consolidated and uses SSL for communication as mentioned in this thread (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4002&postid=27816#27816) last year.

Some BOINC clients are still connecting to the old lhcathomeclassic.cern.ch/sixtrack address, that will be phased out soon.

If this is the case for you, please re-attach the project to the current LHC@home URL presented in the BOINC manager. (http://lhcathome.cern.ch will redirect your BOINC client to https://lhcathome.cern.ch/lhcathome )

For those who are still running an old BOINC 6 client, please upgrade to BOINC 7.2 or later. (The current BOINC client releases are 7.6.33 or 7.8.)

Many thanks for your contributions to LHC@home!
29 Sep 2017, 13:50:32 UTC

No_Name
04.10.2017, 23:11
Bekommen hier eigentlich alle SixTrack WUs?

pschoefer
04.10.2017, 23:15
Bekommen hier eigentlich alle SixTrack WUs?
Aktuell gibt es keine neuen, was sich in den nächsten Tagen aber wieder ändern könnte.

No_Name
04.10.2017, 23:16
Dann bin ich ja beruhigt ;)

Edit: Hab gerade eine WU abbekommen, aber direkt Berechnungsfehler, so wie alle anderen, die sich an der WU versucht haben, auch.

pschoefer
06.12.2017, 16:45
Die Website bekommt am morgigen Donnerstag, den 7. Dezember, eine Auffrischung, weshalb das Projekt zeitweise nicht erreichbar sein könnte:

BOINC-Server-Aktualisierung am Donnerstag
Wir werden am Donnerstag, den 7. Dezember, die LHC@home-Webserver auf den neuesten BOINC-Servercode mit der "Bootstrap"-Oberfläche aktualisieren. Der neue Stil und das neue Layout können schon beim LHC@home-Testprojekt (https://lhcathomedev.cern.ch/lhcathome-dev/) angesehen werden.

Während des Eingriffs ab 10 Uhr MEZ am Donnerstag könnte die Erreichbarkeit der LHC@home-Server eingeschränkt sein. sodass BOINC-Clients möglicherweise den Serverkontakt verzögern und Dateien später hochzuladen versuchen.
05.12.2017, 10:07:45 MEZ

Originaltext:

BOINC server update Thursday
We will upgrade the LHC@home web servers to the new BOINC server code with the "Bootstrap" theme on Thursday 7 December. The new style and layout can already be seen on the LHC@home development project. (https://lhcathomedev.cern.ch/lhcathome-dev/).

During the intervention, from 09 UTC on Thursday, there may be intermittent availability of the LHC@home servers, so BOINC clients may back off and try to upload data later.
5 Dec 2017, 9:07:45 UTC

pschoefer
13.12.2017, 17:06
Einige Benutzerkonten fielen fälschlicherweise einer Bereinigungsmaßnahme zum Opfer. Die in der folgenden Meldung angekündigten Maßnahmen wurden inzwischen durchgeführt, sodass alle legitimen Benutzerkonten wiederhergestellt sein sollten.

Fehlende Benutzerkonten
Aufgrund einer zu aggressiven Spambeseitigungsaktion (unser Fehler) haben wir am Montag versehentlich einige legitime Accounts gelöscht. Wir haben eine Sicherungskopie der BOINC-Datenbank geladen und werden die Daten der fehlenden Benutzerkonten wiederherstellen.

Wenn ihr von eurem BOINC-Client die Meldung "missing account key" erhaltet, könntet ihr betroffen sein. Wir gehen davon aus, das später am heutigen Tage beheben zu können, sobald wir die Datensätze überprüft haben. Daher ist eine neue Anmeldung nicht nötig.

Ich bitte, dieses Missgeschick zu entschuldigen.
13.12.2017, 9:46:45 MEZ

Originaltext:

Missing accounts
Due to a too aggressive spam-cleaning campaign (our fault), we have accidentally deleted some valid accounts on Monday. We have restored a backup copy of the BOINC database, and will recover the missing account data.

If you get a message "missing account key" from your BOINC client, you may be affected. We expect that we can fix this later today, once we have verified the data sets. Hence there is no need to register again.

My apologies for this mishap.
13 Dec 2017, 8:46:45 UTC

JayPi
13.12.2017, 17:50
Danke für die Info pschoefer. Bei meinem Account fehlte heute Nachmittag das Profil, vermutlich war das auch "bereinigt" worden, ich konnte es aber problemlos wiederherstellen.

No_Name
18.12.2017, 09:53
Es gibt aktuell wieder ausreichend Arbeit.

Fobby
18.12.2017, 15:29
Es gibt aktuell wieder ausreichend Arbeit.

Recht hast du da, war auch schön am rechnen, bis ich gesehen habe, dass ich keine Punkte bekomme.
Ist das normal, oder ist da irgendwas falsch?

(Die Meldung zeigt mir an, es sei komplett hochgeladen.)

lugu
18.12.2017, 15:47
Hi Fobby,

das ist normal. Bei den meisten Projekten muss dein Resultat von mindestens einem weiteren Rechner bestätigt werden. Das ist das sog. Quorum (https://www.seti-germany.de/wiki/Work_Unit).

Fobby
18.12.2017, 15:52
Danke.
Dann läuft es direkt wieder weiter.

No_Name
18.12.2017, 17:00
Dieses mal sind die Laufzeiten aber deutlich länger als in der letzt Zeit üblich, als kleine Info am Rande.

Felix_M_
18.12.2017, 17:13
ich deke die wollen die serverlast etwas vermindern, nach dem was in den letzten tagen los war xD :uglyhammer:

pschoefer
08.01.2018, 20:15
Derzeit funktioniert das Hochladen von Dateien nicht zuverlässig, an einer Lösung wird gearbeitet.

Probleme beim Hochladen von Dateien
Unser Netzwerkspeicher-Unterbau ist vollgelaufen und daher schlägt das Hochladen von Dateien zeitweise fehl.

Grund dafür ist ein Problem beim Löschen von Dateien, wir arbeiten daran, das zu beheben.

Entschuldigung für die Schwierigkeiten und danke für eure Geduld bei Dateiübertragungen zu LHC@home.
08.01.2018, 10:25:05 MEZ

Originaltext:

File upload issues
Our NFS storage backend got saturated and hence uploads are failing intermittently.

The underlying cause is an issue with file deletion, we are trying to resolve that.

Sorry for the trouble and thanks for your patience with transfers to LHC@home.
8 Jan 2018, 9:25:05 UTC

pschoefer
16.01.2018, 23:28
Als Erklärung für kurze Aussetzer heute und Ankündigung ähnlicher Aussetzer in der nächsten Woche sei die folgende Meldung nachgereicht:

Kurze Unterbrechungen am Dienstag
Es wird am heutigen Dienstag, den 16. Januar, einige kurze Serverausfälle geben, wenn die BOINC-Dienste auf Ersatzsysteme zurückgreifen. Ähnliche Unterbrechungen wird es in der nächsten Woche geben, wenn wir Sicherheitsupdates auf unserer Rechnerinfrastruktur installieren.
16.01.2018, 8:05:48 MEZ

Originaltext:

Short interruptions Tuesday
There will be a couple of short server outages while our BOINC service pass to fail-over nodes today, Tuesday 16th of January. Similar interruptions will happen next week, as we carry out security updates on our computing infrastructure.
16 Jan 2018, 7:05:48 UTC

pschoefer
23.01.2018, 13:33
Wie in der letzten Woche angekündigt, wird es morgen eine weitere kurze Auszeit des gesamten Projektes geben. Bereits heute kann es Ausfälle bei einigen Subprojekten geben. Auch die Probleme beim Hochladen von Dateien sind inzwischen besser verstanden, die Lösung erfordert aber einen Umbau der Systemarchitektur.

LHC@home-Auszeit aufgrund von Systemaktualisierungen
Morgen, Mittwoch, den 24.01., werden die LHC@home-Server für kurze Zeit nicht erreichbar sein, während unser Massenspeicher-Unterbau wegen Systemaktualisierungen vom Netz genommen wird.

Heute, Dienstag, den 23.01., werden einige von den Condor-Servern, welche CMS-, LHCb- und Theory-Aufgaben handhaben, für eine Weile vom Netz genommen. Betreffend die andauernden Probleme mit dem Hochladen von Dateien, siehe bitte diesen Thread (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4567) (engl.).

Danke für euer Verständnis und frohes Crunchen!
23.01.2018, 10:19:32 MEZ

Originaltext:

LHC@home down-time due to system updates
Tomorrow Wednesday 24/1, the LHC@home servers will be unavailable for a short period while our storage backend is taken down for a system update.

Today, Tuesday 23/1, some of the Condor servers that handle CMS, LHCb and Theory tasks will be down for a while. Regarding the on-going issues with upload of files, please refer to this thread (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4567).

Thanks for your understanding and happy crunching!
23 Jan 2018, 9:19:32 UTC

pschoefer
26.01.2018, 08:42
Das SixTrack-Team informiert über die Hintergründe der zurzeit reichlich vorhandenen WUs:

Vielen Dank für eure Unterstützung von SixTrack bei LHC@home und Neuigkeiten
Liebe Freiwillige,

alle Mitglieder des SixTrack-Teams wollen euch allen für die Unterstützung unseres Projektes bei LHC@home danken. In den letzten Wochen gab es einen deutlichen Anstieg der Arbeitsbelastung und eure fortwährende Hilfe pausierte nicht einmal während der Weihnachtsfeiertage, was wir wirklich schätzen!

Wie ihr wisst, interessieren wir uns für das Simulieren der Dynamik des Teilchenstrahls in ultrarelativistischen Speicherringen wie dem LHC. Wie in anderen Gebieten der Physik ist die Dynamik komplex und kann in einen linearen und einen nichtlinearen Anteil aufgeteilt werden. Ersterer bringt die erwartete Leistung der Maschine in Reichweite, wohingegen letzterer die Stabilität des umlaufenden Teilchenstrahls dramatisch beeinflussen kann. Während ersterer mit der Rechenleistung eines Laptops ausgewertet werden kann, benötigt letzterer BOINC und somit euch! Tatsächlich führen wir sehr große Abrasterungen von Parameterräumen durch, um zu sehen, wie Nichtlinearitäten die Bewegung von Teilchenstrahlen in verschiedenen Regionen des Phasenraums der Teilchen und für verschiedene Werte von Maschinenparametern beeinflussen. Unsere wichtigste Messgröße ist die dynamische Apertur (DA), d.h. die Grenze zwischen stabiler, also gebundener, und instabiler, also ungebundener, Teilchenbewegung.

Die Untersuchungen betreffen hauptsächlich den LHC und seine Luminositätserweiterung, den sogenannten HL-LHC. Dank dieses neuen Beschleunigers werden Experimente mit dem LHC etwa im Jahr 2035 in vergleichbarer Zeit etwa zehnmal so viele Daten liefern wie in den ersten 10-15 Betriebsjahren LHC erwartet. Die Entwicklung der erweiterten Maschine ist in vollem Gange und der gegenwärtige Betrieb des LHC ist eine einzigartige Gelegenheit, unsere Modelle und Simulationsergebnisse an der Realität zu messen. Umfassendes Wissen über die DA des LHC ist wesentlich, um den Arbeitspunkt des HL-LHC korrekt einzustellen.

Wenn ihr Simulationen mit dem Namen workspace1_hl13_collision_scan_* (Frederik) gecruncht habt, dann habt ihr uns dabei geholfen, die Effekte unvermeidbarer Magnetfehler auf die dynamische Apertur zuzuordnen, die von der neuen HL-LHC-Hardware erwartet werden, und den besten Arbeitspunkt für die Maschine sowie Korrekturstrategien zu finden. Aufgaben mit Namen wie w2_hllhc10_sqz700_Qinj_chr20_w2* (Yuri) richten das Hauptaugenmerk auf die Magneten, welche die Teilchenstrahlen vor der Kollision zusammendrücken; aufgrund ihrer herausragenden Rolle haben diese Magneten, obwohl es nur wenige davon gibt, einen so großen Einfluss auf die nichtlineare Dynamik, dass die Knöpfe, welche den linearen Teil der Maschine kontrollieren, erhebliche Abhilfemöglichkeiten bieten.

Viele aktuelle Aufgaben zielen auf den Zusammenhang zwischen Lebensdauer der Teilchenstrahlen und der dynamischen Apertur. Die Lebensdauer der Teilchenstrahlen ist eine Messgröße, die auf Basis der aktuellen Verlustrate angibt, wie lange die Strahlen in der Maschine bleiben. Ein theoretisches Modell für den Zusammenhang zwischen der Lebensdauer der Teilchenstrahlen und der dynamischen Apertur wurde entwickelt; eine große Simulationskampagne wurde gestartet, um das Modell mit den zahlreichen Messungen zu vergleichen, welche in den letzten drei Jahren mit dem LHC durchgeführt wurden. Ein Satz dieser Studien betrachtet unter dem Namen w16_ats2017_b2_qp_0_ats2017_b2_QP_0_IOCT_0 (Pascal) die unvermeidbaren multipolaren Fehler der Magneten als Hauptgrund für die Nichtlinearitäten, wohingegen Aufgaben mit dem Namen LHC_2015* (Javier) störende Zusammentreffen in der Nähe der Kollisionspunkte betrachten, d.h. die sogenannten "langreichweitigen Strahl-Strahl-Effekte".

Einer unserer Anwender (Ewen) führt dank eurer Hilfe zwei Studien durch. Im Jahr 2017 wurde die DA erstmals im LHC bei Spitzenenergie direkt gemessen und nichtlineare Magnete beiderseits der ATLAS- und CMS-Experimente wurden zum Variieren der DA verwendet. Er möchte herausfinden, wie gut die simulierte DA mit diesen Messwerten übereinstimmt. Die zweite Studie untersucht systematisch die zeitliche Abhängigkeit der DA in der Simulation von der Stärke der linearen transversalen Kopplung und wie diese in der Maschine erzeugt wird. Tatsächlich haben einige frühere Simulationen und Messungen bei Injektionsenergie angedeutet, dass lineare Kopplung zwischen den horizontalen und vertikalen Ebenen große Auswirkung darauf haben können, wie sich die dynamische Apertur mit der Zeit entwickelt.

Bei all dem ist eure Hilfe wesentlich, da ihr uns ermöglicht, die Simulationen und Studien durchzuführen, die uns interessieren, indem ihr die Aufgaben bearbeitet, die wir über BOINC verteilen. Daher herzlichen Dank euch allen!
Frohes Crunchen und bleibt dran!

Alessio und Massimo für das LHC-SixTrack-Team
23.01.2018, 18:08:14 MEZ

Originaltext:

Thanks for supporting SixTrack at LHC@Home and updates
Dear volunteers,

All members of the SixTrack team would like to thank each of you for supporting our project at LHC@Home. The last weeks saw a significant increase in work load, and your constant help did not pause even during the Christmas holidays, which is something that we really appreciate!

As you know, we are interested in simulating the dynamics of the beam in ultra-relativistic storage rings, like the LHC. As in other fields of physics, the dynamics is complex, and it can be decomposed into a linear and a non-linear part. The former allows the expected performance of the machine to be at reach, whereas the latter might dramatically affect the stability of the circulating beam. While the former can be analysed with the computing power of a laptop, the latter requires BOINC, and hence you! In fact, we perform very large scans of parameter spaces to see how non-linearities affect the motion of beam particles in different regions of the beam phase space and for different values of key machine parameters. Our main observable is the dynamic aperture (DA), i.e. the boundary between stable, i.e. bounded, and unstable, i.e., unbounded, motion of particles.

The studies mainly target the LHC and its upgrade in luminosity, the so-called HL-LHC. Thanks to this new accelerator, by ~2035, the LHC will be able to deliver to experiments x10 more data than what is foreseen in the first 10/15y of operation of LHC in a comparable time. We are in full swing in designing the upgraded machine, and the present operation of the LHC is a unique occasion to benchmark our models and simulation results. The deep knowledge of the DA of the LHC is essential to properly tune the working point of the HL-LHC.

If you have crunched simulations named "workspace1_hl13_collision_scan_*" (Frederik), then you have helped us in mapping the effects of unavoidable magnetic errors expected from the new hardware of the HL-LHC on dynamic aperture, and identify the best working point of the machine and correction strategies. Tasks named like "w2_hllhc10_sqz700_Qinj_chr20_w2*" (Yuri) focus the attention onto the magnets responsible for squeezing the beams before colliding them; due to their prominent role, these magnets, very few in number, have such a big impact on the non-linear dynamics that the knobs controlling the linear part of the machine can offer relevant remedial strategies.

Many recent tasks are aimed at relating the beam lifetime to the dynamic aperture. The beam lifetime is a measured quantity that tells us how long the beams are going to stay in the machine, based on the current rate of losses. A theoretical model relating beam lifetime and dynamic aperture was developed; a large simulation campaign has started, to benchmark the model against plenty of measurements taken with the LHC in the past three years. One set of studies, named "w16_ats2017_b2_qp_0_ats2017_b2_QP_0_IOCT_0" (Pascal), considers as main source of non-linearities the unavoidable multipolar errors of the magnets, whereas tasks named as "LHC_2015*" (Javier) take into account the parasitic encounters nearby the collision points, i.e. the so called "long-range beam-beam effects".

One of our users (Ewen) is carrying out two studies thanks to your help. In 2017 DA was directly measured for the first time in the LHC at top energy, and nonlinear magnets on either side of ATLAS and CMS experiments were used to vary the DA. He wants to see how well the simulated DA compares to these measurements. The second study seeks to look systematically at how the time dependence of DA in simulation depends on the strength of linear transverse coupling, and the way it is generated in the machine. In fact, some previous simulations and measurements at injection energy have indicated that linear coupling between the horizontal and vertical planes can have a large impact on how the dynamic aperture evolves over time.

In all this, your help is fundamental, since you let us carry out the simulations and studies we are interested in, running the tasks we submit to BOINC. Hence, the warmest "thank you" to you all!
Happy crunching to everyone, and stay tuned!

Alessio and Massimo, for the LHC SixTrack team.
23 Jan 2018, 17:08:14 UTC

volkmannold
30.01.2018, 14:33
Moin,

Di 30 Jan 2018 14:30:10 CET | LHC@home | No tasks are available for SixTrack

kann "Denen" nicht mal jemand auf die füsse treten damit mehr work fliesst...

cu, stephan

No_Name
30.01.2018, 14:44
Die letzten Wochen bzw. fast Monate haben sie immer wieder Probleme mit Down- und Upload.
Hatte in letzter Zeit oft Probleme, die fertigen WUs überhaupt pünklich weg zu bekommen.
Teilweise klappte das gar nicht und die Arbeit war umsonst, was sehr ärgerlich ist. :Pfeif:

volkmannold
30.01.2018, 16:28
Di 30 Jan 2018 15:35:36 CET | LHC@home | Scheduler request completed: got 38 new tasks

Hat sich erledigt.

Haben wohl geahnt das ich Bedarf habe und schlechte Laune bekomme :-)

cu, stephan

- - - Aktualisiert - - -


Die letzten Wochen bzw. fast Monate haben sie immer wieder Probleme mit Down- und Upload.
Hatte in letzter Zeit oft Probleme, die fertigen WUs überhaupt pünklich weg zu bekommen.
Teilweise klappte das gar nicht und die Arbeit war umsonst, was sehr ärgerlich ist. :Pfeif:

Also losgeworden bin ich, wenn auch mit geringer verzögerung, die fertigen WU bis jetzt immer.

Wenn du aufgrund der verzögerung die Credits nicht bekommen hast, würde ich die in Regress nehmen !
Nee, scherz, aber ich würde mich auch tierisch ärgern

volkmannold
01.02.2018, 08:51
Do 01 Feb 2018 08:48:03 CET | LHC@home | No tasks are available for SixTrack

Jetzt hat er sich gerappelt, der LHC-Server, 240 Aufgaben bekommen :-)

cu, stephan

[ETA]MrSpadge
01.02.2018, 21:14
Neuigkeiten zum Nachfolger des LHC (https://xkcd.com/1949/)!

MrS

volkmannold
03.02.2018, 06:42
Moin,

warum wird die nicht bewertet?

https://lhcathome.cern.ch/lhcathome/workunit.php?wuid=84246238

immerhin hat mein 2600K 8 stunden drauf "rumgekaut" und der wingmann ist auch durch :-(

Ok, wingmann war nen Dual Core AMD Opteron(tm) Processor 265, aber so unzuverlässig sind die doch auch nicht oder...

cu, stephan

Felix_M_
03.02.2018, 08:28
kann sein dass es bisschen dauert

pschoefer
05.02.2018, 15:48
Aufgrund noch andauernder Arbeiten an der Datenbank werden seit einigen Stunden bei sämtlichen Subprojekten keine neuen WUs verteilt:

WU-Erzeugung verzögert - Datenbankwartung
Wegen eines Problems mit der Datenbank in der letzten Woche verzögert sich die WU-Erzeugung und wir müssen steckengebliebene WUs löschen. Die Projektdienste werden heute immer wieder an- und ausgeschaltet, während wir an einem Problem mit dem BOINC-Transitioner arbeiten.
05.02.2018, 9:16:44 MEZ

Originaltext:

Task creation delayed - database maintenance
Due to a database issue last week, task generation is delayed and we need to clean up stuck workunits. The project daemons will be on and off this morning while we try to debug a problem with the BOINC transitioner.
5 Feb 2018, 8:16:44 UTC

SETIBOOSTER
22.02.2018, 07:13
Ahoi!

also irgendwie komm ich mit der Suchfunktion vom neuen Forum noch nicht ganz klar...oder die mit mir. :uglyhammer:

Hier kurz vom LHC Neuling eine Fehlermeldung des BOINC Managers, die ich nicht geklärt bekomme und wo mir ehrlichgesagt der Ansatz fehlt.

"LHC@home: Notice from server
CMS Simulation needs 67.41MB more disk space. You currently have 7561.98 MB available and it needs 7629.39 MB.
22.02.2018 06:40:25"

Boinc hat genug Platz zur Verfügung.
LHC liegt auf einem RAID mit mehr als 150 GIG Platz.
VM von Virtual Box hat noch mehr Platz.

Jemand einen Plan, was das liebe LHC bei mir für Sorgen haben könnte?

Greets!

taurec
22.02.2018, 07:27
stell mal bei "Nutzung des vorhandenen Festplattenplatzes" im Boinc-Manager auf eine höhere Prozentzahl, glaub als Standard steht da 50%.

AxelS
22.02.2018, 07:51
Man kann auch im BOINC-Manager "Nutze nicht mehr als xxx GB" erhöhen. Bei mir sind da 32 GB eingestellt. Funktioniert bei mir seit einigen Jahren ohne Probs. ;)

Es gibt speziell bei den CERN Projekten auch einen anderen Fehler. Manchmal wird in den Slot-Verzeichnisse die alten FestplattenFiles der VM-Projekte nicht gelöscht und verbraucht somit mehr Platz auf Deinem Rechner als der BOINC-Manager plant.

Topper
22.02.2018, 10:44
Man kann auch im BOINC-Manager "Nutze nicht mehr als xxx GB" erhöhen. Bei mir sind da 32 GB eingestellt. Funktioniert bei mir seit einigen Jahren ohne Probs. ;)

Es gibt speziell bei den CERN Projekten auch einen anderen Fehler. Manchmal wird in den Slot-Verzeichnisse die alten FestplattenFiles der VM-Projekte nicht gelöscht und verbraucht somit mehr Platz auf Deinem Rechner als der BOINC-Manager plant.

Ist mir auch aufgefallen das LHC 6GB belegt und ich nicht mal ne Aufgabe rechne. Wo kann ich die denn finden? Hast du ne Bezeichnung für den LHC Ordner?

SETIBOOSTER
22.02.2018, 12:24
Aloah und danke für die Hinweise.
Ich bastel mal mit den Werten.
Muss Mensch nach so langer Pause auch erst ma drauf kommen.

LG

Tante Edit sagt: Funktioniert. Die ersten 2 LHC@home Tasks in Arbeit. :thumbup:

AxelS
23.02.2018, 19:07
Ist mir auch aufgefallen das LHC 6GB belegt und ich nicht mal ne Aufgabe rechne. Wo kann ich die denn finden? Hast du ne Bezeichnung für den LHC Ordner?

Bei meinem Hauptrechner sind es 8,5GB die LHC belegt, aber alles dicke vdi-files im projekt-verzeichnis (projects\lhcathome.cern.ch_lhcathome).

Mein Hauptrechner ist momentan noch mit Primegrid beschäftigt, da laufen keine LHC-Aufgaben.

Wo bei Dir das boinc-daten verzeichnis ist, kannst Du selbst herrausfinden, indem Du den boinc komplett neustartest, in den ersten Zeilen in den Meldungen listet der boinc-client den Pfad auf.

;)

Topper
23.02.2018, 23:11
Bei meinem Hauptrechner sind es 8,5GB die LHC belegt, aber alles dicke vdi-files im projekt-verzeichnis (projects\lhcathome.cern.ch_lhcathome).

Mein Hauptrechner ist momentan noch mit Primegrid beschäftigt, da laufen keine LHC-Aufgaben.

Wo bei Dir das boinc-daten verzeichnis ist, kannst Du selbst herrausfinden, indem Du den boinc komplett neustartest, in den ersten Zeilen in den Meldungen listet der boinc-client den Pfad auf.

;)

Ja mir ist dann auch eingefallen das LHC ja Virtual Box nutzt und das die mit der Datengröße bestimmt Hardware simulieren die mein PC nicht hat. Also nur so ne Vermutung von mir.

SETIBOOSTER
28.02.2018, 11:02
Ahoi LHC Crunchers!

Tut mir echt leid, aber diese instabile dreckige VBox fliegt von meinen Win Rechnern.
Kaum lief LHC endlich bei mir, gabs ständig nur Ärger mit den VM's.
Nicht richtig beendet. Nicht richtig gestartet. LHC Rechnet mal nicht. Dann mal wieder.
Das hat die laufenden BOINC Projekte letztendlich in die Knie gezwungen.

TIP: LINUX.

Auf Linux läuft LHC native und ohne diese dämliche Oracle Lösung zur Virtualisierung.
Ich hab LHC auf die LINUX KISTEN geschwenkt. Nicht ganz soviel Output, weil hier PG rennt.
Aber immerhin etwas Beitrag zur Teamleistung.

Happy Crunching!

No_Name
28.02.2018, 11:20
Da Sixtrack nun scheinbar auch wieder ordentlich läuft, werde ich mich auch mal wieder einbringen.

pschoefer
28.02.2018, 19:00
Auf Linux läuft LHC native und ohne diese dämliche Oracle Lösung zur Virtualisierung.
Ich hab LHC auf die LINUX KISTEN geschwenkt. Nicht ganz soviel Output, weil hier PG rennt.
Aber immerhin etwas Beitrag zur Teamleistung.
Das hat nichts mit Linux zu tun, sondern mit dem Subprojekt (wie üblich in den Projekteinstellungen (https://lhcathome.cern.ch/lhcathome/prefs.php?subset=project) auswählbar). SixTrack gibt es nativ für Windows, Linux, macOS und FreeBSD (weitere sind im Test), alle anderen Subprojekte benötigen auch auf Linux-Rechnern vbox.

Lediglich beim Testprojekt (https://lhcathomedev.cern.ch/lhcathome-dev/) gibt es auch ATLAS Simulation für Linux ohne vbox, allerdings muss dafür von Hand die erforderliche CERN-Software installiert werden (die Option richtet sich auch eher an ohnehin an den LHC-Projekten beteiligte Forschungsinstitute). Was ich bisher darüber gelesen habe, legt nahe, dass das nicht weniger Fallstricke hat als die vbox-Variante.

SETIBOOSTER
10.03.2018, 06:36
Danke für die Info. :x)

pschoefer
26.03.2018, 17:03
Derzeit laufen Wartungsarbeiten, die sich ein wenig in die Länge ziehen:

Server-Verbesserung - Hochladen von Dateien pausiert
Wir werden heute den Speicher-Unterbau unserer BOINC-Server ändern und die Dateiserver werden während dieses Vorgangs abgeschaltet.

Daher werden eure BOINC-Clients heute für einige Stunden keine Dateien von LHC@home hochladen oder herunterladen können. Sobald unser Wartungseingriff beendet ist, können BOINC-Clients wieder hochladen.

Danke für euer Verständnis und frohes Crunchen!
26.03.2018, 7:23:52 MEZ

Originaltext:

Server upgrade - file uploads paused
We will change the storage back-end on our BOINC servers today, and the file servers will be disabled during the operation.

Hence your BOINC clients will get not be able to upload or download files from LHC@home today for a few hours. Once our maintenance operation is finished, BOINC clients will be able to upload again.

Thanks for your understanding and happy crunching!
26 Mar 2018, 6:23:52 UTC

Major
27.03.2018, 10:19
Mir ist aufgefallen dass ich seit kurzer Zeit recht viele Aufgaben unter "Überprüfung ohne Ergebnis" sammle.
Innerhalb eines Tages ist die Zahl auf ~ 60 angestiegen.
"Ungültig" (0) oder "Fehler" (9) sind dagegen im normalen Rahmen.

Hat außer mir noch jemand das Problem oder sind meine Rechner urplötzlich nicht mehr in der Lage geradeaus zu rechnen?

Update:

So wie es aussieht könnte es mit den Basteleien am LHC-Server zu tun gehabt haben.
Alle WUs die sich unter "Überprüfung ohne Ergebnis" gesammelt hatten sind nun anscheinend erfolgreich validiert.
Hatte sich wohl der Validator ein klein wenig verschluckt ...

pschoefer
23.04.2018, 20:04
Für das Subprojekt CMS Simulation werden derzeit keine produktiven Aufgaben verschickt. Wer dort aktiv ist, sollte daher zeitweise auf ein anderes Projekt wechseln.

CMS-Produktivbetrieb pausiert
Es ist ein Problem beim CMS-Projekt aufgetreten - die zusammengeführten Ergebnisdateien, die am CERN bearbeitet wurden, werden nicht auf den zentralen Speicher geschrieben. Daher habe ich beschlossen, keine weiteren Aufgaben freizugeben, bis die Experten das Problem identifiziert haben. Die CMS-Warteschlange wird bald anfangen leerzulaufen und ich erwarte, dass die Aufgaben für Freiwillige innerhalb weniger Stunden aufgebraucht sind (es konnte noch Nachbearbeitungsaufgaben geben, aber diese laufen am CERN, nicht auf euren Maschinen). Ich empfehle, dass ihr keine neuen Aufgaben zulasst oder auf ein anderes Projekt umschaltet, bis diese Situation behoben ist.
23.04.2018, 16:50:52 MEZ

Originaltext:

CMS production pause
We have run into a problem with the CMS project -- the merged result files processed at CERN are failing to be written to central storage. Consequently I have decided not to submit any more jobs until the experts have clarified what the problem is. The CMS jobs queue is about to start draining and I expect it to be empty of volunteer jobs within a few hours (there may still be post-production jobs, but these run at CERN, not on your machines). I suggest you set No New Tasks or transfer to another project until the situation is resolved.
23 Apr 2018, 15:50:52 UTC

Major
27.06.2018, 14:34
Test einer neuen SixTrack-Version

Sehr geehrte Damen und Herren,
Wir sind dabei, eine neue Sixtrack-Version, d. h. 5.00.00, zu testen. Dies ist ein echtes Upgrade des Codes, der gründlich überarbeitet wurde - einschließlich der dynamischen Speicherzuweisung. Außerdem bietet es Korrekturen für die bereits implementierte Physik, z. Solenoidfelder und Online-Aperturprüfung und brandneue Implementierungen, z.B. Elektronenlinsen und Ionenverfolgung. Wir schließen die Implementierungen ab, daher ist die Version, die als sixtracktest ausgeführt wird, ein schneller Test der Hauptfunktionen und eine Code-Restrukturierung.

Mehr dazu in den nächsten Tagen / Wochen.
Vielen Dank für Eure wertvolle Hilfe!
Macht weiter so, und happy crunching!
Alessio, für das SixTrack-Team
27 Jun 2018, 7:13:28 UTC

Originaltext:

Dear all,
we are in the process of testing a new sixtrack version, i.e. 5.00.00. This is a true upgrade of the code, which has been re-factored deeply - including dynamic memory allocation. Moreover, it provides fixes to the physics already implemented, e.g. solenoidal fields and online aperture checking, and brand new implementations, e.g. electron lenses and ion tracking. We are finalising the implementations, hence the version running as sixtracktest is a quick test of the main functionalities and code re-factoring.
More to come in the next days / weeks.
Thanks a lot for your precious help!
Keep up the good work, and happy crunching!
Alessio, for the SixTrack team

-jb-
02.07.2018, 18:40
Der Klassiker: Lass uns mal ein paar Einträge aus der Datenbank löschen ... Nanu, warum ist die jetzt leer?
Wer also ein paar WUs vermisst: https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4749&postid=35748#35748

This morning a procedure was run to remove all orphaned tasks. However, more results were deleted than intended and impacted some running tasks.

Bei mir hat es sämtliche, auch alle Laufenden, WUs zerschossen.

lugu
03.07.2018, 10:56
Ok, das erklärt einiges...

pschoefer
19.10.2018, 16:58
Derzeit gibt es zwar keine Sixtrack-WUs, das sollte sich in einigen Wochen jedoch wieder ändern, da in dieser Woche das Jahrestreffen der mit der Aufrüstung des LHC beschäftigten Forscher stattfand. In den in der folgenden Meldung verlinkten Vorträgen wurde auch explizit den am Projekt teilnehmenden Crunchern für ihre Rechenleistung gedankt.

Neuigkeiten zu SixTrack
Liebe Freiwillige,

trotz der Pause und mangelnder Simulationsarbeit geht es im Hintergrund voran! Die meisten Tracker waren mit Vorbereitung und Besuch des jährlichen Treffens der HiLumi-Kollaboration beschäftigt. Zum Beispiel:
neue Scan-Parameter für Studien zur dynamischen Apertur, um offene Fragen bezüglich des unterschiedlichen Verhaltens der beiden Teilchenstrahlen im LHC zu klären:
https://indico.cern.ch/event/743633/contributions/3071974/attachments/1695257/2728719/VanderVeken_phase_dp.pdf (engl.)
Neuigkeiten zu Ergebnissen zur dynamischen Apertur bezüglich der neuesten Entwicklungen der HL-LHC-Optik:
https://indico.cern.ch/event/742082/contributions/3085158/attachments/1736226/2808309/nkarast_HLCollab_18102018.pdf (engl.)

Das Kollaborationstreffen ist die wichtigste Veranstaltung der vom CERN geleiteten Kollaboration, welche die Aufrüstung der Luminosität des LHC entwickelt und baut. Das ist nicht nur ein Forum zum Präsentieren und Diskutieren aktueller Ergebnisse, sondern auch eine Veranstaltung, die neue Ideen und Forschungen inspiriert. Daher möchten wir bekanntgeben, dass wir in ein paar Wochen wieder auf euch zurückkommen und auf eure gewohnt fantastische und wesentliche Unterstützung zählen, um neue Simulationskampagnen zu starten!

Bleibt dran!

Alessio und Massimo für das SixTrack-Team
19.10.2018, 9:17:24 MEZ

Originaltext:

SixTrack news
Dear Volunteers,

In spite of the break and lack of simulation work things are moving behind the scenes! Most of the trackers have been busy with the preparation of and attendance to the HiLumi annual collaboration meeting. For instance:
new scanning parameters for DA studies, to shed some light on open points concerning the different behavior of the two beams in the LHC:
https://indico.cern.ch/event/743633/contributions/3071974/attachments/1695257/2728719/VanderVeken_phase_dp.pdf
an update of DA results to the latest developments on HL-LHC optics:
https://indico.cern.ch/event/742082/contributions/3085158/attachments/1736226/2808309/nkarast_HLCollab_18102018.pdf

The collaboration meeting is the most important event of the large collaboration, led by CERN, that is designing and building the High-Luminosity upgrade of the LHC. This is not only a forum to present and discuss recent results, but also an event that inspires new ideas and studies. Therefore, we would like to announce that in few weeks we will be back to you, counting on your usual fantastic and essential support, to launch new simulation campaigns!

Stay tuned!

Alessio and Massimo, for the SixTrack team
19 Oct 2018, 8:17:24 UTC

Major
26.11.2018, 23:21
Hat noch jemand WUs des Typs "w-c1_job.B1.ionoptics_*******" am Laufen?

Ich bin ja von Sixtrack schon recht viel gewöhnt: WUs die nur Sekundebruchteile dauern und auch solche die ein paar Stunden dauern ...
aber die übertreffen momentan alles Gewohnte ... nach ca. 14 Stunden bei 80% :blink:
Oder laufen die nur bei mir so grottig?

Topper
26.11.2018, 23:52
Hat noch jemand WUs des Typs "w-c1_job.B1.ionoptics_*******" am Laufen?

Ich bin ja von Sixtrack schon recht viel gewöhnt: WUs die nur Sekundebruchteile dauern und auch solche die ein paar Stunden dauern ...
aber die übertreffen momentan alles Gewohnte ... nach ca. 14 Stunden bei 80% :blink:
Oder laufen die nur bei mir so grottig?

Ich hab C5er und die Laufzeiten schwanken schon heftig. Hatte manche in 2std durch und manche laufen jetzt noch nach 7std

pschoefer
10.12.2018, 21:05
Nach dem Testprojekt bekommt am morgigen Dienstag, den 11. Dezember, auch das LHC@home-Hauptprojekt die aktuelle BOINC-Serversoftware:

Serveraktualisierung
Die LHC@home-BOINC-Server werden am Dienstagmorgen um 9 Uhr MEZ auf die neueste BOINC-Serversoftware (https://github.com/BOINC/boinc/releases) aktualisiert. Die BOINC-Dienste wie Upload/Download, Aufgabenvalidierung und -assimilierung werden während des Eingriffs zur Aktualisierung unserer Server für etwa 1 Stunde angehalten.
10.12.2018, 16:43:39 MEZ

Originaltext:

Server upgrade
The LHC@home BOINC servers will be upgraded to the latest BOINC server release (https://github.com/BOINC/boinc/releases) Tuesday morning at 8AM GMT. BOINC services like upload/download and task validation and assimilation will be paused for about 1 hour during the intervention to update our servers.
10 Dec 2018, 15:43:39 UTC

nexiagsi16v
11.12.2018, 10:55
Ich hab in einem Wissenschaftspodcast gehört, das der LHC nun für 2 Jahre ruht und technisch erneuert und gewartet wird. WU-Versorgung dürfte somit dünner werden?

pschoefer
11.12.2018, 12:48
Ich hab in einem Wissenschaftspodcast gehört, das der LHC nun für 2 Jahre ruht und technisch erneuert und gewartet wird. WU-Versorgung dürfte somit dünner werden?
Nein. SixTrack beschäftigt sich allgemein mit der Physik von Teilchenbeschleunigern und wird immer wieder erweitert, sodass dort auch weiterhin immer wieder Simulationen laufen werden, deren Ergebnisse in den Umbau des LHC und in zukünftige Beschleuniger einfließen. Theory Simulation ist, wie der Name nahelegt, erstmal reine Theorie, und die auf Basis dieser Simulationen erdachten Modelle kann man auch später noch mit der Wirklichkeit vergleichen, wenn der LHC wieder läuft. Für ATLAS Simulation hat ein Admin bereits klargestellt (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4893), dass es weitergeht; die Leute, welche die ATLAS-Daten der letzten vier Jahre auswerten, brauchen auch weiterhin die Ergebnisse von Simulationen zum Vergleich. Das würde auch für LHCb Simulation gelten, aber das wurde ja aus anderen Gründen auf Eis gelegt. CMS Simulation soll bald zurückkommen (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4882&postid=37363#37363).

An der WU-Versorgung sollte sich also nichts ändern.

Major
16.12.2018, 18:23
Falls sich noch jemand wundert dass seit dem Server-Upgrade keine Stats mehr exportiert werden:

In den LHC-Einstellungen (https://lhcathome.cern.ch/lhcathome/prefs.php?subset=project) muss folgender Punkt explizit angewählt werden "Do you consent to exporting your data to BOINC statistics aggregation Web sites?"

Sonst gibt es keine Userbezogenen Statsexporte mehr und die Statsseiten sehen weiterhin ... ääähmmm ... seltsam aus.
Aber da vermutlich nur wenige diese Änderung machen, werden die Userstats sicherlich nur noch eine "eingeschränkte" Aussagekraft haben. :dry:

Felix_M_
16.12.2018, 18:36
danke für die erinnerung, hätte ich sonst vergessen sgaktiv

Uwe-Bergstedt
16.12.2018, 18:41
Geändert, Danke für die Info Major :thumbup::x)

KidDoesCrunch
16.12.2018, 21:14
Hi Major, Thanks! Done. :zustimm:

No_Name
16.12.2018, 21:38
:erledigt:

:thumbup:

pschoefer
09.01.2019, 19:27
Wie bereits World Community Grid und Einstein@Home exportiert auch LHC@home aus Datenschutzgründen künftig nur noch die Statistiken von Benutzern, die dem zugestimmt haben. Wer keine Zustimmung erteilt, dessen LHC@home-Punkte werden auf Drittseiten wie BOINCstats oder Free-DC künftig nicht mehr angezeigt. Diese Funktion war im Dezember bereits kurzzeitig aktiviert; wer bereits die entsprechende Option in den Projekteinstellungen aktiviert hatte, braucht das nicht erneut zu tun.

Zustimmung zum Export von Statistiken benötigt
Nach Umsetzung der DSGVO-Konformität in BOINC wird jetzt die Zustimmung des Benutzers zum Export der BOINC-Statistiken von LHC@home zu BOINC-Statistikseiten wie BOINCstats (https://boincstats.com/de) benötigt.

Um eure Zustimmung zu erteilen, meldet euch bitte auf der LHC@home-Seite an und aktualisiert eure Projekteinstellungen. Sobald ihr auf der LHC@home-Seite angemeldet seid, besucht bitte die Projekteinstellungsseite (https://lhcathome.cern.ch/lhcathome/prefs.php?subset=project).

Klickt auf "Einstellungen bearbeiten" und setzt dann den Haken in der Zeile:
"Do you consent to exporting your data to BOINC statistics aggregation Web sites?" (Stimmt ihr dem Export eurer Daten für BOINC-Statistik-Webseiten zu?)

Das aktiviert den weiteren Export von LHC@home-Statistiken für euer BOINC-Benutzerkonto. Wenn ihr den Haken nicht setzt, werden die Statistiken nicht mehr exportiert.

Danke für euren Beitrag zu LHC@home!
09.01.2019, 17:10:34 MEZ

Originaltext:

Consent required to export statistics
Following the implementation of GDPR compliance with BOINC, user consent is now required to export BOINC statistics from LHC@home to BOINC statistics sites, such as BOINC stats (https://boincstats.com/).

To grant your consent, please login to the LHC@home site and update your project preferences. Once logged on to the LHC@home site, please navigate to the Project Preferences page (https://lhcathome.cern.ch/lhcathome/prefs.php?subset=project).

Click on "Edit preferences" and then tick the box on the line:
"Do you consent to exporting your data to BOINC statistics aggregation Web sites?"

This will enable continued export of statistics from LHC@home for your BOINC user account. If you leave the box unchecked, statistics should no longer be exported.

Thanks for your contributions to LHC@home!
9 Jan 2019, 16:10:34 UTC

AxelS
10.01.2019, 07:47
Ich habe den Export meiner Statistik heute nachträglich noch zugestimmt. Allerdings musste ich beim Einloggen erstmal den General terms-of-use for this BOINC project zustimmen. Das war mir nicht bekannt.

bossmaniac
14.01.2019, 12:10
Ich habe den Export meiner Statistik heute nachträglich noch zugestimmt. Allerdings musste ich beim Einloggen erstmal den General terms-of-use for this BOINC project zustimmen. Das war mir nicht bekannt.

Toll, klappt gerade nicht
"Website error when attempting to agree to terms of use. Please contact the site administrators." :sad:

Na geht doch, hab nichts gesagt . :lipsrsealed: Mal sehen wann ich wieder in stats auftauche.

Uwe-Bergstedt
15.01.2019, 17:23
Über 30 Mitglieder nur unter den 100Besten hats erwischt keine Boincstats von LHC was sich durch ein Minuscredit von Heute darstellt, man sollte halt mal sich im Forum umsehen da wird man rechtzeitig informiert:x)

https://boincstats.com/de/stats/-5/user/list/0/0/12856b5e27ddcdc8927dcdaaea5f2771/#18

XSmeagolX
15.01.2019, 18:29
Ein Minuscredit für SG kann ich auf den ersten Blick nicht feststellen.

Von den "eigentlichen" 2.779 Mitgliedern werden nun "nur" noch 65 bei boincstats gelistet.
Wir haben noch alle in den SG-Stats, weil ich die Mitglieder nicht über die Projekt-Exporte abrufe. Bin mal gespannt, wann sie diese Option aus dem Servercode rausnehmen! :D

@Minuscredit:
Ok... Habs gefunden bei boincstats.com. Bezieht sich auf die Gesamtcredits beim Projekt.
Keine Ahnung, wie Willy die Gesamtcredits beim Projekt berechnet, aber wahrscheinlich dann wohl aus der Summe der Credits der Einzeluser.
Das wird er dann wohl mal ändern müssen.

taurec
16.01.2019, 21:56
Hallo zusammen, ich stelle das einfach mal hier mit rein.
Quelle:
https://www.heise.de/newsticker/meldung/Teilchenbeschleuniger-Future-Circular-Collider-CERN-stellt-Konzept-fuer-LHC-Nachfolger-vor-4278299.html

Wenn's nicht passt bitte ich einen der Admins um Verschiebung. Sorry

Major
24.02.2019, 15:48
Wer Interesse hat Cern einen Besuch abzustatten, sollte sich den 14 und 15. September 2019 vormerken.
Dann werden wieder die "Cern Open Days" stattfinden und damit die Möglichkeit, sich u.a. die unterirdischen Anlagen einmal aus der Nähe zu betrachten.

CERN Open Days - Explore the future with us! (https://home.cern/news/news/cern/cern-open-days-explore-future-us) (engl.)

Details zum Programm werden in 2019 bekanntgegeben.

aendgraend
26.02.2019, 10:44
Hat jemand Interesse da hinzufahren? Ich bin echt am überlegen.

HeNiNnG
26.02.2019, 10:46
Hat jemand Interesse da hinzufahren? Ich bin echt am überlegen.

Also ich habs mal im Kalender eingetragen. Bin auch sehr interessiert :)

Uwe-Bergstedt
26.02.2019, 12:53
sowas in der Art haben wir in Hamburg auch da braucht man nicht für in die Schweiz zu fahren
https://www.desy.de/

https://www.desy.de/e120278/header281732/@@DESYIntegratedHeaderImage?lang=ger



es gibt auch Infos über LHC : https://www.desy.de/forschung/anlagen__projekte/lhc/index_ger.html

Major
26.02.2019, 18:07
Hat jemand Interesse da hinzufahren? Ich bin echt am überlegen.

Irgendwie juckt es mich schon ... und Mitte September wäre noch'ne geniale Zeit das Mopped über den einen oder anderen Pass in den Alpen zu hetzen ... :twisted:


sowas in der Art haben wir in Hamburg auch da braucht man nicht für in die Schweiz zu fahren
https://www.desy.de/

https://www.desy.de/e120278/header281732/@@DESYIntegratedHeaderImage?lang=ger

https://www.desy.de/e120278/header281956/@@DESYIntegratedHeaderImage?lang=ger


es gibt auch Infos über LHC : https://www.desy.de/forschung/anlagen__projekte/lhc/index_ger.html

Auch das wäre nicht zu verachten ... muss ich mich einmal einlesen.
Noch dazu könnte man das mit einem ausgedehnten Hamburgbesuch verbinden ...

Uwe-Bergstedt
27.02.2019, 20:50
Der Film Illuminati heute um 20Uhr15 auf Kabel 1 handelt am Anfang zu sehen von LHC in Cern und zeigt die Herstellung von Antimaterie in dem Beschleunigerring die danach als Bombe herhalten muß

pschoefer
19.04.2019, 11:23
Seit gestern können die Ergebnisse des Subprojektes CMS Simulation nicht mehr auf den Hintergrundspeicher geschrieben werden. Aus Teilnehmersicht fällt das nicht sofort auf, aber das Projekt bittet darum, vorerst keine neuen Aufgaben dieses Subprojektes zu bearbeiten.

Problem beim Schreiben der Ergebnisse von CMS-Aufgaben; bitte meidet CMS-Aufgaben, bis wir den Grund gefunden haben
Seit irgendwann in der letzten Nacht scheinen die CMS-Aufgaben ihre Ergebnisse nicht mehr auf den CERN-Speicher (DataBridge) schreiben zu können. BOINC-Aufgaben sind nicht betroffen, sie laufen weiterhin und Credits werden vergeben, soweit ich das sehen kann. In der Übersicht werden die Aufgaben jedoch als fehlerhaft angezeigt, daher die großen roten Bereiche in den Grafiken zu den Aufgaben.
Bis wir das Problem lokalisiert haben, ist es am besten, keine neuen Aufgaben zuzulassen oder CMS-Aufgaben anderweitig zu umgehen. Ich lasse euch wissen, wenn alles wieder normal läuft.
18.04.2019, 16:44:45 MEZ

Originaltext:

Problem writing CMS job results; please avoid CMS tasks until we find the reason
Since some time last night CMS jobs appear to have problems writing results to CERN storage (DataBridge). It's not affecting BOINC tasks as far as I can see, they keep running and credit is given. However, Dashboard does see the jobs as failing, hence the large red areas on the job plots.
Until we find out where the problem lies, it's best to set No New Tasks or otherwise avoid CMS jobs. I'll let you know when things are back to normal again.
18 Apr 2019, 15:44:45 UTC

pschoefer
04.05.2019, 00:25
Eine komplett überarbeitete Version des SixTrack-Programms hat nun ihren Weg in das BOINC-Projekt gefunden, bisher für Windows (32- und 64-Bit) und Linux (64-Bit) jeweils in einer SSE2- und einer AVX-optimierten Fassung. Neue WUs gab es bisher nur wenige, aber die neuen Funktionen eröffnen so viele neue Möglichkeiten, dass künftige Leerläufe wohl erstmal nicht mehr so lange anhalten sollten wie die nun beendete Pause.

Neue SixTrack-Version 5.02.05 unter BOINC für Produktivbetrieb freigegeben
Liebe Freiwillige,

nach einer langen Entwicklungs- und Testphase freuen wir uns bekanntzugeben, dass wir unter BOINC eine neue Hauptversion von SixTrack haben. Das Entwicklerteam hat eindrucksvolle Arbeit beim Restrukturieren des Codes gemacht, Arrays in dynamische Speicherzuweisung überführt, den Quellcode (der in wenigen, riesigen Quelldateien zusammengefasst war) in fortran90-Module aufgespaltet, die Wartung vereinfacht und eine Menge doppelten Code und riesige Arrays gelöscht - von unzähligen behobenen Problemen, Aktualisierungen der Dokumentation, umgeschriebener Eingabeauswertung sowie Verbesserungen des Erstellungssystems und der Testumgebung ganz zu schweigen.

Wir haben auch eine Reine neuer Funktionen eingebaut. Die meisten davon sind noch nur auf dem Batch-System am CERN verfügbar (z.B. die Verknüpfung mit Geant4 oder Pythia, Kopplung an FLUKA oder anderen externen Code, Unterstützung für ROOT und HDF5), aber viele können bereits in BOINC-Aufgaben ausgeliefert werden, etwa die Prüfung der Apertur zur Laufzeit, Elektronenlinsen, verallgemeinerte Radiofrequenz-Multipole, Quadrupol-Randfelder und das Hashen von Dateien zwecks Überprüfung. All diese neuen Funktionen werden es uns ermöglichen, neue Maschinenkonfigurationen zu untersuchen und Ergebnisse zu verfeinern, und wir zählen auf eure Unterstützung!

Vielen Dank nochmals für eure Unterstützung und macht weiter so!

Alessio für das SixTrack-Team
03.05.2019, 17:01:25 MEZ

Originaltext:

new SixTrack version 5.02.05 released on BOINC for production
Dear volunteers,

after a long period of development and testing, we are pleased to announce that we have on BOINC a new major release of SixTrack. The development team made an impressive job to re-factorise the code, porting arrays to dynamic memory allocation, splitting the source code (gathered in few, huge source files) into fortran90 modules, making maintenance easier and deleting a lot of duplicated code and massive arrays - without mentioning countless bug fixes, documentation updates, re-written input parsing, improved build system and test suite.

We have also implemented plenty of new features. Most of them are still available only on the batch system as CERN (e.g. linking to Geant4 or Pythia, running coupled to FLUKA or other external codes, support for ROOT and HDF5), but many of them can be already deployed by BOINC jobs, like on-line aperture checking, electron lenses, generalised RF-multipoles, quadrupole fringe fields, and hashing of files for checks. All these new features will allow us to study new machine configurations and refine results, and we count on your help!

Thanks again for your support, and keep up the good work!

Alessio, for the SixTrack Team
3 May 2019, 16:01:25 UTC

pschoefer
15.05.2019, 14:37
Aktive Teilnehmer des Subprojektes CMS Simulation werden gebeten, vorerst keine neuen BOINC-Aufgaben zu beginnen, da die Warteschlage für eine Softwareaktualisierung leerlaufen muss.

Bitte keine neuen CMS-Aufgaben zulassen
Hallo an alle CMS-Teilnehmer. Wir müssen die Aufgaben-Warteschlange leerlaufen lassen, damit eine neue WMAgent-Version installiert werden kann.
Könnt ihr bitte auf "keine neuen Aufgaben" stellen, damit eure aktuellen Aufgaben fertiggestellt werden und keine neuen begonnen werden? Wenn ihr WUs habt, die auf die Ausführung warten, pausiert sie bitte oder brecht sie ab.
Danke, ich werde euch informieren, wenn die Änderung abgeschlossen ist.
14.05.2019, 15:40:22 MEZ

Originaltext:

CMS -- Please set "no new tasks"
Hi to all CMS-ers. We need to drain the job queue so that a new version of the WMAgent can be installed.
Can you please set No New Tasks so that your current tasks can run out and no new jobs start? If you have any tasks waiting to run, please suspend or abort them.
Thanks, I'll let you know as soon as the change is done.
14 May 2019, 14:40:22 UTC

taurec
15.05.2019, 16:09
Aktive Teilnehmer des Subprojektes CMS Simulation werden gebeten, vorerst keine neuen BOINC-Aufgaben zu beginnen, da die Warteschlage für eine Softwareaktualisierung leerlaufen muss.

Bitte keine neuen CMS-Aufgaben zulassen
Hallo an alle CMS-Teilnehmer. Wir müssen die Aufgaben-Warteschlange leerlaufen lassen, damit eine neue WMAgent-Version installiert werden kann.
Könnt ihr bitte auf "keine neuen Aufgaben" stellen, damit eure aktuellen Aufgaben fertiggestellt werden und keine neuen begonnen werden? Wenn ihr WUs habt, die auf die Ausführung warten, pausiert sie bitte oder brecht sie ab.
Danke, ich werde euch informieren, wenn die Änderung abgeschlossen ist.
14.05.2019, 15:40:22 MEZ

Originaltext:

na super, da habe ich mir 10 gezogen ...:(

nexiagsi16v
15.05.2019, 16:24
Ist doch egal, die kannst du rechnen, nur halt keine neuen ziehen. Ich denke mal das sie nicht in den nächsten 48h da wirklich Hand anlegen werden.

pschoefer
15.05.2019, 19:21
Doch, es wurde Hand angelegt, aber der zuständige Admin hat vor einer Stunde Entwarnung gegeben. CMS Simulation läuft also wieder wie üblich, wenn auch wegen des Pentathlons gerade mit etwas geringerer Scheduler-Priorität.

taurec
15.05.2019, 19:31
8 WU sind schon abgebrochen, und der Burner sind die Credits für die beiden anderen auch nicht .... egal, sind ja für alle gleich. Schade wenn man sie schon mal hat :(

pschoefer
29.05.2019, 18:16
Die Wissenschaftler hinter SixTrack bedanken sich noch einmal explizit für die Zusatzleistung durch den Sprint beim vergangenen BOINC Pentathlon. Kürzlich ist zudem ein Artikel im Fachjournal Physical Review Accelerators and Beams erschienen, der die Ergebnisse früherer Berechnungen über LHC@home verwendet.

BOINC Pentathlon 2019 ist vorbei - ein großer Dank vom SixTrack-Team!
Liebe Freiwillige,

der Pentathlon 2019 ist vorbei und wir möchten allen Teilnehmern dafür danken, unsere WUs gecruncht zu haben! Die unter BOINC zur Verfügung stehende CPU-Leistung hat sich fast verdoppelt und unsere Berechnungen beschleunigt, auch wenn es nur für ein paar Tage war. Wir sind dafür sehr dankbar!

Das SixTrack-Team möchte auch all euch Freiwilligen danken, die uns regelmäßig mit ihren CPUs unterstützen. Ihr gebt uns die Möglichkeit, unser Verständnis der Dynamischen Apertur zu vertiefen, einer Größe von höchster Wichtigkeit für die Stabilität von Teilchenstrahlen in großen Beschleunigern wie supraleitenden Speicherringen. Zu guter Letzt ein brandneuer Artikel im wichtigsten Journal im Feld der Beschleunigerphysik, welcher Simulationen und Messungen vergleicht, wobei die Simulationsergebnisse dank euch und BOINC erzielt wurden:
https://journals.aps.org/prab/pdf/10.1103/PhysRevAccelBeams.22.034002 (engl.)

Viel wurde schon mit eurer Hilfe erreicht, aber in der nächsten Zeit wird noch viel mehr kommen. Wir zählen auf eure Unterstützung!
Macht weiter so,
Alessio und Massimo für das SixTrack-Team
20.05.2019, 9:00:15 MEZ

Originaltext:

2019 BOINC Pentathlon is over - a big thank you from the SixTrack team!
Dear volunteers,

the 2019 pentathlon is over, and we would like to thank all the participants for having crunched our tasks! We saw the BOINC CPU capacity almost doubled, boosting our calculations, even though it was only for few days. We are very grateful for that!

The SixTrack team would also like to thank all you volunteers who regularly support us with your CPUs. You give us the possibility to deepen our understanding of the dynamic aperture, a quantity of paramount importance for the stability of particle beams in big research accelerators like superconducting colliders - last but not least a very recent paper on the most important journal in the field of accelerator physics, comparing simulations and measurements:
https://journals.aps.org/prab/pdf/10.1103/PhysRevAccelBeams.22.034002
where simulation results have been obtained thanks to you and BOINC!

A lot has been already done with your help, but a lot more has still to come in the next future. We count on your support!
Keep up the good work,
Alessio and Massimo, for the SixTrack team
20 May 2019, 8:00:15 UTC

pschoefer
05.06.2019, 18:18
SixTrack 5 ist jetzt nach Windows und Linux (64-Bit) auch für weitere Plattformen verfügbar, darunter Android und Linux auf 64-Bit-ARM-CPUs:

Neue SixTrack-5.02.05-Anwendungen
Liebe Freiwillige,

wir freuen uns, die Freigabe neuer Anwendungen der aktuellen Version (v5.02.05) für den Produktivbetrieb (SixTrack) bekanntzugeben. Wir haben neue Anwendungen für FreeBSD (avx/sse2), eine Anwendung für Windows XP (32-Bit), eine aarch64-Anwendung für Linux und eine für Android. Vielen Dank an James, Kyrre und Veronica, dass sie die Zeit zum Erstellen dieser Anwendungen gefunden haben.

Das Verteilen eine Anwendung, die mit XP-Rechnern kompatibel ist, soll niemanden ermuntern, weiterhin veraltete Betriebssysteme einzusetzen, sondern einen sanfteren Übergang auf neuere Betriebssysteme ermöglichen. Auf diese Weise verpassen Teilnehmer mit XP-Rechnern nicht die Möglichkeit, an der aktuellen Welle von SixTrack-Aufgaben (die recht lang anhalten sollte) teilzunehmen, während sie über Möglichkeiten der Aktualisierung ihrer Rechner nachdenken. Gleichzeitig versuchen wir, 32-Bit-Linux-Anwendungen vorzubereiten. Nehmt zur Kenntnis, dass alle Windows-Anwendungen ohne Filter nach bestimmten Versionen verteilt werden - daher könnten XP-Rechner die normalen Windows-Anwendungen erhalten, welche sofort abstürzen, aber der BOINC-Server sollte schnell lernen, dass die XP-kompatible Anwendung die richtige ist.

Wir freuen uns sehr, nun auch FreeBSD- und Android-Nutzer in unseren Betrieb einzubeziehen. Für letztere Plattform laufen die aktuellen Anwendungen nicht auf Android-Version 8 oder neuer. James beschäftigt sich noch damit. Da das Scheduler-seitige Filtern nach Android-Version noch fehlerhaft ist (siehe https://github.com/BOINC/boinc/issues/3172, engl.), haben wir die Android-Anwendung als Testanwendung markiert. Daher sollten SixTrack-Teilnehmer mit Android 8 oder neuer keine Aufgaben für die entsprechenden Rechner anfordern oder die Option Die Ausführung von Testanwendung erlauben? in ihren LHC@home-Projekteinstellungen (https://lhcathome.cern.ch/lhcathome/prefs.php?subset=project) deaktivieren.

Wir verfolgen auch die Erzeugung von Anwendungen für macOS und sollten diese bald unter sixtracktest testen können.

Danke für eure fortwährende Unterstützung und Hilfe,
Alessio für das SixTrack-Team
04.06.2019, 11:17:02 MEZ

Originaltext:

new exes for SixTrack 5.02.05
Dear volunteers,

we are pleased to announce the release to production (SixTrack app) of new exes for the current pro version (v5.02.05). We have new exes for FreeBSD (avx/sse2), an exe for XP hosts (32bits), an aarch64 executable for Linux, and one for Android. Many thanks to James, Kyrre and Veronica for finding the time to produce them.

Distributing an exe compatible with XP hosts is not a way to encourage people to stay with unsupported OSs, but rather a trial to have a smooth transition to more recent OSs. In this way, people with XP hosts do not miss the possibility to contribute to the present wave of SixTrack tasks (expected to be quite long) while considering options for upgrading their hosts. At the same time, we are looking into preparing 32bits Linux exes. It should be noted that all Win exes are distributed without targeting specific kernel versions - hence, XP hosts may receive tasks with regular Windows exes immediately failing, but the BOINC server should quickly learn that the XP-compatible exe is the appropriate one.

We are also very happy to start involving freeBSD and Android users in our production chain. For the latter platform, the present exe won't run on Android versions >=8 - James is still looking into this. Since the android version filtering needs a fix on the scheduler side:
https://github.com/BOINC/boinc/issues/3172
we labelled the Android exe as beta. Hence, Sixtrack beta users with Android 8 and later should not request tasks for that host or untick the test applications flag in their LHC@home project preferences.

We are pursuing also the generation of MacOS exes, and we should test them soon on sixtracktest.

Thanks for your continuous support and help,
Alessio, for the SixTrack team
4 Jun 2019, 10:17:02 UTC

pschoefer
19.06.2019, 20:01
Eine Serie sehr langer SixTrack-WUs wurde leider mit unzureichendem Festplattenlimit verschickt, sodass BOINC sie vor der Fertigstellung abbrechen würde. Daher wurden die betroffenen WUs serverseitig abgebrochen. Wer vor gestern Nachmittag WUs heruntergeladen und seither keinen Kontakt zum Projektserver hatte, sollte daher einmal das Projekt aktualisieren, damit BOINC nicht unnötigerweise versucht, diese WUs zu berechnen.

Extrem lange SixTrack-Aufgaben abgebrochen
Hallo zusammen,

wir mussten etwa 10000 WUs mit den Namen w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc* wegen unzureichender Festplattenspeicheranforderung abbrechen.

Diese Aufgaben wären ohnehin an einem bestimmten Punkt von BOINC mit der Fehlermeldung EXIT_DISK_LIMIT_EXCEEDED abgebrochen worden - siehe bitte https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5062 für weitere Informationen.

Diese Aufgaben umfassen 10 Millionen LHC-Umläufe, zehnmal so viele wie üblich, und die Dateien wachsen und wachsen, bis das Limit erreicht ist.

Nicht alle Aufgaben mit solchen Namen wurden abgebrochen - ich habe nur solche abgebrochen, welche einen stabilen Teilchenstrahl umfassen sollten; diese Aufgaben sollten lang laufen und daher das Festplattenlimit erreichen. In den anderen WUs sollten so viele Teilchen verloren gehen, dass das Limit nicht erreicht wird - bitte meldet in diesem Thread, wenn das nicht der Fall ist. Durch diese Auslese beim Abbrechen sollten so viele bereits in Bearbeitung befindliche oder auf Validierung wartende WUs wie möglich erhalten bleiben.

Sobald ihr in eurem BOINC-Manager das Projekt LHC@home aktualisiert, sollten die Aufgaben abgebrochen werden.

Wir werden die gleichen Aufgaben bald noch einmal mit passender Festplattenanforderung herausgeben.
Entschuldigung für die Störung und danke für euer Verständnis.
A.
18.06.2019, 17:49:08 MEZ

Originaltext:

killing extremely long SixTrack tasks
Dear all,

we had to kill ~10k WUs named:
w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc*

due to a mismatch between the requested disk space and that actually necessary to the job.
These tasks would anyway be killed by the BOINC manager at a certain point with an EXIT_DISK_LIMIT_EXCEEDED message - please see:
https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5062
for further info.

These tasks cover 10^7 LHC turns, a factor 10 larger than usual, with files building up in dimension until the limit is hit.

The killing does not involve all tasks with such names - I have killed only those that should cover the stable part of the beam; these tasks are expected to last long and hence reach the limit in disk usage. The other WUs should see enough beam losses that the limit is not reached - please post in this thread if this is not the case. The cherry-picking killing was done in the effort of preserving as much as possible tasks already being crunched or pending validation.

As soon as you update the LHC@project on your BOINC manager you should see the task being killed.

We will resubmit soon the same tasks, with appropriate disk requirements.
Apologies for the disturbance, and thanks for your understanding.
A.
18 Jun 2019, 16:49:08 UTC

pschoefer
21.07.2019, 09:41
Am morgigen Montag, den 22. Juli, werden einige Teile der Projektinfrastruktur neu gestartet, was dazu führen wird, dass laufende WUs des Subprojekts CMS Simulation abbrechen werden. Der zuständige Administrator rät daher dazu, rechtzeitig keine neuen Aufgaben mehr herunterzuladen:

CMS@Home-Unterbrechung am Montag, den 22. Juli
Ich habe die folgende Nachricht aus der CERN/CMS-IT-Abteilung bekommen:

>> als Folge der Hypervisor-Neustartserie, die von der CERN-IT hier angekündigt wurde: https://cern.service-now.com/service-portal/view-outage.do?n=OTG0051185
>> werden die folgenden Virtuellen Maschinen, die zum CMS-Production-Openstack gehören, am Montag, den 22. Juli ab 08:30 MESZ neu gestartet:
...
>> | vocms0267 | cern-geneva-b | cms-home

worauf ich antwortete:
> Danke Alan. Auf vocms0267 läuft das CMS@Home-Projekt. Sollte ich die Freiwilligen vor der Unterbrechung warnen oder wird das eher unsichtbar verlaufen?

und diese Antwort erhielt:
Laufende Aufgaben werden fehlschlagen, da sie sich nicht mit dem schedd-condor_shadow-Dienst verbinden können. Das wird die für die Teilnehmer sichtbare Auswirkung sein. Es wird auch ein kurzes Zeitfenster geben (bis ich den Software-Agenten neu gestartet habe), in welchem keine ausstehenden Aufgaben im Condor-Pool sein werden.
Also könnte es sinnvoll sein, die Teilnehmer zu informieren.

Meine Empfehlung ist daher, dass ihr ab Sonntagnachmittag keine neuen Aufgaben von CMS@Home zulasst, damit die laufenden Aufgaben vor dem Neustart um 08:30 MESZ fertig werden. Ich lasse euch wissen, sobald Alan mich informiert, dass vocm0267 wieder läuft.
17.07.2019, 14:14:12 MEZ

Originaltext:

CMS@Home disruption, Monday 22nd July
I've had the following notice from CERN/CMS IT:

>> following the hypervisor reboot campaign, as announced by CERN IT here: https://cern.service-now.com/service-portal/view-outage.do?n=OTG0051185
>> the following VMs - under the CMS Production openstack project - will be rebooted on Monday July 22 (starting at 8:30am CERN time):
...
>> | vocms0267 | cern-geneva-b | cms-home

to which I replied:
> Thanks, Alan. vocms0267 runs the CMS@Home campaign. Should I warn the volunteers of the disruption, or will it be mainly transparent?

and received this reply:
Running jobs will fail because they won't be able to connect to the schedd condor_shadow process. So this will be the visible impact on the users. There will be also a short time window (until I get the agent restarted) where there will be no jobs pending in the condor pool.
So it might be worth it giving the users a heads up.

So, my recommendation is that you set "No New Tasks" for CMS@Home sometime Sunday afternoon, to let tasks complete before the 0830 CST restart. I'll let you know as soon as Alan informs me that vocm0267 is up and running again
17 Jul 2019, 13:14:12 UTC

pschoefer
25.08.2019, 09:28
Seit einigen Tagen befinden sich mehrere Millionen Sixtrack-WUs im System, wodurch die Datenbank zu einem Flaschenhals bei der WU-Verteilung geworden ist. Etwas Abhilfe schaffen inzwischen zusätzliche Scheduler, jedoch haben diese auch Nebeneffekte wie beispielsweise Ungenauigkeiten auf der Serverstatus-Seite (https://lhcathome.cern.ch/lhcathome/server_status.php).

Viele Aufgaben in der Warteschlange - Serverstatus-Seite irrig
Wegen der sehr großen Zahl Sixtrack-WUs in der Warteschlange haben wir die Last auf vier Scheduler/Feeder-Server verteilt, um den Bedarf zu befriedigen. (Unser Flaschenhals ist die Datenbank, aber mehrere Scheduler können mehr WUs zur Verteilung vorhalten.)

Unsere Serverstatus-Seite zeigt den Status der Dienste auf anderen Servern derzeit nicht in Echtzeit. Daher kann die Serverstatus-Seite anzeigen, dass Serverprozesse wie der Feeder auf boincai12 nicht laufen, obwohl sie in Ordnung sind.

Bitte habt auch Geduld, wenn ihr nicht ausreichend schnell WUs für eure bevorzugte Anwendung erhaltet. Nach einigen Versuchen wird es einige WUs geben. Vielen Dank für euer Verständnis und frohes Crunchen!

---das Team
21.08.2019, 12:41:17 MEZ

Originaltext:

Many queued tasks - server status page erratic
Due to the very high number of queued Sixtrack tasks, we have enabled 4 load-balanced scheduler/feeder servers to handle the demand. (Our bottleneck is the database, but several schedulers can cache more tasks to be dispatched.)

Our server status page does not currently show in real time the daemon status on remote servers. Hence the server status page may indicate that server processes like feeder on boincai12 is down, while it is ok.

Please also be patient if you are not getting tasks for your preferred application quickly enough. After a few retries, there will be some tasks. Thanks for your understanding and happy crunching!

---the team
21 Aug 2019, 11:41:17 UTC

pschoefer
30.08.2019, 17:24
Eine Information für die kleine Besuchergruppe aus Reihen unseres Teams:

Tage der offenen Tür am CERN in 2 Wochen!
Während der Tage der offenen Tür 2019 des CERN (https://opendays.cern/) werden wir einen kleinen LHC@home-Stand (https://it-opendays.web.cern.ch/volunteer-computing) als Teil der IT-Aktivitäten (https://it-opendays.web.cern.ch/activities) in Gebäude 504 in der Nähe des Rechenzentrums haben.

LHC@home wird auch am Ort des ATLAS-Experiments (https://opendays.cern/site/atlas-point-1) vertreten sein, in der ATLAS Computing Corner.

Wir hoffen, dass viele von euch das CERN während der Tage der offenen Tür besuchen können und würden uns freuen, euch hier zu sehen!

Bitte berücksichtigt die Besuchsplanungsseite (https://opendays.cern/plan-your-visit) (engl.) und die Liste der Aktivitäten während der Tage der offenen Tür (https://opendays.cern/activities) (engl.) für weitere Informationen über alle Besuchspunkte auf dem CERN-Gelände.
30.08.2019, 10:07:17 MEZ

Originaltext:

CERN Open Days in 2 weeks!
During the CERN Open Days 2019 (https://opendays.cern/), we will have a small LHC@home stand (https://it-opendays.web.cern.ch/volunteer-computing) as part of the IT activities (https://it-opendays.web.cern.ch/activities) in building 504 near the Data Centre.

LHC@home will also be present at the ATLAS experiment site (https://opendays.cern/site/atlas-point-1), in the ATLAS Computing Corner.

We hope that many of you will be able to visit CERN during the Open Days and would be happy to see you here!

Please refer to: Plan your visit (https://opendays.cern/plan-your-visit) and the list of activities during the Open days (https://opendays.cern/activities) for more information about all the visit points on the CERN sites.
30 Aug 2019, 9:07:17 UTC

pschoefer
22.11.2019, 23:43
Am Morgen des kommenden Montags (25. November) legt das Projekt eine etwa einstündige Wartungspause ein:

Datenbankeingriff am Montagmorgen
LHC@home und verbundene BOINC-Dienste werden am Montag, den 25. November, wegen eines Eingriffs in den Datenbankspeicher für etwa eine Stunde nicht verfügbar sein.

Danke für euer Verständnis und frohes Crunchen.
22.11.2019, 14:38:09 MEZ

Originaltext:

Database intervention Monday morning
LHC@home and associated BOINC services will be unavailable for about 1 hour on Monday 25th of November due to a database storage intervention.

Thanks for your understanding and happy crunching.
22 Nov 2019, 13:38:09 UTC

Treti
17.02.2020, 17:07
Wie ist eure aktuelle Erfahrung mit CMS@home? Derzeit wieder einiges an Berechnungsfehlern und "Kommunikation verzögert um 22(+irgendwas) h"

CMS ist ja das einzige neben Sixtrack, das man ohne gewalige Aufstände zum laufen bekommt. (Und das konstant Arbeit geliefert hat).
Der Rest ist ja leider völlig an der Idee von BOINC vorbei (BOINC installieren, Projekt anmelden, rechnen). Da muß man sich erst durch ellenlange Anweisungen (auf englisch) von Nutzern - nichtmal vom Betreiber - quälen, hoffen, daß die so halbwegs aktuell sind, um dann doch entnervt aufzugeben.

Serverstatus - nun ja

Und das von einer der führenden Forschungsinstitutionen der Welt.

taurec
17.02.2020, 21:53
Wie ist eure aktuelle Erfahrung mit CMS@home? Derzeit wieder einiges an Berechnungsfehlern und "Kommunikation verzögert um 22(+irgendwas) h"

CMS ist ja das einzige neben Sixtrack, das man ohne gewalige Aufstände zum laufen bekommt. (Und das konstant Arbeit geliefert hat).
Der Rest ist ja leider völlig an der Idee von BOINC vorbei (BOINC installieren, Projekt anmelden, rechnen). Da muß man sich erst durch ellenlange Anweisungen (auf englisch) von Nutzern - nichtmal vom Betreiber - quälen, hoffen, daß die so halbwegs aktuell sind, um dann doch entnervt aufzugeben.

Serverstatus - nun ja

Und das von einer der führenden Forschungsinstitutionen der Welt.

Bei CMS gab es / gibt es wohl noch Schwierigkeiten:
https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5303

pschoefer
19.02.2020, 17:32
Bei CMS gab es / gibt es wohl noch Schwierigkeiten:
https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5303
In dieser Woche wird sich voraussichtlich auch nichts daran ändern:

Andauernde Probleme mit CMS Simulation
Bitte entschuldigt, dass der HTCondor-Server für das Subprojekt CMS Simulation noch immer Ärger macht. Über das Wochenende verweigerte er abermals die Auslieferung von Aufgaben, obwohl jede Menge verfügbar waren. Wir haben zusammen mit Federica entschieden, in dieser Woche keinen neuen Arbeitsfluss einzuspeisen, damit der Server erneut in den Fehler läuft und sie untersuchen kann, welche ClassAd-Einstellungen nicht erfüllt werden.
Daher werdet ihr in den nächsten Tagen wahrscheinlich beobachten, dass die Zahl der laufenden Aufgaben sinkt und die Zahl der Fehler steigt. Ihr könnt in diesem Fall ruhig einstellen, keine neuen Aufgaben zu akzeptieren. Ich werde das nicht tun, damit der Server immer noch einige Arbeitsanforderungen erhält. Ich habe auch Laurence gefragt, ob ich die Virtuelle Maschine ohne BOINC laufen lassen kann, um das Problem mit dem Tageskontingent zu umgehen.
19.02.2020, 15:07:10 MEZ

Originaltext:

CMS@Home -- ongoing problems
Sorry that the CMS@Home HTCondor server is still playing up. Again over the weekend it refused to serve jobs even though plenty were available. Together with Federica we've decided not to inject another workflow this week, to let if "fail hard" again so that she can investigate which ClassAd preferences are not being met.
So, you will probably see the number of running jobs falling, and the number of errors increasing, in the next few days. Please feel free to set No New Tasks in that case. I won't, so that there is still some pressure for jobs on the server. I've also asked Laurence if I can run the CMS@Home VM outside of BOINC, to get around the quota back-off problem.
19 Feb 2020, 14:07:10 UTC

No_Name
30.03.2020, 09:58
Ich habe beim testen ein Badge bekommen 6688 :)

Bei mir gab es einige Threory WUs, bei denen die VM richtig erstellt wurde, aber keine CPU-Last erzeugt. Der Fortschritt verläuft dann sehr langsam.
Atlas WUs laufen ohne Probleme.
Hat noch jemand dieses Verhalten feststellen können?

Edit: Kann man das Bild, wenn man es direkt über die URL einbindet, auch verkleinern?

Treti
04.04.2020, 19:21
Ich habe beim testen ein Badge bekommen 6688 :)

Bei mir gab es einige Threory WUs, bei denen die VM richtig erstellt wurde, aber keine CPU-Last erzeugt. Der Fortschritt verläuft dann sehr langsam.
Atlas WUs laufen ohne Probleme.
Hat noch jemand dieses Verhalten feststellen können?

Edit: Kann man das Bild, wenn man es direkt über die URL einbindet, auch verkleinern?

Was heißt "richtig eingestellt"? - Unter Windwos bekomme ich keine WUs vielleicht auch, weil Sixtrack den Bunker bis jetzt gefüllt hatte, mit Linux stelle ich mich zu blöd an.

Der Bunker von Sixtrack läuft langsam leer, ne Alternative von LHC wäre nett. CMS hat sich zuletzt nicht als solche erwiesen und hat zur Zeit auch keine WUs parat.

No_Name
04.04.2020, 19:31
Wo habe ich eingestellt geschrieben?

Ich habe mit Windows per VM gerechnet.

Treti
04.04.2020, 20:00
Ich habe beim testen ein Badge bekommen 6688 :)

Bei mir gab es einige Threory WUs, bei denen die VM richtig erstellt wurde, aber keine CPU-Last erzeugt. Der Fortschritt verläuft dann sehr langsam.
Atlas WUs laufen ohne Probleme.
Hat noch jemand dieses Verhalten feststellen können?

Edit: Kann man das Bild, wenn man es direkt über die URL einbindet, auch verkleinern?

Was heißt "richtig eingestellt"? - Unter Windwos bekomme ich keine WUs vielleicht auch, weil Sixtrack den Bunker bis jetzt gefüllt hatte, mit Linux stelle ich mich zu blöd an.

Der Bunker von Sixtrack läuft langsam leer, ne Alternative von LHC wäre nett. CMS hat sich zuletzt nicht als solche erwiesen und hat zur Zeit auch keine WUs parat.

pschoefer
26.04.2020, 09:49
Es sind derzeit ruhige Zeiten bei LHC@home, für die Subprojekte SixTrack und CMS Simulation wird sogar keine Arbeit mehr ausgeliefert. Dennoch ist man am CERN nicht untätig und stellt im Kampf gegen COVID-19 auch direkt Rechenleistung für andere Projekte zur Verfügung:

CERN und COVID-19
Wie viele Organisationen ist auch das CERN von der COVID-19-Pandemie betroffen. Die Forscher der CERN-Gemeinschaft versuchen auf verschiedenen Wegen zu helfen, wie auf dieser Webseite (https://againstcovid19.cern/) (engl.) beschrieben.

Als Teil dieser Bemühungen im Kampf gegen COVID-19 spenden wir auch die Rechenleistung kurzzeitig verfügbarer Server, die stillgelegt werden sollten, für Folding@home und Rosetta@home.

In Zeiten wie dieser mit wenig Arbeit von LHC@home ermutigen wir euch auch, an anderen BOINC-Projekten wie Rosetta@home teilzunehmen und zum weltweiten Kampf gegen die Pandemie beizutragen.

Vielen Dank für eure Beteiligung an LHC@home und weiterhin frohes Crunchen!

Das LHC@home-Team wünscht euch und euren Familien gute Gesundheit.
24.04.2020, 7:09:07 MEZ

Originaltext:

CERN and COVID-19
Like many organisations, CERN is also affected by the COVID-19 pandemic. Researchers in the CERN community are trying to help out in different ways, as explained on this web page (https://againstcovid19.cern/).

As part of this effort to fight COVID-19, we also contribute computing power to Folding@home and Rosetta@home from temporarily available servers that were about to be decommissioned.

During periods like this with little work from LHC@home, we also encourage you to participate in other BOINC projects such as Rosetta@home and contribute to the global fight of the pandemic.

Many thanks for your contributions to LHC@home and continued happy crunching!

With the best of wishes of good health for your and your families from the LHC@home team.
24 Apr 2020, 6:09:07 UTC

pschoefer
26.06.2020, 17:50
Das Projekt wird am morgigen Samstag, den 27. Juni, für einige Stunden nicht erreichbar sein:

Auszeit am Samstag
Die Datenbank hinter LHC@home wird am Samstag, den 27. Juni, aufgrund einer Aufrüstung einer Datenbank-Speichereinheit außer Betrieb sein.

Daher werden die LHC@home-BOINC-Dienste für einen großen Teil des Tages nicht verfügbar sein (ungefähr 7:30-14:30 MESZ).

Somit werden Verbindungsversuche eurer BOINC-Clients zu unseren Servern am Samstag wahrscheinlich fehlschlagen.

Danke und frohes Crunchen!
25.06.2020, 10:11:49 MEZ

Originaltext:

Downtime Saturday
The database underlying LHC@home will be down on Saturday 27th of June due to an upgrade of a DB storage rack.

Hence LHC@home BOINC services will be unavailable for a good part of the day. (Est 5:30-12:30 UTC)

So your BOINC client connections to our servers are likely to fail on Saturday.

Thanks and happy crunching!
25 Jun 2020, 9:11:49 UTC

fu924
15.07.2020, 12:53
gibt es irgendwo ein aktuelle, funktionierendes tutorial wie ich einen raspberry pi (3b+) beibringen kann die sixtrack WUs von LHC@home zu laden?

pschoefer
15.07.2020, 20:23
Es gibt nur 64-Bit-Anwendungen für ARM-CPUs. Der Trick besteht also darin, ein 64-Bit-Betriebssystem mit passendem BOINC-Client (aarch64-unknown-linux-gnu) zu verwenden, damit wird es dann automatisch funktionieren.

fu924
15.07.2020, 22:27
danke für die antwort!

dann werd ich mal überlegen die beta des 64bit raspiOS zu testen sobald mein 4er pi ankommt.
meine 3er pi's bekommen erstmal world community grid zum spielen geben bis dahin.

mäh irgendwie fehlt mir seti X.x

aendgraend
16.12.2020, 16:31
Falls sich jemand Sorgen macht, dass bei LHC@home mal die Arbeit ausgehen könnte demnächst:
Auf Platten und Bändern zusammen 580 PByte (!) an Daten. (https://www.heise.de/news/IBM-stellt-Bandlaufwerke-mit-mehr-als-500-TByte-in-Aussicht-4991438.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitr ag)

(Ziemlich am Ende des Berichts)

pschoefer
16.12.2020, 20:27
Auch wegen dieser enormen Datenmengen läuft die eigentliche Auswertung der LHC-Experimente ja nicht über LHC@home. Aber auch zu simulieren wird es weiterhin mehr als genug geben. ;)