Seite 39 von 39 Erste ... 29 37 38 39
Ergebnis 951 bis 959 von 959

Thema: LHC@home

  1. Avatar von pschoefer
    Titel
    Administrator

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    15.162

    Danke
    Danke gesagt 148   Danke erhalten 1.639

    #951

    Standard

    Doch, es wurde Hand angelegt, aber der zuständige Admin hat vor einer Stunde Entwarnung gegeben. CMS Simulation läuft also wieder wie üblich, wenn auch wegen des Pentathlons gerade mit etwas geringerer Scheduler-Priorität.
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  2. Avatar von taurec
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    30.06.2008

    Ort
    Allerorten

    Beiträge
    3.830

    Danke
    Danke gesagt 210   Danke erhalten 55

    #952

    Standard

    8 WU sind schon abgebrochen, und der Burner sind die Credits für die beiden anderen auch nicht .... egal, sind ja für alle gleich. Schade wenn man sie schon mal hat
    Ciao taurec

  3. Avatar von pschoefer
    Titel
    Administrator

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    15.162

    Danke
    Danke gesagt 148   Danke erhalten 1.639

    #953

    Standard Dank an die Pentathlon-Teilnehmer und Fachartikel mit SixTrack-Ergebnissen

    Die Wissenschaftler hinter SixTrack bedanken sich noch einmal explizit für die Zusatzleistung durch den Sprint beim vergangenen BOINC Pentathlon. Kürzlich ist zudem ein Artikel im Fachjournal Physical Review Accelerators and Beams erschienen, der die Ergebnisse früherer Berechnungen über LHC@home verwendet.

    BOINC Pentathlon 2019 ist vorbei - ein großer Dank vom SixTrack-Team!
    Liebe Freiwillige,

    der Pentathlon 2019 ist vorbei und wir möchten allen Teilnehmern dafür danken, unsere WUs gecruncht zu haben! Die unter BOINC zur Verfügung stehende CPU-Leistung hat sich fast verdoppelt und unsere Berechnungen beschleunigt, auch wenn es nur für ein paar Tage war. Wir sind dafür sehr dankbar!

    Das SixTrack-Team möchte auch all euch Freiwilligen danken, die uns regelmäßig mit ihren CPUs unterstützen. Ihr gebt uns die Möglichkeit, unser Verständnis der Dynamischen Apertur zu vertiefen, einer Größe von höchster Wichtigkeit für die Stabilität von Teilchenstrahlen in großen Beschleunigern wie supraleitenden Speicherringen. Zu guter Letzt ein brandneuer Artikel im wichtigsten Journal im Feld der Beschleunigerphysik, welcher Simulationen und Messungen vergleicht, wobei die Simulationsergebnisse dank euch und BOINC erzielt wurden:
    https://journals.aps.org/prab/pdf/10...eams.22.034002 (engl.)

    Viel wurde schon mit eurer Hilfe erreicht, aber in der nächsten Zeit wird noch viel mehr kommen. Wir zählen auf eure Unterstützung!
    Macht weiter so,
    Alessio und Massimo für das SixTrack-Team
    20.05.2019, 9:00:15 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5036
    2019 BOINC Pentathlon is over - a big thank you from the SixTrack team!
    Dear volunteers,

    the 2019 pentathlon is over, and we would like to thank all the participants for having crunched our tasks! We saw the BOINC CPU capacity almost doubled, boosting our calculations, even though it was only for few days. We are very grateful for that!

    The SixTrack team would also like to thank all you volunteers who regularly support us with your CPUs. You give us the possibility to deepen our understanding of the dynamic aperture, a quantity of paramount importance for the stability of particle beams in big research accelerators like superconducting colliders - last but not least a very recent paper on the most important journal in the field of accelerator physics, comparing simulations and measurements:
    https://journals.aps.org/prab/pdf/10...eams.22.034002
    where simulation results have been obtained thanks to you and BOINC!

    A lot has been already done with your help, but a lot more has still to come in the next future. We count on your support!
    Keep up the good work,
    Alessio and Massimo, for the SixTrack team
    20 May 2019, 8:00:15 UTC
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  4. Avatar von pschoefer
    Titel
    Administrator

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    15.162

    Danke
    Danke gesagt 148   Danke erhalten 1.639

    #954

    Standard SixTrack 5 nun auch für ARM64 und weitere Plattformen

    SixTrack 5 ist jetzt nach Windows und Linux (64-Bit) auch für weitere Plattformen verfügbar, darunter Android und Linux auf 64-Bit-ARM-CPUs:

    Neue SixTrack-5.02.05-Anwendungen
    Liebe Freiwillige,

    wir freuen uns, die Freigabe neuer Anwendungen der aktuellen Version (v5.02.05) für den Produktivbetrieb (SixTrack) bekanntzugeben. Wir haben neue Anwendungen für FreeBSD (avx/sse2), eine Anwendung für Windows XP (32-Bit), eine aarch64-Anwendung für Linux und eine für Android. Vielen Dank an James, Kyrre und Veronica, dass sie die Zeit zum Erstellen dieser Anwendungen gefunden haben.

    Das Verteilen eine Anwendung, die mit XP-Rechnern kompatibel ist, soll niemanden ermuntern, weiterhin veraltete Betriebssysteme einzusetzen, sondern einen sanfteren Übergang auf neuere Betriebssysteme ermöglichen. Auf diese Weise verpassen Teilnehmer mit XP-Rechnern nicht die Möglichkeit, an der aktuellen Welle von SixTrack-Aufgaben (die recht lang anhalten sollte) teilzunehmen, während sie über Möglichkeiten der Aktualisierung ihrer Rechner nachdenken. Gleichzeitig versuchen wir, 32-Bit-Linux-Anwendungen vorzubereiten. Nehmt zur Kenntnis, dass alle Windows-Anwendungen ohne Filter nach bestimmten Versionen verteilt werden - daher könnten XP-Rechner die normalen Windows-Anwendungen erhalten, welche sofort abstürzen, aber der BOINC-Server sollte schnell lernen, dass die XP-kompatible Anwendung die richtige ist.

    Wir freuen uns sehr, nun auch FreeBSD- und Android-Nutzer in unseren Betrieb einzubeziehen. Für letztere Plattform laufen die aktuellen Anwendungen nicht auf Android-Version 8 oder neuer. James beschäftigt sich noch damit. Da das Scheduler-seitige Filtern nach Android-Version noch fehlerhaft ist (siehe https://github.com/BOINC/boinc/issues/3172, engl.), haben wir die Android-Anwendung als Testanwendung markiert. Daher sollten SixTrack-Teilnehmer mit Android 8 oder neuer keine Aufgaben für die entsprechenden Rechner anfordern oder die Option Die Ausführung von Testanwendung erlauben? in ihren LHC@home-Projekteinstellungen deaktivieren.

    Wir verfolgen auch die Erzeugung von Anwendungen für macOS und sollten diese bald unter sixtracktest testen können.

    Danke für eure fortwährende Unterstützung und Hilfe,
    Alessio für das SixTrack-Team
    04.06.2019, 11:17:02 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5051
    new exes for SixTrack 5.02.05
    Dear volunteers,

    we are pleased to announce the release to production (SixTrack app) of new exes for the current pro version (v5.02.05). We have new exes for FreeBSD (avx/sse2), an exe for XP hosts (32bits), an aarch64 executable for Linux, and one for Android. Many thanks to James, Kyrre and Veronica for finding the time to produce them.

    Distributing an exe compatible with XP hosts is not a way to encourage people to stay with unsupported OSs, but rather a trial to have a smooth transition to more recent OSs. In this way, people with XP hosts do not miss the possibility to contribute to the present wave of SixTrack tasks (expected to be quite long) while considering options for upgrading their hosts. At the same time, we are looking into preparing 32bits Linux exes. It should be noted that all Win exes are distributed without targeting specific kernel versions - hence, XP hosts may receive tasks with regular Windows exes immediately failing, but the BOINC server should quickly learn that the XP-compatible exe is the appropriate one.

    We are also very happy to start involving freeBSD and Android users in our production chain. For the latter platform, the present exe won't run on Android versions >=8 - James is still looking into this. Since the android version filtering needs a fix on the scheduler side:
    https://github.com/BOINC/boinc/issues/3172
    we labelled the Android exe as beta. Hence, Sixtrack beta users with Android 8 and later should not request tasks for that host or untick the test applications flag in their LHC@home project preferences.

    We are pursuing also the generation of MacOS exes, and we should test them soon on sixtracktest.

    Thanks for your continuous support and help,
    Alessio, for the SixTrack team
    4 Jun 2019, 10:17:02 UTC
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  5. Avatar von pschoefer
    Titel
    Administrator

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    15.162

    Danke
    Danke gesagt 148   Danke erhalten 1.639

    #955

    Standard defekte Serie langer SixTrack-WUs abgebrochen

    Eine Serie sehr langer SixTrack-WUs wurde leider mit unzureichendem Festplattenlimit verschickt, sodass BOINC sie vor der Fertigstellung abbrechen würde. Daher wurden die betroffenen WUs serverseitig abgebrochen. Wer vor gestern Nachmittag WUs heruntergeladen und seither keinen Kontakt zum Projektserver hatte, sollte daher einmal das Projekt aktualisieren, damit BOINC nicht unnötigerweise versucht, diese WUs zu berechnen.

    Extrem lange SixTrack-Aufgaben abgebrochen
    Hallo zusammen,

    wir mussten etwa 10000 WUs mit den Namen w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc* wegen unzureichender Festplattenspeicheranforderung abbrechen.

    Diese Aufgaben wären ohnehin an einem bestimmten Punkt von BOINC mit der Fehlermeldung EXIT_DISK_LIMIT_EXCEEDED abgebrochen worden - siehe bitte https://lhcathome.cern.ch/lhcathome/...ad.php?id=5062 für weitere Informationen.

    Diese Aufgaben umfassen 10 Millionen LHC-Umläufe, zehnmal so viele wie üblich, und die Dateien wachsen und wachsen, bis das Limit erreicht ist.

    Nicht alle Aufgaben mit solchen Namen wurden abgebrochen - ich habe nur solche abgebrochen, welche einen stabilen Teilchenstrahl umfassen sollten; diese Aufgaben sollten lang laufen und daher das Festplattenlimit erreichen. In den anderen WUs sollten so viele Teilchen verloren gehen, dass das Limit nicht erreicht wird - bitte meldet in diesem Thread, wenn das nicht der Fall ist. Durch diese Auslese beim Abbrechen sollten so viele bereits in Bearbeitung befindliche oder auf Validierung wartende WUs wie möglich erhalten bleiben.

    Sobald ihr in eurem BOINC-Manager das Projekt LHC@home aktualisiert, sollten die Aufgaben abgebrochen werden.

    Wir werden die gleichen Aufgaben bald noch einmal mit passender Festplattenanforderung herausgeben.
    Entschuldigung für die Störung und danke für euer Verständnis.
    A.
    18.06.2019, 17:49:08 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5064
    killing extremely long SixTrack tasks
    Dear all,

    we had to kill ~10k WUs named:
    w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc*

    due to a mismatch between the requested disk space and that actually necessary to the job.
    These tasks would anyway be killed by the BOINC manager at a certain point with an EXIT_DISK_LIMIT_EXCEEDED message - please see:
    https://lhcathome.cern.ch/lhcathome/...ad.php?id=5062
    for further info.

    These tasks cover 10^7 LHC turns, a factor 10 larger than usual, with files building up in dimension until the limit is hit.

    The killing does not involve all tasks with such names - I have killed only those that should cover the stable part of the beam; these tasks are expected to last long and hence reach the limit in disk usage. The other WUs should see enough beam losses that the limit is not reached - please post in this thread if this is not the case. The cherry-picking killing was done in the effort of preserving as much as possible tasks already being crunched or pending validation.

    As soon as you update the LHC@project on your BOINC manager you should see the task being killed.

    We will resubmit soon the same tasks, with appropriate disk requirements.
    Apologies for the disturbance, and thanks for your understanding.
    A.
    18 Jun 2019, 16:49:08 UTC
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  6. Avatar von pschoefer
    Titel
    Administrator

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    15.162

    Danke
    Danke gesagt 148   Danke erhalten 1.639

    #956

    Standard Unterbrechung beim Subprojekt CMS Simulation am 22. Juli

    Am morgigen Montag, den 22. Juli, werden einige Teile der Projektinfrastruktur neu gestartet, was dazu führen wird, dass laufende WUs des Subprojekts CMS Simulation abbrechen werden. Der zuständige Administrator rät daher dazu, rechtzeitig keine neuen Aufgaben mehr herunterzuladen:

    CMS@Home-Unterbrechung am Montag, den 22. Juli
    Ich habe die folgende Nachricht aus der CERN/CMS-IT-Abteilung bekommen:

    >> als Folge der Hypervisor-Neustartserie, die von der CERN-IT hier angekündigt wurde: https://cern.service-now.com/service...o?n=OTG0051185
    >> werden die folgenden Virtuellen Maschinen, die zum CMS-Production-Openstack gehören, am Montag, den 22. Juli ab 08:30 MESZ neu gestartet:
    ...
    >> | vocms0267 | cern-geneva-b | cms-home

    worauf ich antwortete:
    > Danke Alan. Auf vocms0267 läuft das CMS@Home-Projekt. Sollte ich die Freiwilligen vor der Unterbrechung warnen oder wird das eher unsichtbar verlaufen?

    und diese Antwort erhielt:
    Laufende Aufgaben werden fehlschlagen, da sie sich nicht mit dem schedd-condor_shadow-Dienst verbinden können. Das wird die für die Teilnehmer sichtbare Auswirkung sein. Es wird auch ein kurzes Zeitfenster geben (bis ich den Software-Agenten neu gestartet habe), in welchem keine ausstehenden Aufgaben im Condor-Pool sein werden.
    Also könnte es sinnvoll sein, die Teilnehmer zu informieren.

    Meine Empfehlung ist daher, dass ihr ab Sonntagnachmittag keine neuen Aufgaben von CMS@Home zulasst, damit die laufenden Aufgaben vor dem Neustart um 08:30 MESZ fertig werden. Ich lasse euch wissen, sobald Alan mich informiert, dass vocm0267 wieder läuft.
    17.07.2019, 14:14:12 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5087
    CMS@Home disruption, Monday 22nd July
    I've had the following notice from CERN/CMS IT:

    >> following the hypervisor reboot campaign, as announced by CERN IT here: https://cern.service-now.com/service...o?n=OTG0051185
    >> the following VMs - under the CMS Production openstack project - will be rebooted on Monday July 22 (starting at 8:30am CERN time):
    ...
    >> | vocms0267 | cern-geneva-b | cms-home

    to which I replied:
    > Thanks, Alan. vocms0267 runs the CMS@Home campaign. Should I warn the volunteers of the disruption, or will it be mainly transparent?

    and received this reply:
    Running jobs will fail because they won't be able to connect to the schedd condor_shadow process. So this will be the visible impact on the users. There will be also a short time window (until I get the agent restarted) where there will be no jobs pending in the condor pool.
    So it might be worth it giving the users a heads up.

    So, my recommendation is that you set "No New Tasks" for CMS@Home sometime Sunday afternoon, to let tasks complete before the 0830 CST restart. I'll let you know as soon as Alan informs me that vocm0267 is up and running again
    17 Jul 2019, 13:14:12 UTC
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  7. Avatar von pschoefer
    Titel
    Administrator

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    15.162

    Danke
    Danke gesagt 148   Danke erhalten 1.639

    #957

    Standard große Anzahl frischer Sixtrack-WUs erschwert Verteilung derselben

    Seit einigen Tagen befinden sich mehrere Millionen Sixtrack-WUs im System, wodurch die Datenbank zu einem Flaschenhals bei der WU-Verteilung geworden ist. Etwas Abhilfe schaffen inzwischen zusätzliche Scheduler, jedoch haben diese auch Nebeneffekte wie beispielsweise Ungenauigkeiten auf der Serverstatus-Seite.

    Viele Aufgaben in der Warteschlange - Serverstatus-Seite irrig
    Wegen der sehr großen Zahl Sixtrack-WUs in der Warteschlange haben wir die Last auf vier Scheduler/Feeder-Server verteilt, um den Bedarf zu befriedigen. (Unser Flaschenhals ist die Datenbank, aber mehrere Scheduler können mehr WUs zur Verteilung vorhalten.)

    Unsere Serverstatus-Seite zeigt den Status der Dienste auf anderen Servern derzeit nicht in Echtzeit. Daher kann die Serverstatus-Seite anzeigen, dass Serverprozesse wie der Feeder auf boincai12 nicht laufen, obwohl sie in Ordnung sind.

    Bitte habt auch Geduld, wenn ihr nicht ausreichend schnell WUs für eure bevorzugte Anwendung erhaltet. Nach einigen Versuchen wird es einige WUs geben. Vielen Dank für euer Verständnis und frohes Crunchen!

    ---das Team
    21.08.2019, 12:41:17 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5119
    Many queued tasks - server status page erratic
    Due to the very high number of queued Sixtrack tasks, we have enabled 4 load-balanced scheduler/feeder servers to handle the demand. (Our bottleneck is the database, but several schedulers can cache more tasks to be dispatched.)

    Our server status page does not currently show in real time the daemon status on remote servers. Hence the server status page may indicate that server processes like feeder on boincai12 is down, while it is ok.

    Please also be patient if you are not getting tasks for your preferred application quickly enough. After a few retries, there will be some tasks. Thanks for your understanding and happy crunching!

    ---the team
    21 Aug 2019, 11:41:17 UTC
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  8. Avatar von pschoefer
    Titel
    Administrator

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    15.162

    Danke
    Danke gesagt 148   Danke erhalten 1.639

    #958

    Standard LHC@home bei den Tagen der offenen Tür am CERN

    Eine Information für die kleine Besuchergruppe aus Reihen unseres Teams:

    Tage der offenen Tür am CERN in 2 Wochen!
    Während der Tage der offenen Tür 2019 des CERN werden wir einen kleinen LHC@home-Stand als Teil der IT-Aktivitäten in Gebäude 504 in der Nähe des Rechenzentrums haben.

    LHC@home wird auch am Ort des ATLAS-Experiments vertreten sein, in der ATLAS Computing Corner.

    Wir hoffen, dass viele von euch das CERN während der Tage der offenen Tür besuchen können und würden uns freuen, euch hier zu sehen!

    Bitte berücksichtigt die Besuchsplanungsseite (engl.) und die Liste der Aktivitäten während der Tage der offenen Tür (engl.) für weitere Informationen über alle Besuchspunkte auf dem CERN-Gelände.
    30.08.2019, 10:07:17 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5129
    CERN Open Days in 2 weeks!
    During the CERN Open Days 2019, we will have a small LHC@home stand as part of the IT activities in building 504 near the Data Centre.

    LHC@home will also be present at the ATLAS experiment site, in the ATLAS Computing Corner.

    We hope that many of you will be able to visit CERN during the Open Days and would be happy to see you here!

    Please refer to: Plan your visit and the list of activities during the Open days for more information about all the visit points on the CERN sites.
    30 Aug 2019, 9:07:17 UTC
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  9. Avatar von pschoefer
    Titel
    Administrator

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Osterode / Göttingen

    Beiträge
    15.162

    Danke
    Danke gesagt 148   Danke erhalten 1.639

    #959

    Standard Wartung am 25. November 2019

    Am Morgen des kommenden Montags (25. November) legt das Projekt eine etwa einstündige Wartungspause ein:

    Datenbankeingriff am Montagmorgen
    LHC@home und verbundene BOINC-Dienste werden am Montag, den 25. November, wegen eines Eingriffs in den Datenbankspeicher für etwa eine Stunde nicht verfügbar sein.

    Danke für euer Verständnis und frohes Crunchen.
    22.11.2019, 14:38:09 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5211
    Database intervention Monday morning
    LHC@home and associated BOINC services will be unavailable for about 1 hour on Monday 25th of November due to a database storage intervention.

    Thanks for your understanding and happy crunching.
    22 Nov 2019, 13:38:09 UTC
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Single Sign On provided by vBSSO