• 19.06.2019

    von Veröffentlicht: 19.06.2019 19:25
    1. Kategorien:
    2. Projekte

    OpenIFShome vereint zwei leistungsstarke Tools: OpenIFS, eine einfach zu bedienende, unterstützte Version des Integrierten Prognosesystems (IFS) des ECMWF, das in Forschung und Lehre weit verbreitet ist, und Climateprediction.net (CPDN) an der University of Oxford, einem sehr erfolgreichen Freiwilligen-Computerprojekt, das seit 2003 läuft.

    "CPDN hat in den letzten 15 Jahren von der Leistung von mehr als 600.000 Heimcomputern profitiert und hat derzeit etwa 32.000 aktive Freiwillige an Bord", sagt Professor David Wallom, der die Innovation am Oxford e-Research Centre (Department of Engineering Science) überwacht.

    "Durch die Nutzung der verteilten Rechenleistung von Zehntausenden von Freiwilligen kann CPDN Wetter- und Klimaexperimente durchführen, die selbst für Supercomputer zu rechenintensiv wären", betont er.

    David erklärt, dass eine solche Rechenleistung erforderlich ist, wenn Wissenschaftler Tausende von leicht veränderten Versionen eines Modells für dasselbe Ereignis ausführen wollen.

    "Sehr große Ensembles von Wetter- und Klimasimulationen sind unerlässlich, um die Vorhersagbarkeit von Extremereignissen zu untersuchen", sagt Antje Weisheimer, eine Wissenschaftlerin des ECMWF, die auch an der University of Oxford arbeitet.

    Antje nennt das Beispiel von Karl, einem tropischen Sturm, der sich im September 2016 im Atlantik entwickelte. Die NAWDEX-Feldkampagne beobachtete den Sturm im Zusammenspiel mit dem Jetstream.

    "Dieser Sturm hat bei Forschern großes Interesse geweckt, die die Gründe für die Abweichungen der Wettervorhersage in Europa untersuchen", sagt Antje.

    "Um die Vorhersagbarkeit solcher Stürme und ihre Auswirkungen auf das nachfolgende Wetter in Europa zu untersuchen, müssen wir Tausende von leicht veränderten Simulationen durchführen, und genau hier setzt CPDN an."

    Der OpenIFS-Workshop vom 17. bis 21. Juni widmet sich den Auswirkungen von Verdunstungsprozessen auf die Wettervorhersage und wird Arbeiten an Karl beinhalten.

    Am 18. Juni eröffnete David ein OpenIFS-Experiment auf Karl für etwa 8.000 CPDN-Freiwillige, die Linux-Betriebssysteme auf ihren Computern haben.

    Am Ende der Woche werden die Ergebnisse mit den Ergebnissen eines ähnlichen Experiments auf der Hochleistungsrechenanlage des EZMW verglichen.

    OpenIFShome stellt einen neuen Ansatz für OpenIFS und CPDN dar.

    "Das Projekt bietet beispiellose Möglichkeiten für Anwender von OpenIFS", sagt Glenn Carver, der das OpenIFS-Projekt am ECMWF leitet.

    "Wenn sie nur begrenzten Zugang zu Supercomputern haben oder Experimente mit sehr großen Ensembles durchführen wollen, könnte OpenIFShome für sie geeignet sein", sagt er.

    Marcus Köhler vom OpenIFS-Team stellt fest, dass die OpenIFShome-Experimente derzeit auf einen Rasterabstand von etwa 125 km beschränkt sind.

    Er fügt jedoch hinzu, dass die maximale horizontale Auflösung in Zukunft zunehmen wird. "Mit zunehmender Rechenleistung von Heimcomputern sollte es möglich werden, mit OpenIFShome hochauflösende Experimente durchzuführen", sagt er.

    Dr. Sarah Sparrow, die Programmkoordinatorin für das CPDN-Projekt, stellt fest, dass OpenIFShome eine bedeutende Erweiterung des Programms darstellt.

    "Wir hatten einige Diskussionen über die Notwendigkeit, auf eine Multi-Modell-Fähigkeit umzustellen, und OpenIFS schien eine gute Wahl zu sein, um das CPDN-Modellportfolio zu erweitern."

    Sie fügt hinzu, dass es einen Zusammenhang mit dem traditionellen Fokus des CPDN auf das Klima gibt, da es in Zukunft möglich sein wird, OpenIFS für Extremereignis-Attributionsstudien zu nutzen. Solche Studien zielen darauf ab, zu ermitteln, wie die Wahrscheinlichkeit des Auftretens bestimmter Wetterereignisse durch den Klimawandel beeinflusst wird.

    "Der Kontakt zum OpenIFS-Team des ECMWF erfolgte über Antje, die am Physikalischen Institut der Universität Oxford und am ECMWF tätig ist. Die Zusammenarbeit mit dem ECMWF war hervorragend und wir freuen uns darauf, dass OpenIFShome zum Wohle der modernen Wetter- und Klimaforschung eingesetzt wird."

    Florian Pappenberger, Direktor für Prognosen des ECMWF, begrüßte die Verfügbarkeit von OpenIFS auf CPDN: "Ich möchte allen Beteiligten für die Arbeit danken, die sie in dieses Projekt gesteckt haben. OpenIFShome wird wichtige Forschungsarbeiten über die Vorhersagbarkeit von Extremwetter erleichtern, was letztendlich zu besseren Wettervorhersagen für unsere Mitgliedstaaten und kooperierenden Staaten führen wird."

    Wissenschaftler, die an der Verwendung von OpenIFS auf CPDN interessiert sind, sollten das neue OpenIFShome Anfrageformular für die Zusammenarbeit auf der CPDN-Website ausfüllen.



    Link zum Originalbeitrag: Link
    von Veröffentlicht: 19.06.2019 19:15
    1. Kategorien:
    2. Projekte

    Am morgigen Donnerstag, den 20. Juni, wird der Server kurzzeitig für Wartungsarbeiten vom Netz genommen:

    Geplante Serverwartung
    Hallo zusammen,

    der MilkyWay@home-Server wird morgen (20. Juni) Abend abgeschaltet. Wir planen, ihn kurze Zeit später wieder ans Netz zu bringen. Falls es Probleme gibt, werden wir das über unsere Social-Media-Kanäle bekanntgeben.

    Danke für eure Unterstützung!

    Tom
    19.06.2019, 15:40:19 MEZ

    Originaltext:
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/forum_thread.php?id=4476
    Planned Server Maintenance
    Hi Everyone,

    The MilkyWay@home server will be shut down at noon tomorrow (6/20). We plan on bringing it back online shortly after. If there are any problems, we will post to our social media accounts.

    Thank you for your support!

    Tom
    19 Jun 2019, 14:40:19 UTC
    von Veröffentlicht: 19.06.2019 19:05
    1. Kategorien:
    2. Projekte

    Eine Serie sehr langer SixTrack-WUs wurde leider mit unzureichendem Festplattenlimit verschickt, sodass BOINC sie vor der Fertigstellung abbrechen würde. Daher wurden die betroffenen WUs serverseitig abgebrochen. Wer vor gestern Nachmittag WUs heruntergeladen und seither keinen Kontakt zum Projektserver hatte, sollte daher einmal das Projekt aktualisieren, damit BOINC nicht unnötigerweise versucht, diese WUs zu berechnen.

    Extrem lange SixTrack-Aufgaben abgebrochen
    Hallo zusammen,

    wir mussten etwa 10000 WUs mit den Namen w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc* wegen unzureichender Festplattenspeicheranforderung abbrechen.

    Diese Aufgaben wären ohnehin an einem bestimmten Punkt von BOINC mit der Fehlermeldung EXIT_DISK_LIMIT_EXCEEDED abgebrochen worden - siehe bitte https://lhcathome.cern.ch/lhcathome/...ad.php?id=5062 für weitere Informationen.

    Diese Aufgaben umfassen 10 Millionen LHC-Umläufe, zehnmal so viele wie üblich, und die Dateien wachsen und wachsen, bis das Limit erreicht ist.

    Nicht alle Aufgaben mit solchen Namen wurden abgebrochen - ich habe nur solche abgebrochen, welche einen stabilen Teilchenstrahl umfassen sollten; diese Aufgaben sollten lang laufen und daher das Festplattenlimit erreichen. In den anderen WUs sollten so viele Teilchen verloren gehen, dass das Limit nicht erreicht wird - bitte meldet in diesem Thread, wenn das nicht der Fall ist. Durch diese Auslese beim Abbrechen sollten so viele bereits in Bearbeitung befindliche oder auf Validierung wartende WUs wie möglich erhalten bleiben.

    Sobald ihr in eurem BOINC-Manager das Projekt LHC@home aktualisiert, sollten die Aufgaben abgebrochen werden.

    Wir werden die gleichen Aufgaben bald noch einmal mit passender Festplattenanforderung herausgeben.
    Entschuldigung für die Störung und danke für euer Verständnis.
    A.
    18.06.2019, 17:49:08 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5064
    killing extremely long SixTrack tasks
    Dear all,

    we had to kill ~10k WUs named:
    w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc*

    due to a mismatch between the requested disk space and that actually necessary to the job.
    These tasks would anyway be killed by the BOINC manager at a certain point with an EXIT_DISK_LIMIT_EXCEEDED message - please see:
    https://lhcathome.cern.ch/lhcathome/...ad.php?id=5062
    for further info.

    These tasks cover 10^7 LHC turns, a factor 10 larger than usual, with files building up in dimension until the limit is hit.

    The killing does not involve all tasks with such names - I have killed only those that should cover the stable part of the beam; these tasks are expected to last long and hence reach the limit in disk usage. The other WUs should see enough beam losses that the limit is not reached - please post in this thread if this is not the case. The cherry-picking killing was done in the effort of preserving as much as possible tasks already being crunched or pending validation.

    As soon as you update the LHC@project on your BOINC manager you should see the task being killed.

    We will resubmit soon the same tasks, with appropriate disk requirements.
    Apologies for the disturbance, and thanks for your understanding.
    A.
    18 Jun 2019, 16:49:08 UTC
Single Sign On provided by vBSSO