• Projekte

    von Veröffentlicht: 30.01.2018 17:30
    1. Kategorien:
    2. Projekte

    Der nächste Durchgang bei Perfect Cuboid ging ohne Fund eines perfekten Euler-Ziegels zu Ende, womit die Untergrenze für die Raumdiagonale eines solchen Körpers weiter nach oben geschoben wurde.

    Zweite Phase von Perfect Cuboid beendet
    Wir haben unsere zweite Ladung Perfect-Cuboid-WUs abgeschlossen. Bisheriges Ergebnis: Wenn ein perfekter Euler-Ziegel existiert, ist seine Raumdiagonale größer als 2^51.
    30.01.2018

    Originaltext:
    Zitat Zitat von http://www.rechenkraft.net/yoyo/
    Perfect Cuboid 2nd Batch finished
    We finished our 2nd batch of Perfect Cuboid workunits. Result so far: If a perfect cuboid exists, its body diagonal exceeds 2^51.
    30 Jan 2018
    von Veröffentlicht: 26.01.2018 13:10
    1. Kategorien:
    2. Projekte

    Nach den größeren Wartungsarbeiten in dieser Woche wird in der kommenden Woche die Webseite ein weiteres Mal zeitweise nicht erreichbar sein, die BOINC-Dienste werden aber weiterhin normal funktionieren.

    Auszeit der Webseite am 30.01.2018
    Eine kleinere Aktualisierung wurde nicht eingespielt, betrifft aber nur die E@H-Webseite. Am Dienstag, den 30. Januar 2018, um 14:30 UTC wird die Webseite für etwa 20-30 Minuten nicht erreichbar sein. Das ist 15:30 MEZ in Mitteleuropa und 09:30 EST an der nordamerikanischen Ostküste.

    Das Projekt wird normal weiterlaufen. Die Freiwilligen müssen nichts tun.
    23.01.2018 21:28:12 MEZ

    Originaltext:
    Zitat Zitat von https://einsteinathome.org/content/website-downtime-2018-01-30
    Website downtime 2018-01-30
    One minor update was not implemented, but it only deals with the E@H Web site. On Tuesday 2018 January 20th [sic!] at 1430 UTC the Web site will be down for about 20-30 minutes. That is 1530 CET for Central Europe and 0930 EST for east coast North America.

    The project will continue to run as normal. Volunteers will not have to do anything.
    23 Jan 2018 20:28:12 UTC
    von Veröffentlicht: 26.01.2018 08:45
    1. Kategorien:
    2. Projekte

    Das SixTrack-Team informiert über die Hintergründe der zurzeit reichlich vorhandenen WUs:

    Vielen Dank für eure Unterstützung von SixTrack bei LHC@home und Neuigkeiten
    Liebe Freiwillige,

    alle Mitglieder des SixTrack-Teams wollen euch allen für die Unterstützung unseres Projektes bei LHC@home danken. In den letzten Wochen gab es einen deutlichen Anstieg der Arbeitsbelastung und eure fortwährende Hilfe pausierte nicht einmal während der Weihnachtsfeiertage, was wir wirklich schätzen!

    Wie ihr wisst, interessieren wir uns für das Simulieren der Dynamik des Teilchenstrahls in ultrarelativistischen Speicherringen wie dem LHC. Wie in anderen Gebieten der Physik ist die Dynamik komplex und kann in einen linearen und einen nichtlinearen Anteil aufgeteilt werden. Ersterer bringt die erwartete Leistung der Maschine in Reichweite, wohingegen letzterer die Stabilität des umlaufenden Teilchenstrahls dramatisch beeinflussen kann. Während ersterer mit der Rechenleistung eines Laptops ausgewertet werden kann, benötigt letzterer BOINC und somit euch! Tatsächlich führen wir sehr große Abrasterungen von Parameterräumen durch, um zu sehen, wie Nichtlinearitäten die Bewegung von Teilchenstrahlen in verschiedenen Regionen des Phasenraums der Teilchen und für verschiedene Werte von Maschinenparametern beeinflussen. Unsere wichtigste Messgröße ist die dynamische Apertur (DA), d.h. die Grenze zwischen stabiler, also gebundener, und instabiler, also ungebundener, Teilchenbewegung.

    Die Untersuchungen betreffen hauptsächlich den LHC und seine Luminositätserweiterung, den sogenannten HL-LHC. Dank dieses neuen Beschleunigers werden Experimente mit dem LHC etwa im Jahr 2035 in vergleichbarer Zeit etwa zehnmal so viele Daten liefern wie in den ersten 10-15 Betriebsjahren LHC erwartet. Die Entwicklung der erweiterten Maschine ist in vollem Gange und der gegenwärtige Betrieb des LHC ist eine einzigartige Gelegenheit, unsere Modelle und Simulationsergebnisse an der Realität zu messen. Umfassendes Wissen über die DA des LHC ist wesentlich, um den Arbeitspunkt des HL-LHC korrekt einzustellen.

    Wenn ihr Simulationen mit dem Namen workspace1_hl13_collision_scan_* (Frederik) gecruncht habt, dann habt ihr uns dabei geholfen, die Effekte unvermeidbarer Magnetfehler auf die dynamische Apertur zuzuordnen, die von der neuen HL-LHC-Hardware erwartet werden, und den besten Arbeitspunkt für die Maschine sowie Korrekturstrategien zu finden. Aufgaben mit Namen wie w2_hllhc10_sqz700_Qinj_chr20_w2* (Yuri) richten das Hauptaugenmerk auf die Magneten, welche die Teilchenstrahlen vor der Kollision zusammendrücken; aufgrund ihrer herausragenden Rolle haben diese Magneten, obwohl es nur wenige davon gibt, einen so großen Einfluss auf die nichtlineare Dynamik, dass die Knöpfe, welche den linearen Teil der Maschine kontrollieren, erhebliche Abhilfemöglichkeiten bieten.

    Viele aktuelle Aufgaben zielen auf den Zusammenhang zwischen Lebensdauer der Teilchenstrahlen und der dynamischen Apertur. Die Lebensdauer der Teilchenstrahlen ist eine Messgröße, die auf Basis der aktuellen Verlustrate angibt, wie lange die Strahlen in der Maschine bleiben. Ein theoretisches Modell für den Zusammenhang zwischen der Lebensdauer der Teilchenstrahlen und der dynamischen Apertur wurde entwickelt; eine große Simulationskampagne wurde gestartet, um das Modell mit den zahlreichen Messungen zu vergleichen, welche in den letzten drei Jahren mit dem LHC durchgeführt wurden. Ein Satz dieser Studien betrachtet unter dem Namen w16_ats2017_b2_qp_0_ats2017_b2_QP_0_IOCT_0 (Pascal) die unvermeidbaren multipolaren Fehler der Magneten als Hauptgrund für die Nichtlinearitäten, wohingegen Aufgaben mit dem Namen LHC_2015* (Javier) störende Zusammentreffen in der Nähe der Kollisionspunkte betrachten, d.h. die sogenannten "langreichweitigen Strahl-Strahl-Effekte".

    Einer unserer Anwender (Ewen) führt dank eurer Hilfe zwei Studien durch. Im Jahr 2017 wurde die DA erstmals im LHC bei Spitzenenergie direkt gemessen und nichtlineare Magnete beiderseits der ATLAS- und CMS-Experimente wurden zum Variieren der DA verwendet. Er möchte herausfinden, wie gut die simulierte DA mit diesen Messwerten übereinstimmt. Die zweite Studie untersucht systematisch die zeitliche Abhängigkeit der DA in der Simulation von der Stärke der linearen transversalen Kopplung und wie diese in der Maschine erzeugt wird. Tatsächlich haben einige frühere Simulationen und Messungen bei Injektionsenergie angedeutet, dass lineare Kopplung zwischen den horizontalen und vertikalen Ebenen große Auswirkung darauf haben können, wie sich die dynamische Apertur mit der Zeit entwickelt.

    Bei all dem ist eure Hilfe wesentlich, da ihr uns ermöglicht, die Simulationen und Studien durchzuführen, die uns interessieren, indem ihr die Aufgaben bearbeitet, die wir über BOINC verteilen. Daher herzlichen Dank euch allen!
    Frohes Crunchen und bleibt dran!

    Alessio und Massimo für das LHC-SixTrack-Team
    23.01.2018, 18:08:14 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    Thanks for supporting SixTrack at LHC@Home and updates
    Dear volunteers,

    All members of the SixTrack team would like to thank each of you for supporting our project at LHC@Home. The last weeks saw a significant increase in work load, and your constant help did not pause even during the Christmas holidays, which is something that we really appreciate!

    As you know, we are interested in simulating the dynamics of the beam in ultra-relativistic storage rings, like the LHC. As in other fields of physics, the dynamics is complex, and it can be decomposed into a linear and a non-linear part. The former allows the expected performance of the machine to be at reach, whereas the latter might dramatically affect the stability of the circulating beam. While the former can be analysed with the computing power of a laptop, the latter requires BOINC, and hence you! In fact, we perform very large scans of parameter spaces to see how non-linearities affect the motion of beam particles in different regions of the beam phase space and for different values of key machine parameters. Our main observable is the dynamic aperture (DA), i.e. the boundary between stable, i.e. bounded, and unstable, i.e., unbounded, motion of particles.

    The studies mainly target the LHC and its upgrade in luminosity, the so-called HL-LHC. Thanks to this new accelerator, by ~2035, the LHC will be able to deliver to experiments x10 more data than what is foreseen in the first 10/15y of operation of LHC in a comparable time. We are in full swing in designing the upgraded machine, and the present operation of the LHC is a unique occasion to benchmark our models and simulation results. The deep knowledge of the DA of the LHC is essential to properly tune the working point of the HL-LHC.

    If you have crunched simulations named "workspace1_hl13_collision_scan_*" (Frederik), then you have helped us in mapping the effects of unavoidable magnetic errors expected from the new hardware of the HL-LHC on dynamic aperture, and identify the best working point of the machine and correction strategies. Tasks named like "w2_hllhc10_sqz700_Qinj_chr20_w2*" (Yuri) focus the attention onto the magnets responsible for squeezing the beams before colliding them; due to their prominent role, these magnets, very few in number, have such a big impact on the non-linear dynamics that the knobs controlling the linear part of the machine can offer relevant remedial strategies.

    Many recent tasks are aimed at relating the beam lifetime to the dynamic aperture. The beam lifetime is a measured quantity that tells us how long the beams are going to stay in the machine, based on the current rate of losses. A theoretical model relating beam lifetime and dynamic aperture was developed; a large simulation campaign has started, to benchmark the model against plenty of measurements taken with the LHC in the past three years. One set of studies, named "w16_ats2017_b2_qp_0_ats2017_b2_QP_0_IOCT_0" (Pascal), considers as main source of non-linearities the unavoidable multipolar errors of the magnets, whereas tasks named as "LHC_2015*" (Javier) take into account the parasitic encounters nearby the collision points, i.e. the so called "long-range beam-beam effects".

    One of our users (Ewen) is carrying out two studies thanks to your help. In 2017 DA was directly measured for the first time in the LHC at top energy, and nonlinear magnets on either side of ATLAS and CMS experiments were used to vary the DA. He wants to see how well the simulated DA compares to these measurements. The second study seeks to look systematically at how the time dependence of DA in simulation depends on the strength of linear transverse coupling, and the way it is generated in the machine. In fact, some previous simulations and measurements at injection energy have indicated that linear coupling between the horizontal and vertical planes can have a large impact on how the dynamic aperture evolves over time.

    In all this, your help is fundamental, since you let us carry out the simulations and studies we are interested in, running the tasks we submit to BOINC. Hence, the warmest "thank you" to you all!
    Happy crunching to everyone, and stay tuned!

    Alessio and Massimo, for the LHC SixTrack team.
    23 Jan 2018, 17:08:14 UTC
    von Veröffentlicht: 25.01.2018 18:50
    1. Kategorien:
    2. Projekte

    Dr. Friederike Otto hielt kürzlich auf dem KlimaCampus Hamburg einen Vortrag über die Klimaattributionswissenschaften.

    KlimaCampus ist ein Netzwerk von Universitäten, Forschungsinstituten und Bundesbehörden in Hamburg, das sich mit den Themen Klima, Klimawandel und Klimafolgen beschäftigt.

    Ihr Vortrag "Changing climate hazards across timescales – combining extreme event attribution and medium term climate projections" war Teil der Seminarreihe "ClimateCampus Colloquium", in der international renommierte Experten aktuelle Themen der Klimaforschung diskutieren und Verbindungen zwischen den verschiedenen Forschungsbereichen herstellen.

    Dr. Otto schilderte, wie die Politik nach einem Extremwetterereignis oft aufgefordert wird, rechtzeitig und sensibel Entscheidungen über den Wiederaufbau und das Management gegenwärtiger und zukünftiger Risiken zu treffen. Informationen darüber, ob, wo und wie sich gegenwärtige und zukünftige Risiken verändern, sind erforderlich, um diese Entscheidungen angemessen zu untermauern. Aber diese Informationen sind oft nicht verfügbar und wenn sie vorhanden sind, werden sie oft nicht systematisch dargestellt.

    Ein nahtloser Ansatz für die Zuordnung von Extremereignissen und die zukünftige Risikobewertung mit demselben Satz von Modell-Ensembles könnte verwendet werden, um solche Informationen über vergangene, gegenwärtige und zukünftige Gefahrenrisiken bereitzustellen. Basierend auf sechs Fallstudien zu verschiedenen Ereignistypen zeigt dieser Ansatz eine Verbesserung der Robustheit zukünftiger Risikobewertungen und Attributionsaussagen.

    Dr. Otto beschrieb eine Studie, die sie 2015 leitete und in der sie eine schwere Dürre in São Paulo, der größten Stadt Südamerikas mit rund 20 Millionen Einwohnern, untersuchte. Die Studie untersuchte die Dürre im Hinblick auf fehlende Niederschläge, Wasserverfügbarkeit und Wassernachfrage, untersuchte aber auch andere Faktoren als den Klimawandel (Otto et al. 2015). Sie stellten fest, dass es sich bei der Dürre um ein ca. einmal in 10 Jahren stattfindendes Ereignis handelte, das zwar ungewöhnlich, aber nicht beispiellos war. Allerdings hatte die Dürre 2014/15 schwerwiegendere Auswirkungen als frühere Ereignisse, die auf Faktoren wie Bevölkerungswachstum und Wasserbedarf zurückzuführen waren - der Wasserverbrauch der Stadt war seit dem letzten Dürreereignis dramatisch gestiegen.

    Sie schloss mit der Feststellung, dass bei der Bewertung der Gefahren des Klimawandels die Zuordnung von Extremereignissen idealerweise mit der Bewertung anderer relevanter Faktoren kombiniert werden sollte, so dass die Forscher Informationen zur Verfügung stellen können, die für die Risikobewertung nützlich sind.

    Ein Video des gesamten Vortrags finden Sie hier: https://lecture2go.uni-hamburg.de/l2go/-/get/v/22594



    Originaltext:
    Zitat Zitat von https://www.climateprediction.net/dr-ottos-climate-series-talk-at-klimacampus-hamburg/
    Dr Friederike Otto gave a talk on climate change attribution at KlimaCampus Hamburg recently.

    KlimaCampus is a network of universities, research institutes and federal authorities in Hamburg, which focuses on climate, climate change and climate consequences.

    Her talk, Changing climate hazards across timescales – combining extreme event attribution and medium term climate projections, was part of the seminar series ‘ClimateCampus Colloquium’, in which internationally respected experts discuss current topics in climate research and establish links between the various research fields.

    Dr Otto described how, in the aftermath of an extreme weather event, policymakers are often called upon to make timely and sensitive decisions about rebuilding and managing present and future risks. Information regarding whether, where, and how present day and future risks are changing is needed to adequately inform these decisions. But this information is often not available and when it is, it is often not presented in a systematic way.

    A seamless approach to extreme event attribution and future risk assessment using the same set of model ensembles could be used to provide such information on past, present and future hazard risk. Based on six case studies on different types of events this approach shows improvement in the robustness of future risk assessment and attribution statements alike.

    Dr Otto described a study she led in 2015 examining a severe drought in São Paulo, the largest city in South America with a population of about 20 million. The study examined the drought in terms of lack of rainfall, water availability and water demand, but also looked at factors other than climate change (Otto et al 2015). They found that the drought was a 1 in 10 year event that – while unusual – was not unprecedented, with similar dry periods occurring before, with the most recent being in 2001. However the 2014/15 drought had more severe impacts than previous events due to contributory factors including population increase and water demand – the city’s water usage had increased dramatically since the last drought event.

    She concluded by saying that, when assessing changing climate change hazards, extreme event attribution would ideally be combined with assessment of other relevant factors, so that researchers can provide information useful for risk assessment.

    You can see a video of the full talk here https://lecture2go.uni-hamburg.de/l2go/-/get/v/22594
    von Veröffentlicht: 24.01.2018 18:00
    1. Kategorien:
    2. Projekte

    Nachdem die ersten vier GFN-19-Primzahlen innerhalb von neun Monaten gefunden worden waren, sollte es fünf Jahre und fünf Monate dauern, bis nun das fünfte Exemplar dieser Gattung ins Netz ging:

    GFN-524288-Megaprimzahl!
    Am 15. Januar 2018 um 02:27:20 MEZ hat PrimeGrids Generalized Fermat Prime Search eine verallgemeinerte Fermat-Megaprimzahl gefunden:

    1880370^524288+1

    Die Primzahl hat 3289511 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 2 für verallgemeinerte Fermat-Primzahlen und Platz 22 insgesamt.

    Die Entdeckung gelang Scott Brown (Scott Brown) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 960 in Verbund mit einem Intel Core i7-2600 @ 3,40 GHz mit 8 GB RAM unter Windows 10. Diese GPU brauchte etwa 2 Stunden 27 Minuten für den PRP-Test mit GeneferOCL4. Scott ist Mitglied des Teams Aggie The Pew.

    Die PRP wurde am 15. Januar 2018 um 14:47:11 MEZ vom Teilnehmer tangwei@CN aus China mit einer NVIDIA GeForce GTX 1070 in Verbund mit einem Intel Xeon E3-1230v2 @ 3,30 GHz mit 8 GB RAM unter Windows 10 bestätigt. Diese GPU brauchte etwa 59 Minuten für den PRP-Test mit GeneferOCL4. Tangwei@CN ist Mitglied von Team China.

    Die Primalität dieser PRP wurde mit einem Intel Core i7-7700K @ 4,20 GHz mit 16 GB RAM unter Windows 10 bewiesen. Dieser Rechner brauchte etwa 20 Stunden 40 Minuten für den Primalitätstest mit LLR.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    24.01.2018 | 14:46:31 MEZ


    Nur wenige Tage später fand Scott Brown ein weiteres Schmuckstück, nämlich die zweite verallgemeinerte Cullen-Primzahl seit der Umstellung dieses Subprojektes auf BOINC im vergangenen Jahr. b=116 ist damit ab sofort nicht mehr Bestandteil dieser Suche.

    Weltrekord für verallgemeinerte Cullen-Primzahlen!
    Am 18. Januar 2018 um 20:39:18 MEZ hat PrimeGrids Generalized Cullen/Woodall Prime Search die größte bekannte verallgemeinerte Cullen-Primzahl gefunden:

    1323365*116^1323365+1

    Verallgemeinerte Cullen-Zahlen haben die Form n*b^n+1. Verallgemeinerte Cullen-Zahlen, die prim sind, werden verallgemeinerte Cullen-Primzahlen genannt. Für weitere Informationen siehe bitte "Cullen prime" im Primzahl-Glossar (engl.).

    Die Primzahl hat 2732038 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 1 für verallgemeinerte Cullen-Primzahlen und Platz 30 insgesamt.

    Die Basis 116 war eine der dreizehn Basen bis b=121 ohne bekannte verallgemeinerte Cullen-Primzahl, die von PrimeGrid untersucht werden. Die verbleibenden Basen sind 13, 25, 29, 41, 47, 49, 55, 69, 73, 101, 109 und 121.

    Die Entdeckung gelang Scott Brown (Scott Brown) aus den Vereinigten Staaten mit einem Intel Core i7-4770S @ 3,10 GHz mit 4 GB RAM unter Windows 10. Dieser Rechner brauchte etwa 8 Stunden 34 Minuten für den Primalitätstest mit LLR im Multithread-Modus. Scott ist Mitglied des Teams Aggie The Pew.

    Die Primzahl wurde am 19. Januar 2018 um 18:24:17 MEZ von Serge De Saffel (lentosy) aus Belgien mit einem Intel Core i5-6600K @ 3,50 GHz mit 16 GB RAM unter Windows 10 bestätigt. Dieser Rechner brauchte etwa 15 Stunden 22 Minuten für den Primalitätstest mit LLR. Serge ist Mitglied des Teams Sicituradastra..

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    20.01.2018 | 14:01:34 MEZ


    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/
    GFN-524288 Mega Prime!
    On 15 January 2018, 01:27:20 UTC, PrimeGrid’s Generalized Fermat Prime Search found the Generalized Fermat mega prime:

    1880370^524288+1

    The prime is 3,289,511 digits long and enters Chris Caldwell's The Largest Known Primes Database ranked 2nd for Generalized Fermat primes and 22nd overall.

    The discovery was made by Scott Brown (Scott Brown) of the United States using an NVIDIA GeForce GTX 960 in an Intel(R) Core(TM) i7-2600 CPU at 3.40GHz with 8GB RAM, running Windows 10 Core Edition. This GPU took about 2 hours 27 minutes to probable prime (PRP) test with GeneferOCL4. Scott is a member of the Aggie The Pew team.

    The prime was verified on 15 January 2018, 13:47:11 UTC by user tangwei@CN of China using an NVIDIA GeForce GTX 1070 in an Intel(R) Xeon(R) E3-1230v2 CPU @ 3.30GHz with 8GB RAM, running Windows 10 Professional Edition. This GPU took about 59 minutes to probable prime (PRP) test with GeneferOCL4. Tangwei@CN is a member of Team China.

    The PRP was confirmed prime by an Intel(R) Core(TM) i7-7700K CPU @ 4.20GHz with 16GB RAM, running Microsoft Windows 10 Professional. This computer took about 20 hours 40 minutes to complete the primality test using LLR.

    For more details, please see the official announcement.
    24 Jan 2018 | 13:46:31 UTC
    Zitat Zitat von https://www.primegrid.com/
    World Record Generalized Cullen Prime!
    On 18 January 2018, 19:39:18 UTC, PrimeGrid’s Generalized Cullen/Woodall Prime Search found the largest known Generalized Cullen prime:

    1323365*116^1323365+1

    Generalized Cullen numbers are of the form: n*b^n+1. Generalized Cullen numbers that are prime are called Generalized Cullen primes. For more information, please see “Cullen prime” in The Prime Glossary (http://primes.utm.edu/glossary/xpage/Cullens.html).

    The prime is 2,732,038 digits long and enters Chris Caldwell's The Largest Known Primes Database ranked 1st for Generalized Cullen primes and 30th overall.

    Base 116 was one of 13 prime-less Generalized Cullen bases below b=121 that PrimeGrid is searching. The remaining bases are 13, 25, 29, 41, 47, 49, 55, 69, 73, 101, 109 & 121.

    The discovery was made by Scott Brown (Scott Brown) of the United States using an Intel(R) Core(TM) i7-4770S CPU @ 3.10GHz with 4GB RAM, running Windows 10 Enterprise Edition. This computer took about 8 hours and 34 minutes to complete the primality test using multithreaded LLR. Scott is a member of the Aggie The Pew team.

    The prime was verified on 19 January 2018 17:24:17 UTC by Serge De Saffel (lentosy) of Belgium using an Intel(R) Core(TM) i5-6600K CPU @ 3.50GHz with 16GB RAM, running Windows 10 Education Edition. This computer took about 15 hours 22 minutes to complete the primality test using LLR. Serge is a member of the team Sicituradastra.

    For more details, please see the official announcement.
    20 Jan 2018 | 13:01:34 UTC
    von Veröffentlicht: 24.01.2018 10:40
    1. Kategorien:
    2. Projekte

    Eine neue Serie Test-WUs steht bereit, im Vergleich zur letzten Woche wurde der Speicherbedarf optimiert, liegt mit 2 GB pro VM aber weiterhin deutlich über dem Bedarf der bisherigen kleineren WUs.

    Neuigkeiten zum SoFiA-Produktivbetrieb, Teil 7
    Die SoFiA-Entwickler haben eine Lösung für den riesigen Speicherbedarf gefunden, den ich letzte Woche erwähnte, und ich konnte den Speicherbedarf für die VMs auf 2 GB pro VM reduzieren. Ich weiß, dass das noch immer viel mehr ist als bisher, aber es sieht nicht so aus, als ob ich den Speicherbedarf noch weiter senken kann ohne deutliche Leistungseinbußen (aufgrund von Auslagerung auf die Festplatte).

    Die VM wurde auf diese neue SoFiA-Version aktualisiert und ich habe einige zusätzliche Zeit damit verbracht, sie so weit wie möglich zu komprimieren. Ich habe es geschafft, die Größe der komprimierten VM auf unter 500 MB zu drücken!

    Die WUs von letzter Woche wurden nicht richtig ausgegeben wegen eines Problems mit dem WU-Generator, das ich erst jetzt beheben konnte, aber die Test-WUs sollten nun herausgehen, während ich dies schreibe. Ich bin gespannt, wie das System damit umgeht.
    24.01.2018, 6:09:09 MEZ

    Originaltext:
    Zitat Zitat von https://sourcefinder.theskynet.org/duchamp/
    SoFiA Production Update 7
    So the SoFiA devs managed to work out a fix to those extremely large memory requirements I mentioned last week, and I've been able to drop the VM memory requirements down to 2GB per VM. I know that's still a lot more than they were before, but it doesn't look like I'll be able to drop them any less without hitting some huge performance decreases (due to disk swapping).

    The VM has been updated with this new version of SoFiA, and I've spend some extra time compacting it as far as possible. I managed to get the VM size below 500MB compressed!

    The workunits from last week didn't release properly due to an issue with the workunit generator that I couldn't get around to fixing until now, but the test WUs should be flowing as I write. I'm interested to see how the system handles them.
    24 Jan 2018, 5:09:09 UTC
    von Veröffentlicht: 23.01.2018 17:45
    1. Kategorien:
    2. Projekte

    Kälteeinbruch in Nordamerika - Eine klimawissenschaftliche Analyse

    In den letzten Jahren (2014, 2016 und jetzt) hat es in Nordamerika eine Reihe extremer Kälteereignisse gegeben, allerdings in verschiedenen Regionen und mit unterschiedlicher Dauer. Niedrige Temperaturen wurden in den zwei Wochen zwischen dem 26. Dezember 2017 und dem 8. Januar 2018 über weiten Teilen des nordöstlichen Nordamerikas beobachtet. Diese Temperaturen sind ungewöhnlich kalt und in einer großen Region, die sich über die Großen Seen bis zur Ostküste erstreckt.

    Um das diesjährige Ereignis besser definieren zu können, vergleichen wir die kältesten zwei Wochen des Winters 2017/18 mit den kältesten zwei Wochen früherer Winter in Nordamerika. Wir haben uns für diesen Vergleich entschieden, anstatt die Temperaturen zu den exakt gleichen Terminen in der Vergangenheit zu verwenden, da eine Kältewelle jederzeit im Winter auftreten kann und Menschen unabhängig vom genauen Zeitpunkt gleichermaßen betrifft. Wir stellen fest, dass die kältesten zwei Wochen in diesem Winter 7ºF bis 11ºF (4ºC bis 6 ºC) kälter waren als die kältesten zwei Wochen im Durchschnitt während der letzten "normalen" Periode von 1981-2010 in den meisten Gebieten, die von der Kältewelle betroffen sind.



    Um den Effekt der Erwärmung auf die kälteste zweiwöchige Periode des Winters in der Region zu quantifizieren, haben wir die Serie an eine Generalised Extreme Value (GEV)-Verteilung angepasst, was darauf hindeutet, dass die Temperatur der kältesten zweiwöchigen Periode etwa doppelt so schnell angestiegen ist wie der globale mittlere Temperaturanstieg. Dies erklärt sich als Folge der stärkeren Erwärmungstendenzen in der Arktis, wo die kalte Luft ihren Ursprung hat. Diese Übereinstimmung zeigt auch, dass diese zwei Wochen im gegenwärtigen Klima sehr ungewöhnlich sind und in dieser Region eine Wiederkehrzeit von etwa 250 Jahren haben.

    Die signifikante Abhängigkeit des GEV-Standortes von den Werten der globalen Mitteltemperatur erlaubt es uns, die Frage zu stellen, wie hoch die Wiederkehrzeit eines solchen Ereignisses im Klima vor einem Jahrhundert war. Unsere Schätzungen gehen davon aus, dass eine solche Kältewelle im Durchschnitt alle siebzehn Jahre auftrat. Das bedeutet, dass Kältewellen wie diese durch die globale Erwärmung etwa um den Faktor 15 seltener geworden sind.

    Wir kommen zu dem Schluss, dass es sich um eine außergewöhnliche zweiwöchige Kältewelle in der Region im aktuellen Klima handelte. Kälteeinbrüche wie dieser werden durch die globale Erwärmung immer wärmer (weniger häufig), aber Kältewellen treten immer noch fast jeden Winter irgendwo in Nordamerika auf.

    Vollständiger Bericht

    Originaltext:
    Zitat Zitat von https://www.climateprediction.net/cold-snap-in-north-america-world-weather-attribution-analysis/
    Cold snap in North America – World Weather Attribution analysis

    Over recent years (2014, 2016 and now), there have been a number of extreme cold events in North America, although in different regions and of different durations. Low temperatures have been observed over much of northeastern North America during the two weeks between December 26, 2017 through January 8, 2018, and these temperatures are unusually cold in a large region centered over the Great Lakes extending to the eastern seaboard.

    To help us define this year’s event, we compare the coldest two weeks in the 2017/18 winter so far with the coldest two weeks in previous winters in North America. We chose this comparison, rather than using temperatures on the exact same dates in the past, because a cold wave can occur any time in winter and affects people similarly, regardless of the exact timing. We find that the coldest two weeks this winter have been 7ºF to 11ºF (4ºC to 6 ºC) colder than the coldest two weeks have been, on average, during the past “normal” period of 1981–2010 over most of the area affected by the cold wave.

    To quantify the effect of warming on the coldest two-week period of the winter in the area, we fitted the series to a Generalised Extreme Value (GEV) distribution, indicating that the temperature of the coldest two-week period has increased about two times faster than the global mean temperature rise. This has been explained as a consequence of stronger warming trends in the Arctic, where the cold air originates. The fit also shows that these two weeks are very unusual in the current climate, with a return time of very roughly 250 years in this region.

    The significant dependence of the GEV location on the values of global mean temperature allows us to ask what the return time of such an event was in the climate of a century ago. Our estimates indicate that a cold wave like this occurred on average every seventeen years. This means that cold waves like this have become approximately a factor fifteen less frequent due to global warming.

    We conclude that this was an exceptional two-week cold wave in the area in the current climate. Cold outbreaks like this are getting warmer (less frequent) due to global warming, but cold waves still occur somewhere in North America almost every winter.

    Full report
    von Veröffentlicht: 23.01.2018 13:35
    1. Kategorien:
    2. Projekte

    Wie in der letzten Woche angekündigt, wird es morgen eine weitere kurze Auszeit des gesamten Projektes geben. Bereits heute kann es Ausfälle bei einigen Subprojekten geben. Auch die Probleme beim Hochladen von Dateien sind inzwischen besser verstanden, die Lösung erfordert aber einen Umbau der Systemarchitektur.

    LHC@home-Auszeit aufgrund von Systemaktualisierungen
    Morgen, Mittwoch, den 24.01., werden die LHC@home-Server für kurze Zeit nicht erreichbar sein, während unser Massenspeicher-Unterbau wegen Systemaktualisierungen vom Netz genommen wird.

    Heute, Dienstag, den 23.01., werden einige von den Condor-Servern, welche CMS-, LHCb- und Theory-Aufgaben handhaben, für eine Weile vom Netz genommen. Betreffend die andauernden Probleme mit dem Hochladen von Dateien, siehe bitte diesen Thread (engl.).

    Danke für euer Verständnis und frohes Crunchen!
    23.01.2018, 10:19:32 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    LHC@home down-time due to system updates
    Tomorrow Wednesday 24/1, the LHC@home servers will be unavailable for a short period while our storage backend is taken down for a system update.

    Today, Tuesday 23/1, some of the Condor servers that handle CMS, LHCb and Theory tasks will be down for a while. Regarding the on-going issues with upload of files, please refer to this thread.

    Thanks for your understanding and happy crunching!
    23 Jan 2018, 9:19:32 UTC
    von Veröffentlicht: 22.01.2018 20:05
    1. Kategorien:
    2. Projekte

    Rechner, die viele Fehler produzieren, erhalten nun weniger WUs, für erfolgreich teilnehmende Rechner sollte sich nichts geändert haben.

    WUs für unzuverlässige Rechner verringert
    Hallo zusammen,

    ich habe gerade einige Optionen aktiviert, um die Anzahl der WUs zu verringern, die an Rechner geschickt werden, welche viele Fehler zurückmelden. Wenn ihr Probleme beobachtet, lasst es mich bitte wissen.

    Vielen Dank für eure anhaltende Unterstützung.

    Jake
    22.01.2018, 16:37:37 MEZ

    Originaltext:
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/
    Reducing Workunits to Unreliable Hosts
    Hey Everyone,

    I just tried turning on some options to reduce workunits sent to hosts that return a significant number of errors. If you see any issues, please let me know.

    Thank you all for your continued support.

    Jake
    22 Jan 2018, 15:37:37 UTC
    von Veröffentlicht: 22.01.2018 19:55
    1. Kategorien:
    2. Projekte

    Die Anwendung für das Subprojekt Siever wurde um die Software sr2sieve erweitert, wie üblich wird die neue Anwendung automatisch mit den ersten neu zugeteilten WUs heruntergeladen.

    Aktualisierung von Siever
    In den letzten Tagen wurde die Anwendung Siever aktualisiert. Nach dieser Aktualisierung können wir nun auch sr2sieve-Aufgaben ausführen. Eine erste sr2sieve-Ladung wurde bereits verteilt. Die Namen solcher WUs starten mit sr2. Eine weitere Ladung sr2-WUs wird in den nächsten 7 Tagen verteilt.
    21.01.2018

    Originaltext:
    Zitat Zitat von https://www.rechenkraft.net/yoyo/
    Siever update
    In the last days the siever app was updated. With this update we can run now also sr2sieve tasks. A first sr2sieve batch was already distributed. The names of such workunits starts with sr2. A next batch of sr2 workunits will be distributed in the next 7 days.
    21 Jan 2018
    Seite 51 von 92 Erste ... 41 49 50 51 52 53 61 ... Letzte
Single Sign On provided by vBSSO