• SETI.Germany News RSS-Feed

    von Veröffentlicht: 11.03.2018 09:50
    1. Kategorien:
    2. Projekte

    Neben weiteren ODLS-Paaren ist zu vermelden, dass das Projekt nun zu 10% abgeschlossen ist:

    Die Ergebnisse im Februar 2018!
    Liebe Teilnehmer!

    In der zweiten Februar-Hälfte wurden 583 Ergebnisse mit einem oder mehreren Paaren orthogonaler diagonaler lateinischer Quadrate gefunden!

    Nun sind 10% aller WUs berechnet und wir danken allen Projektteilnehmern für die große Rechenleistung, die sie für diese Forschung spenden! Vielen Dank und frohes Crunchen!
    10.03.2018, 7:39:40 MEZ

    Unter den Findern der ODLS-Paare (zur vollständigen Liste) waren mit [SG-2W]Kurzer und Matthias Lehmkuhl auch zwei Mitglieder von SETI.Germany.

    Originaltext:
    Zitat Zitat von http://rake.boincfast.ru/rakesearch/
    February 2018 totals!
    Dear participants!

    For the second half of February was found a 583 results with one or more ODLS pairs!

    [...]

    Now a 10% of entire workunits space is complete and we thanks to all projects participants for big computing power that wh donate for this research! Thank you very much and happy crunching!
    10 Mar 2018, 6:39:40 UTC
    von Veröffentlicht: 11.03.2018 09:35
    1. Kategorien:
    2. Projekte

    Einige kürzlich vorgenommene Änderungen, um fehlerhafte Rechner auszusortieren, hatten auch Auswirkungen auf funktionstüchtige Rechner und wurden daher rückgängig gemacht:

    Änderung zur Sperrung unzuverlässiger Rechner wird rückgängig gemacht
    Hallo zusammen,

    ich werde den Wechsel auf die BOINC-eigene Option zur Benutzung zuverlässiger Rechner rückgängig machen. Sie scheint ungewollte Auswirkungen auf die Benutzbarkeit des Projektes für einige Benutzer zu haben.

    Zukünftig werden Sidd und ich die schlimmsten Verursacher fehlerhafter WUs manuell sperren.

    Ich bitte alle betroffenen zu entschuldigen, dass ihr zuletzt nicht für uns crunchen konntet.

    Jake
    05.03.2018, 21:15:32 MEZ


    Die ersten Rechner wurden von Hand gesperrt, was für den Besitzer auch in der Rechnerübersicht beim Projekt ersichtlich ist:

    Sperrung von Rechnern mit hoher Fehlerzahl
    Hallo zusammen,

    ich werde acht Rechner mit extrem hoher Fehlerzahl (über 1000 in ihrem aktuellen Verlauf) sperren. Wenn ihr einen dieser Rechner besitzt und unglücklich mit der Sperre seid, benachrichtigt mich bitte und wir können über eine Aufhebung der Sperre reden.

    Das ist eine vorübergehende Lösung, bis ich ein besser automatisiertes Sperrsystem aufgebaut habe, das gelegentliche Tests von Rechnern ermöglicht, um zu prüfen, ob die Fehler behoben wurden.

    Über den besten Weg für einen automatisierten Algorithmus kann hier diskutiert werden und ich werde versuchen, dabei mitzukommen.

    Jake

    Nachtrag:

    Ich habe eine Funktion hinzugefügt, um auf einen Blick feststellen zu können, ob einer eurer Rechner gesperrt wurde. Ein gesperrter Rechner wird auf der Seite "Computer, die zu diesem Konto gehören" in rot hervorgehoben. Diese Rechner werden für niemanden sonst rot markiert und nur ihr selbst könnt sehen, ob ihr gesperrt wurdet.
    07.03.2018, 20:55:44 MEZ


    Zugleich wird auch daran gearbeitet, die Verteilung von WUs an ungeeignete Grafikkarten als eine der häufigsten Fehlerquellen zu unterbinden:

    Tests einiger neuer Planklassen
    Hallo zusammen,

    ich werde versuchen, die GPU-Planklassen zu verändern, um die an Benutzer ohne GPUs mit doppelter Genauigkeit geschickten WUs zu vermindern. Wenn ihr auf eurer Seite irgendwelche Probleme bemerkt, lasst es mich bitte wissen.

    Danke,

    Jake
    08.03.2018, 19:06:30 MEZ


    Originaltexte:
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/
    Reverting Change to Remove Unreliable Hosts
    Hey Everyone,

    I am going to be reverting the change to use the built in BOINC use reliable hosts option. It seems to be having unintended consequences to the usability of the project for some users.

    In the future, Sidd and I will look into manually removing the worst offenders who are sending back erroring workunits.

    For anyone effected, I apologize if you haven't been able to crunch for us recently.

    Jake
    5 Mar 2018, 20:15:32 UTC
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/
    Removing Hosts With High Error Counts
    Hey Everyone,

    I am going to be issuing suspensions to 8 hosts with extremely high error counts (over 1000 in their recent history). If you own one of these hosts and are unhappy with the suspension, please message me and we can discuss removing the suspension.

    This is a temporary solution until I can implement a more automated suspension system with occasional retesting of hosts to see if they have been fixed.

    Any discussion about how to best implement an automated algorithm can go here and I will attempt to keep up.

    Jake

    Edit:

    I added a feature to determine if one of your hosts is suspended at a quick glance. Any of your suspended hosts will show up highlighted in red on the "computers on this account" page in your account information page. These hosts will not show up as red to anyone else and only you will know if you are suspended.
    7 Mar 2018, 19:55:44 UTC
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/
    Testing Some New Plan Classes
    Hey Everyone,

    I am going to try changing the GPU plan classes to reduce workunits sent to users without double precision gpus. If you notice any issues on your end, please let me know.

    Thanks,

    Jake
    8 Mar 2018, 18:06:30 UTC
    von Veröffentlicht: 04.03.2018 10:00
    1. Kategorien:
    2. Projekte

    Nur wenige Stunden nach dem Monatswechsel wurde sichergestellt, dass auch der März nicht ohne GFN-18-Megaprimzahl bleiben wird. Der Fund ist die vierte Top-100-Primzahl des Jahres (alle GFN-18), zum zweiten Mal gehört dabei der Finder unserem Team SETI.Germany an.

    GFN-262144-Megaprimzahl!
    Am 1. März 2018 um 05:16:07 MEZ hat PrimeGrids Generalized Fermat Prime Search eine verallgemeinerte Fermat-Megaprimzahl gefunden:

    4489246^262144+1

    Die Primzahl hat 1743828 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 7 für verallgemeinerte Fermat-Primzahlen und Platz 56 insgesamt.

    Die Entdeckung gelang Wolfgang Schwieger (DeleteNull) aus Deutschland mit einer NVIDIA GeForce GTX 1070 Ti in Verbund mit einer Intel-CPU @ 2,30 GHz mit 32 GB RAM unter Windows 10. Diese GPU brauchte etwa 18 Minuten für den PRP-Test mit GeneferOCL3. Wolfgang ist Mitglied des Teams SETI.Germany.

    Die PRP wurde am 1. März 2018 um 05:28:47 von Jonathan Sipes (k4m1k4z3) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-2700K @ 3,50 GHz mit 8 GB RAM unter Windows 7 bestätigt. Diese GPU brauchte etwa 20 Minuten für den PRP-Test mit GeneferOCL3. Jonathan ist Mitglied des Teams Overclock.net.

    Die Primalität dieser PRP wurde mit einem Intel Xeon E3-1240 v6 @ 3,70 GHz mit 2 GB RAM unter Linux bewiesen. Dieser Rechner brauchte etwa 5 Stunden 33 Minuten für den Primalitätstest mit LLR.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    03.03.2018 | 14:09:30 MEZ

    Originaltext:
    Zitat Zitat von https://www.primegrid.com/
    GFN-262144 Mega Prime!
    On 1 March 2018, 04:16:07 UTC, PrimeGrid’s Generalized Fermat Prime Search found the Generalized Fermat mega prime:

    4489246^262144+1

    The prime is 1,743,828 digits long and enters Chris Caldwell's The Largest Known Primes Database ranked 7th for Generalized Fermat primes and 56th overall.

    The discovery was made by Wolfgang Schwieger (DeleteNull) of Germany using an NVIDIA GeForce GTX 1070 Ti in an Intel(R) CPU at 2.30GHz with 32GB RAM, running Windows 10 Professional Edition. This GPU took about 18 minutes to probable prime (PRP) test with GeneferOCL3. Wolfgang is a member of the SETI.Germany team.

    The prime was verified on 1 March 2018, 04:28:47 by Jonathan Sipes (k4m1k4z3) of the United States using an NVIDIA GeForce GTX 1080 GPU in an Intel(R) Core(TM) i7-2700K CPU at 3.50GHz with 8GB RAM, running Windows 7 Professional Edition. This GPU took about 20 minutes to probable prime (PRP) test with GeneferOCL3. Jonathan is a member of the Overclock.net team.

    The PRP was confirmed prime by an Intel(R) Xeon(R) E3-1240 v6 CPU @ 3.70GHz with 2GB RAM, running Linux. This computer took about 5 hours 33 minutes to complete the primality test using LLR.

    For more details, please see the official announcement.
    3 Mar 2018 | 13:09:30 UTC
    von Veröffentlicht: 04.03.2018 08:15
    1. Kategorien:
    2. Projekte

    Der Projektadministrator wechselt in eine andere Abteilung am International Centre for Radio Astronomy Research (ICRAR) und muss das Projekt daher bald zum Abschluss bringen. Ob nach dem aktuellen Durchlauf durch simulierte Daten auch noch wie geplant echte Daten vom ASKAP-Radioteleskop ausgewertet werden, ist unklar.

    Außerdem werden die weiterhin im Wochenrhythmus herausgegebenen aktuellen WUs nun nicht mehr an Rechner mit zu wenig RAM (weniger als 4 GB) verschickt.

    Neuigkeiten zu SoFiA, Teil 8, und einige Veränderungen bei ICRAR
    Hallo zusammen,

    in der vergangenen Woche ist einiges am ICRAR passiert und ich habe viele Neuigkeiten für euch.

    Ich war ursprünglich in der Öffentlichkeitsarbeit angestellt, um mehr oder weniger exklusiv an theSkyNet zu arbeiten. Im März dieses Jahres wird mein Vertrag in die DIA-Abteilung (Daten-intensive Astronomie) übertragen, welche möchte, dass ich an anderen Projekten arbeite.

    Ich habe den Leiter der DIA letzte Woche getroffen und es wurde entschieden, dass ich Sourcefinder nach Erledigung aller 100-MB-WUs abschließen und alle bisher von uns berechneten Daten für die Auswertung vorbereiten muss.

    Vor diesem Hintergrund ist mein Plan, die 100-MB-WUs weiterhin unter der sofiabeta-Anwendung laufen zu lassen, da dort aktuell alles mehr oder weniger funktioniert. sofiabeta wird eine Beta-Anwendung bleiben, sodass die Teilnehmer sich nach ihrem Wunsch dafür oder dagegen entscheiden können, da die 100-MB-WUs signifikant anspruchsvoller sind als die 10-MB-WUs.

    Wenn wir alle 100-MB-WUs bearbeitet haben, werde ich dann einige Zeit damit verbringen, an einer öffentlichen Mitwirkenden-Seite zu arbeiten, welche alle Teilnehmer auflisten wird, die zu Sourcefinder beigetragen haben. Ich werde auch versuchen, sicherzustellen, dass ein Link zu dieser Seite in die abschließende Publikation mit der Auswertung der Ergebnisse aufgenommen wird. Als ich das letzte Mal nachfragte, waren sie im Allgemeinen gegen die Idee, eine Mitwirkenden-Liste in die Publikation aufzunehmen, aber sie dachten, dass die Angabe eines Links zu einer Webseite, welche die Mitwirkenden auflistet, in Ordnung wäre.

    Was die ASKAP-Daten betrifft, welche mir vor einigen Monaten versprochen wurden, kenne ich noch immer nicht den aktuellen Status. Sobald die 100-MB-WUs abgeschlossen sind, werde ich versuchen, herauszufinden, ob sie wollen, dass wir die Daten auswerten, oder nicht.

    Ich wollte auch einen Ergebnisbetrachter schreiben, der es den Teilnehmern ermöglichen würde, nach den von ihnen gefundenen Quellen zu suchen und diese anzuschauen, aber es sieht nicht danach aus, dass ich das noch tun kann, wenn ich zu anderen Projekten versetzt werde. Das tut mir leid.

    Was SoFiA betrifft, werde ich den Parameter rsc_memory_bound für die 100-MB-WUs auf 4 GB erhöhen, was bedeutet, dass Rechner mit weniger als 4 GB Hauptspeicher diese WUs nicht erhalten. Danke an LumenDan für den Hinweis.
    Ich werde weiterhin mindestens einen Satz WUs pro Woche herausgeben, abhängig vom Speicherplatz auf dem Server könnte es mir auch möglich sein, zwei Sätze herauszugeben. Wir werden sehen.

    Wenn jemand irgendeine Klarstellung wünscht, sind Fragen willkommen. Ich werde versuchen, alles zu beantworten.

    Grüße,
    Sam
    28.02.2018, 3:33:41 MEZ

    Originaltext:
    Zitat Zitat von https://sourcefinder.theskynet.org/duchamp/
    SoFiA Update 8 and some changes at ICRAR
    Hi everyone,

    There's been a lot going on over the last week at ICRAR, and I've got a lot to update you on.

    I was originally contracted by Outreach to work more or less exclusively on theSkyNet. As of March this year, my contract is being moved over to DIA (Data intensive astronomy), who want to move me to work on other projects.

    I met with the head of DIA last week and it's been decided that after the 100MB workunits are all done done, I'll need to wrap up Sourcefinder and organise all of the data we've crunched so far in preparation for analysis.

    So bearing this in mind, my new plan is to continue running 100MB workunits through the sofiabeta app, as everything is more less working there as it is. sofiabeta will remain a beta app so people can opt in / opt out as they please, as the 100MB workunits are significantly more intensive than the 10MB workunits,

    Then, once we've completed the 100MB workunits, I'll spend some time working on a public contributers page that'll list everyone who has contributed to Sourcefinder. I'll also try and ensure that a link to this page is present in the final paper analysing the results. Last I checked they were generally against the idea of mentioning a list of contributers in the paper, but they thought that providing a link to a web page that listed the contributers would be fine.

    As for the ASKAP data that was promised to me months ago, I'm still not sure of its current status. Once the 100MB workunits are done, I'll see if I can chase it down and get an update as to whether they want us to process it or not.

    I also wanted to write a results viewer that would allow users to search for sources they've found and view them, but it doesn't look like I'll be able to do that anymore if I'm being moved to other projects. Sorry about that.

    As for SoFiA, I'm looking at increasing the rsc_memory_bound for the 100MB workunits to be 4GB, meaning computers with less than 4GB of memory wont be given these workunits. Thanks to LumenDan for bringing this up.
    I'll keep pushing out at least one set of workunits per week, but depending on the disk space of the server, I might be able to push out two. We'll see.

    If there are any clarifications anyone needs, feel free to ask. I'll try to answer anything.

    Regards,
    Sam
    28 Feb 2018, 2:33:41 UTC
    von Veröffentlicht: 04.03.2018 07:30
    1. Kategorien:
    2. Projekte

    Zu verstehen, wie der anhaltende Anstieg der globalen Mitteltemperatur die gesellschaftliche Exposition gegenüber extremen Wetterereignissen verschärfen wird, ist eine Frage von großer Bedeutung.

    Nach der Unterzeichnung des Pariser Abkommens im Dezember 2015 hat sich innerhalb der wissenschaftlichen Gemeinschaft ein gezielter Fokus herausgebildet, um besser zu verstehen, wie sich Veränderungen des globalen Klimasystems als Reaktion auf bestimmte Schwellenwerte der künftigen globalen Erwärmung entwickeln werden, wie z.B. 1,5 °C oder 2 °C über dem vorindustriellen Niveau.

    Die Bestimmung der Exposition der Bevölkerung gegenüber den Auswirkungen von Hitzeextremen bei 1,5 °C und 2 °C der globalen Erwärmung erfordert jedoch nicht nur ein solides Verständnis der Reaktion des physischen Klimasystems, sondern auch die Berücksichtigung der prognostizierten Veränderungen der Gesamtbevölkerung sowie der zukünftigen Wohnorte.

    Eine kürzlich veröffentlichte Analyse von Dr. Luke Harrington und Dr. Friederike Otto von climateprediction.net stellt einen neuen Rahmen vor, der sich an Studien zur probabilistischen Ereigniszuordnung anlehnt, um die relative Bedeutung der regionalen Klimaentstehung und der sich ändernden Populationsdynamik bei der Exposition gegenüber zukünftigen Hitzeextremen in mehreren dicht besiedelten Regionen Südasiens und Ostafrikas (SAEA) zu entwirren.

    Ihre Ergebnisse zeigen, dass, wenn die Bevölkerung auf dem Niveau von 2015 gehalten wird, die Exposition gegenüber Hitze, die in diesem Jahrzehnt in diesen Regionen als schwerwiegend eingestuft wird, um den Faktor 4,1 (2,4-9,6) bzw. 15,8 (5,0-135) unter einer 1,5 °C bzw. 2,0 °C wärmeren Welt zunehmen wird.

    Prognostizierte Bevölkerungsveränderungen bis zum Ende des Jahrhunderts können diese Veränderungen um den Faktor 1,2 (1,0-1,3) bzw. 1,5 (1,3-1,7) weiter verschärfen. Ein großer Teil dieses zusätzlichen Risikoanstiegs ist jedoch nicht auf absolute Bevölkerungszuwächse zurückzuführen, sondern auf Veränderungen, bei denen die Regionen auch in Zukunft ein kontinuierliches Bevölkerungswachstum aufweisen. Daher könnte eine anhaltende Bevölkerungsexpansion in Afrika mehr Menschen an Orten ansiedeln, an denen die sich abzeichnenden Veränderungen zukünftiger Hitzeextreme außergewöhnlich gravierend sind.

    Während lokale Anpassungsplaner in erster Linie daran interessiert sein könnten, wie sich die Muster von Hitzeextremen mit den Veränderungen in der Bevölkerung in ihrer unmittelbaren Umgebung in Einklang bringen, ist es für Entscheidungsträger ebenso wichtig, die breiteren Implikationen von Wärmeexpositionszunahmen zu erkennen, die durch zukünftige Veränderungen in den Wohngebieten der Menschen hervorgerufen werden.

    Danksagungen

    Die Autoren bedanken sich bei den Kollegen des Oxford e-Research Centre: Andy Bowery, Sihan Li, Mamun Rashid, Sarah Sparrow und David Wallom für ihre technische Expertise. Sie würdigen auch das Team von MetOffice HadleyCentre PRECIS für die technische und wissenschaftliche Unterstützung bei der Entwicklung und Anwendung von Weather@Home.

    Abschließend möchten sie sich bei allen Freiwilligen bedanken, die ihre Rechenzeit an climateprediction.net und Weather@Home gespendet haben.




    Originaltext:
    Zitat Zitat von https://www.climateprediction.net/how-do-population-dynamics-affect-impact-of-heat-extremes/
    Understanding how continuing increases in global mean temperature will exacerbate societal exposure to extreme weather events is a question of profound importance.

    Following the signing of the Paris Agreement in December 2015, a targeted focus has emerged within the scientific community to better understand how changes to the global climate system will evolve in response to specific thresholds of future global mean warming, such as 1.5 ◦C or 2◦C above ‘pre-industrial levels’.

    However, determining population exposure to the impacts of heat extremes at 1.5 °C and 2 °C of global warming requires not only a robust understanding of the physical climate system response, but also consideration of projected changes to overall population size, as well as where people will live in the future.

    A recent analysis by Dr Luke Harrington and Dr Friederike Otto of climateprediction.net introduces a new framework, adapted from studies of probabilistic event attribution, to disentangle the relative importance of regional climate emergence and changing population dynamics in the exposure to future heat extremes across multiple densely populated regions in Southern Asia and Eastern Africa (SAEA).

    Their results reveal that, when population is kept at 2015 levels, exposure to heat considered severe in the present decade across these regions will increase by a factor of 4.1 (2.4–9.6) and 15.8 (5.0–135) under a 1.5°- and 2.0°-warmer world, respectively.

    Projected population changes by the end of the century can further exacerbate these changes by a factor of 1.2 (1.0–1.3) and 1.5 (1.3–1.7), respectively. However, a large fraction of this additional risk increase is not related to absolute increases in population, but instead attributed to changes in which regions exhibit continued population growth into the future. Therefore continued African population expansion could place more people in locations where emergent changes to future heat extremes are exceptionally severe.

    While local adaptation planners might be primarily be interested in how the patterns of heat extremes align with changes in population over their immediate community, it is equally important for decision makers to recognise the broader implications of heat exposure increases driven by future changes in where people live.

    Acknowledgments

    The authors would like to thank colleagues at the Oxford e-Research Centre: Andy Bowery, Sihan Li, Mamun Rashid, Sarah Sparrow and David Wallom for their technical expertise. They also acknowledge the MetOffice HadleyCentre PRECIS team for their technical and scientific support for the development and application of Weather@Home.

    Finally, they would like to thank all of the volunteers who have donated their computing time to climateprediction.net andWeather@Home.
    von Veröffentlicht: 02.03.2018 18:20
    1. Kategorien:
    2. Projekte

    Rosetta 4.07 veröffentlicht

    Diese Version enthält einen Bugfix für das zyklische Peptid-Faltungsprotokoll. Bitte postet alle Probleme/Fehler bezüglich dieser Anwendung in diesem Thread.


    Originaltext:
    Zitat Zitat von https://boinc.bakerlab.org/rosetta/
    Rosetta 4.07 released

    This version contains a bug fix for the cyclic peptide folding protocol. Please post any issues/bugs regarding this application in this thread.
    von Veröffentlicht: 28.02.2018 22:45
    1. Kategorien:
    2. Projekte

    Zwei Pulsare mit Rotationsperioden von wenigen Millisekunden wurden in den Daten des Fermi-Satelliten gefunden, darunter erstmals ein Gamma-Pulsar, von welchem keine Radiostrahlung nachweisbar ist:

    Einstein@Home entdeckt ersten Millisekunden-Pulsar, von welchem nur Gammastrahlen beobachtet werden können
    Einstein@Home hat zwei bisher unbekannte schnell rotierende Neutronensterne in Daten des Fermi Gamma-ray Space Telescope gefunden. Während alle anderen dieser Millisekunden-Pulsare auch mit Radioteleskopen beobachtet wurden, ist eine der beiden Entdeckungen der erste Millisekunden-Pulsar, der einzig durch seine pulsierende Gammastrahlenemission nachweisbar ist. Die Funde geben Hoffnungen Auftrieb, andere neue Millisekunden-Pulsare zu finden, z.B. aus einer vorhergesagten großen Population solcher Objekte in der Nähe des Zentrums unserer Galaxie.

    Lest mehr darüber in dieser gemeinsamen Pressemitteilung des Max-Planck-Instituts für Gravitationsphysik in Hannover und des Max-Planck-Instituts für Radioastronomie in Bonn. Die Veröffentlichung (engl.) erschien in Science Advances.

    Wir möchten den zehntausenden Einstein@Home-Freiwilligen unsere Dankbarkeit aussprechen, welche ihre CPU-Zeit dem Projekt gespendet haben. Ohne sie hätte die Durchmusterung nicht durchgeführt werden können und diese Entdeckungen wären nicht gemacht worden. Die beiden nun gemeldeten Entdeckungen und die Freiwilligen, deren Rechnern sie gelangen, sind:
    • PSR J1035−6720: “WSyS”; Kurt Kovacs aus Seattle, Washington, USA; sowie der ATLAS-Cluster, AEI, Hannover, Deutschland.
    • PSR J1744−7619: Darrell Hoberer aus Gainesville, Texas, USA; der ATLAS-Cluster, AEI, Hannover, Deutschland; Igor Yakushin aus Chicago, Illinois, USA, und das LIGO-Labor, USA; sowie Keith Pickstone aus Oldham, UK.


    Benjamin für das Einstein@Home-Team
    28.02.2018 20:13:00 MEZ


    In der Pressemitteilung findet sich die folgende Informationsgrafik, welche die Örter und weitere Informationen zu beiden Pulsaren darstellt:




    Originaltext:
    Zitat Zitat von https://einsteinathome.org/content/einsteinhome-discovers-first-millisecond-pulsar-visible-only-gamma-rays
    Einstein@Home discovers first millisecond pulsar visible only in gamma rays
    Einstein@Home has found two previously unknown rapidly rotating neutron stars in data from the Fermi gamma-ray space telescope. While all other such millisecond pulsars have also been observed with radio telescopes, one of the two discoveries is the first millisecond pulsar detectable solely through its pulsed gamma-ray emission. The findings raise hopes of detecting other new millisecond pulsars, e.g., from a predicted large population of such objects towards the center of our Galaxy.

    Read mor in this joint press release by the Max Planck Institute for Gravitational Physics in Hannover and the Max Planck Institute for Radioastronomy in Bonn. The publication appeared in Science Advances.

    We would like to express our gratitude to the tens of thousands of Einstein@Home volunteers who have donated their CPU time to the project. Without them the survey could not have been performed and these discoveries could not have been made. The two discoveries reported now and the volunteers whose computers made them are:
    • PSR J1035−6720: “WSyS”; Kurt Kovacs, of Seattle Washington, USA; and the ATLAS Cluster, AEI, Hannover, Germany.
    • PSR J1744−7619: Darrell Hoberer, of Gainesville, TX, USA; the ATLAS Cluster, AEI, Hannover, Germany; Igor Yakushin of Chicago, IL, USA and the LIGO Laboratory, USA; and Keith Pickstone of Oldham, UK.


    Benjamin on behalf of the Einstein@Home Team
    28 Feb 2018 19:13:00 UTC
    von Veröffentlicht: 28.02.2018 08:05
    1. Kategorien:
    2. Projekte

    Bald nach Ende der Tour de Primes in der kommenden Nacht werden einige Änderungen am Server vorgenommen, sodass es zu einigen kurzen Unterbrechungen der Erreichbarkeit kommen kann:

    Geplante Auszeit am 1. März
    Sofern ich nicht beschäftigt, abgelenkt oder vergesslich bin, wird es in den frühen Stunden des 1. März einige geplante Auszeiten des PrimeGrid-BOINC-Servers geben.

    Es wird einige kurze Auszeiten geben, während welcher der BOINC-Server nicht erreichbar sein wird. Die Foren und der Großteil des Webangebots werden in dieser Zeit verfügbar bleiben.

    Es wird auch einige kurze Auszeiten geben, während welcher der gesamte Webserver abgeschaltet wird.

    "Kurz" bedeutet in diesem Fall einige Minuten oder einige Sekunden.

    (Für die Interessierten: Ich werde die neueste Genefer-Anwendung installieren, nach dem Ende der Tour de Primes einige Parameter optimieren und ein neues SSL-Zertifikat für den Webserver installieren.)
    28.02.2018 | 3:31:13 MEZ


    In Kürze werden zudem die getesteten Zahlen bei GFN-19 zu groß für OCL4, sodass dann eine langsamere Transformation verwendet werden muss. Im Normalfall wählt Genefer automatisch die schnellste verwendbare Transformation aus (für NVIDIA-Grafikkarten ab Maxwell wird das OCL3 sein, für andere OCL5). Außerdem wird voraussichtlich ab dem 1. März die neueste Genefer-Version über BOINC verteilt, welche leichte Geschwindigkeitszuwächse für neuere CPUs bei der x87-Transformation bringt und die GPU-Anwendung wieder mit höherer Prozess-Priorität laufen lässt (sodass GPU-WUs praktisch immer die benötigte CPU-Zeit abbekommen, auch wenn kein CPU-Kern freigehalten wird). Die meisten Teilnehmer werden auch die neue Anwendungsversion automatisch bei Zuteilung der nächsten WU bekommen. Lediglich Benutzer von app_info.xml und app_config.xml müssen unter Umständen selbst eingreifen:

    Wichtige kommende Änderungen bei Genefer
    Es wird in den kommenden Tagen einige Änderungen bei Genefer geben. Falls ihr eine app_config.xml oder app_info.xml verwendet, müsst ihr möglicherweise einige Änderungen vornehmen. Falls ihr weder app_info.xml noch app_config.xml verwendet, sind von eurer Seite keine Maßnahmen erforderlich.

    1) GFN-19 nähert sich dem b-Limit für OCL4. Falls ihr Genefer mittels "-x OCL4" in der app_info.xml oder app_config.xml dazu zwingt, OCL4 für GFN-19-WUs zu verwenden, werden eure Aufgaben abbrechen, wenn ihr GFN-19-WUs jenseits des b-Limits erhaltet. Ich empfehle, "-x OCL4" zu entfernen und Genefer selbst die Transformation auswählen zu lassen.

    2) Sobald die Tour de Primes vorüber ist, werde ich die nächste Genefer-Version für den Produktivbetrieb freigeben. Das ist Genefer-Version 3.3.3-2 oder 3.3.3-3, welche die BOINC-Anwendungsversionsnummer 3.19 tragen wird. Falls ihr eine app_info.xml (d.h. die "anonyme Plattform") verwendet, solltet ihr Genefer auf eurem Rechner manuell auf den neuesten Stand bringen. Das betrifft nur die app_info.xml; es sind keine Maßnahmen erforderlich, falls ihr eine app_config.xml verwendet.
    28.02.2018 | 2:33:53 MEZ

    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=7890
    Planned Downtime on March 1st
    Unless I'm busy, distracted, or forgetful, in the early hours of March 1st there will be some scheduled downtime of the PrimeGrid BOINC server.

    There will be several short outages during which the BOINC server will be unavailable. The forums and much of the website will remain available during this time.

    There will also be several short outages during which the entire web server will be down.

    "Short" in this context means several minutes, or several seconds.

    (For those that are interested, I'll be installing the new latest Genefer application, changing some tuning parameters now that TdP will be over, and installing a new SSL certificate for the webserver.)
    28 Feb 2018 | 2:31:13 UTC
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=7889
    Important Upcoming Genefer Changes
    There are a couple of changes to Genefer coming in the next couple of days. If you use app_config.xml or app_info.xml, you may need to make some changes. If you do not use app_info.xml or app_config.xml, no action is necessary on your part.

    1) GFN-19 is approaching the B limit for OCL4. If you force Genefer to use OCL4 for GFN-19 tasks by specifying "-x OCL4" in either app_info.xml or app_config.xml, your tasks will fail when you receive a GFN-19 above the B limit. I recommend removing "-x OCL4" and letting Genefer choose the transform itself.

    2) Once TdP is over I will be releasing the next version of Genefer into production. This is Genefer version 3.3.3-2 or 3.3.3-3 and will show up as BOINC app version 3.19. If you are using app_info.xml (i.e., "anonymous platform") you should manually update your system to the new version of Genefer. This only applies to app_info.xml; no action is necessary if you're using app_config.xml.
    28 Feb 2018 | 1:33:53 UTC
    von Veröffentlicht: 27.02.2018 19:35
    1. Kategorien:
    2. Projekte

    Professor David Wallom und Dr. Sarah Sparrow von Climateprediction.net besuchen Dhaka, Bangladesch, im März dieses Jahres zu einem Stakeholder-Workshop rund um das REBuILD-Projekt (Risk Evaluation of Brahmaputra Inundations for Loss and Damage).

    Im Rahmen dieses Stakeholder-Workshops werden die Teilnehmer ihre Meinungen und Erkenntnisse darüber austauschen, wie Risikobewertungen von Extremereignissen für ein umfassendes Risikomanagement weiterentwickelt werden können, um die politischen Entscheidungsträger in Bangladesch bei der Entwicklung geeigneter Anpassungsstrategien zur Erreichung der Ziele der nachhaltigen Entwicklung zu unterstützen.

    Bangladesch zählt zu den Ländern, die am stärksten vom Klimawandel betroffen sind. Es hat eine der größten Bevölkerungsdichten der Welt, was zu einem hohen Druck auf die Land- und Wasserressourcen führt. Wenn extreme Wetterereignisse wie Überschwemmungen auftreten, werden Millionen von Menschen vertrieben und sowohl die Süßwasserversorgung als auch die landwirtschaftliche Produktion beeinträchtigt.

    Das Verständnis der Auswirkungen des anthropogenen Klimawandels und die Entwicklung von Dienstleistungen zur Unterstützung von Regierungsprogrammen wie der "Loss and Damage in Vulnerable Countries Initiative" innerhalb des Landes wären von großem Nutzen.

    Das REBuILD-Projekt ist eine Pilotstudie, die im Rahmen des Global Challenges Research Fund (GCRF) finanziert wird und an der Forscher der University of Oxford und des Institute of Water and Flood Management (IWFM) der Bangladesh University of Engineering and Technology (BUET) beteiligt sind.

    Mit Hilfe der einzigartigen EDV-Infrastruktur von climateprediction.net (CPDN) werden quantitative Risikobewertungen der möglichen Auswirkungen der Brahmaputra-Flutkatastrophe im Sommer 2017 durchgeführt.

    Professor Wallom wird den Workshop mit einer Einführung in das Programm climateprediction.net und dessen Relevanz für das REBuILD-Projekt eröffnen. Dr. Sparrow wird eine Fallstudie über die Analyse der Überschwemmungen im Jahr 2017 vorstellen, zusammen mit Khaled Mohammed vom IWFM, der die Universität besucht hat, um mit Forschern aus Oxford an dem Projekt in den letzten Monaten zusammenzuarbeiten.

    Es wird auch interaktive Sitzungen für alle Teilnehmer zu den politischen Entscheidungen über die Brahmaputra-Flutkatastrophe und zur Erforschung von Treibern und bewährten Praktiken im Umgang mit Überschwemmungen geben.



    Originaltext:
    Zitat Zitat von https://www.climateprediction.net/flood-project-workshop-to-take-place-in-dhaka/
    Climateprediction.net’s Professor David Wallom and Dr Sarah Sparrow are visiting Dhaka, Bangladesh, this March for a stakeholder workshop around the REBuILD project (Risk Evaluation of Brahmaputra Inundations for Loss and Damage).

    During this stakeholder workshop, participants will share their opinions and insights on how extreme event risk assessments could be further developed for comprehensive risk management, aiding Bangladesh policymakers in developing appropriate adaptation strategies for achieving Sustainable Development Goals.

    Bangladesh is listed as one of the countries most vulnerable to climate change. It has one of the largest population densities in the world, resulting in high pressure on land and water resources. When an extreme weather event such as flooding occurs, millions of people are displaced and both freshwater supply and agricultural production are affected.

    Understanding the impact of anthropogenic climate change and developing services to support government programmes such as the “Loss and Damage in Vulnerable Countries Initiative” within the country would be greatly beneficial.

    The REBuILD project is a pilot study funded under the Global Challenges Research Fund (GCRF) involving a collaboration of researchers from the University of Oxford and Institute of Water and Flood Management (IWFM) of Bangladesh University of Engineering and Technology (BUET).

    Using the unique computing infrastructure of climateprediction.net (CPDN), quantitative risk assessments are being carried out of the potential impacts of the Brahmaputra flooding during summer 2017.

    Professor Wallom will open the workshop with an introduction to the climateprediction.net programme and its relevance to the REBuILD project. Dr Sparrow will present a case study of the analysis of the 2017 floods along with Khaled Mohammed of IWFM, who has been visiting the University to collaborate with Oxford researchers on the project over the past couple of months.

    There will also be interactive sessions for all participants on the Brahmaputra Floods policy decisions and Exploring drivers and best practice in dealing with floods.
    von Veröffentlicht: 27.02.2018 19:30
    1. Kategorien:
    2. Projekte

    Zum Test des neuen Speichersystems werden beim LHC@home-Testprojekt vermehrt ATLAS-WUs verteilt:

    ATLAS-Lasttests
    Zur Information: Wir haben als Teil einer Kampagne zum Test unseres neuen Speicher-Unterbaus beim Testprojekt die WU-Limits pro Rechner erhöht.

    Es ist zu erwarten, dass die meisten neuen ATLAS-Aufgaben von den Rechnern unseres lokalen Clusters und des LCG-Clusters in Peking heruntergeladen werden. Aber für Interessierte gibt es auch WUs für andere Anwendungen. Es könnte auch zu Unterbrechungen kommen, da dies unser Entwicklungs- und Testsystem ist.
    27.01.2018, 16:49:29 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathomedev.cern.ch/lhcathome-dev/
    ATLAS load tests
    For information: We have increased limits pr. host on the dev project as part of a campaign to test our new storage backend.

    Expect most new ATLAS tasks to be pulled by our local cluster hosts and the LCG cluster in Bejing. But there are tasks for other applications too for those interested. There might be interruptions too, as this is our development and testbed. :-)
    27 Feb 2018, 15:49:29 UTC

    Seite 51 von 125 Erste ... 41 49 50 51 52 53 61 101 ... Letzte
Single Sign On provided by vBSSO