• Projekte

    von Veröffentlicht: 19.04.2020 07:45
    1. Kategorien:
    2. Projekte

    Rosetta@home nimmt künftig nun auch große Proteine mit bis zu 2000 Aminosäuren (hier ein Beispiel mit 1273 Gliedern) ins Visier und veranschlagt dafür bis zu 4 GB RAM.

    Rosetta@home: Anpassungen bezüglich COVID und anderer großer Proteine

    Ich wollte versuchen, allen bewusst zu machen, dass das Projekt einige der größten Protein-WUs vorbereitet, die jemals auf R@h liefen. Diese werden pro Modell viel länger brauchen als kleinere Proteine. Das wird es sehr schwierig machen, die "geschätzte verbleibende Laufzeit" genau darzustellen. Es wird die Wahrscheinlichkeit erhöhen, dass Aufgaben länger laufen als eure WU-Laufzeitpräferenz vorgibt, insbesondere wenn ihr eine Laufzeitpräferenz habt, die weniger als die 8 Stunden Standardlaufzeit beträgt. Um dem Rechnung zu tragen, wird der Watchdog länger ruhen als früher und nur WUs beenden, die mehr als 10 CPU-Stunden länger als die Laufzeitpräferenz gelaufen sind.

    Diese lang laufenden Modelle werden zu einem hohen Grad an Laufzeitschwankungen zwischen den einzelnen Aufgaben führen. Es kann vorkommen, dass eine Aufgabe fast doppelt so viel Punkte erhält wie eine andere. Das liegt daran, dass sie zwei Modelle ausgeführt hat, anstatt eines. Die Gutschrift sollte im Allgemeinen proportional zur Menge der in die Aufgabe investierten CPU-Zeit sein.

    Diese hohe Variation in der Laufzeit wird eine Herausforderung für den BOINC-Manager bei der Entscheidung darstellen, wie viel Arbeit er anfordern sollte. Ihr könnt dem BOINC-Manager helfen, zu viel Arbeit zu vermeiden, wenn ihr euren Arbeitspuffer auf unter einen Tag begrenzt.

    Außerdem haben einige von euch kürzlich Arbeitseinheiten gemeldet, die vor ihrer Laufzeitpräferenz abgeschlossen wurden. Dies wird auch bei diesen lang laufenden Modellen häufiger vorkommen. Wenn ihr z.B. die standardmäßige Laufzeitpräferenz von 8 Stunden habt und das erste Modell 5 Stunden für die Fertigstellung benötigt, dann wird es nach 5 Stunden aufhören und zurück gemeldet, weil ein zweites Modell die Präferenz überschreiten würde. Das Projektteam zieht es vor, dass ihr die Laufzeitpräferenz nicht ändert, was derzeit zu 8 Stunden Laufzeit führt. Wenn diese hohen Laufzeitschwankungen euch jedoch Probleme bereiten, möchte ich darauf hinweisen, dass die Einstellung einer längeren Laufzeitpräferenz im Allgemeinen zu konsistenteren Bearbeitungszeiten führt. Beachtet einfach, dass Änderungen der Laufzeitpräferenz sowohl auf bestehende heruntergeladenen Arbeitseinheiten als auch auf neue Arbeitsanforderungen angewendet werden. Daher schlage ich immer vor, Änderungen nur dann vorzunehmen, wenn ihr einen kleinen Arbeitspuffer habt, und die Laufzeitpräferenz nur um kleine Schritte auf einmal zu ändern, damit der BOINC-Manager Zeit hat, die WUs mit den neuen Laufzeiten fertiggestellt zu sehen. Dies hilft ihm dabei, die Menge an Arbeit anzufordern, die euren Präferenzen entspricht.

    Die Arbeitseinheiten, auf denen sehr kurze Modelle liefen und die enden, wenn sie 1.000 Modelle (vor ihrer Laufzeitpräferenz) oder andere sehr runde Zahlen erreicht haben, wurden angepasst, um eine größere maximale Anzahl von Modellen zu ermöglichen. Dies wird helfen, eure vorgegebene Laufzeitpräferenz einzuhalten und die zusätzliche Zeit zu nutzen, um mehr Modelle zu berechnen. Dies wird dazu beitragen, dass die Laufzeiten dieser Art von Arbeitseinheiten konsistenter sind.


    Originaltext:
    Zitat Zitat von https://boinc.bakerlab.org/rosetta/forum_thread.php?id=13826#94811
    I wanted to try to help everyone be aware that the project is preparing some of the largest protein WUs even run on R@h. These will take much longer to run per model than smaller proteins. This is going to make "estimated runtime remaining" very difficult to show accurately. It will increase the likelihood of tasks running longer than your WU runtime preference, especially if you have a runtime preference that is less than the 8 hours default. To accommodate, the watchdog will be napping longer that he used to. Only ending WUs that have run more than 10 CPU hours longer than the runtime preference.

    These long-running models are going to result in a high degree of variation in runtime between tasks. You might see one task granted nearly twice as much credit as another. That because it ran two models rather than one. Credit should generally be proportional to the amount of CPU time invested in the task.

    This high variation in runtime is going to present a challenge for the BOINC Manager in deciding how much work it should be requesting. You can help the BOINC Manager avoid pulling down too much work if you adjust your preferences for how much work to store to be under a day.

    Also, several of you have recently reported work units that have completed before their runtime preference. This is going to become more common with these long-running models as well. As an example if you have the default 8 hour runtime preference and the first model takes 5 hours to complete, then 5 hours is where it will stop and report back because a second model would exceed the preference. The Project Team prefers you leave the runtime preference unset, which presently results in 8 hour runtimes. But if these high variations in runtimes are presenting problems for you, I should point out that setting a longer runtime preference will generally result in more consistent completion times. Just beware that runtime preference changes are applied to your existing downloaded work units as well as new work requests. So I always suggest making changes only when you have settings for a small work cache, and to only change the runtime preference a couple of notches at a time, so the BOINC Manager has time to see WUs complete with the new runtimes. This helps it request the amount of work that matches your preferences.

    The work units that were running very short models and ending when they reached 1,000 models (before their runtime preference), or other very round numbers, have been adjusted to allow a larger maximum number of models. This will help them fill out their runtime preference, using the additional time to compute more models. This will help runtimes of this type of work unit to be more consistent.
    von Veröffentlicht: 16.04.2020 17:35
    1. Kategorien:
    2. Projekte

    Zunächst die Ankündigung eines derzeit in Vorbereitung befindlichen neuen Subprojekts:

    Originaltext - Diskussion

    Liebe Freiwillige,

    Heute hat IBM OpenPandemics, ein neues World Community Grid Projekt in Partnerschaft mit Scripps Research, angekündigt. Die Hauptziele dieses Projekts sind, sobald es gestartet ist:

    • Suche nach möglichen Behandlungsmethoden für COVID-19.
    • Entwicklung zusätzlicher Open-Source-Werkzeuge und Prozesse für die Arzneimittelentdeckung, die schnell zur Bekämpfung künftiger Pandemien und Epidemien eingesetzt werden können.

    World Community Grid hat hinter den Kulissen gearbeitet, um das Projekt so schnell wie möglich auf den Weg zu bringen, und wir werden euch während dieses Prozesses auf dem Laufenden halten. Sobald wir mit den Alpha-Tests beginnen (interne Tests von Arbeitseinheiten, die letztlich an die Computer der Freiwilligen geschickt werden), werden wir in diesem Thread eine Ankündigung machen. Wir werden diesen Thread auch mit Links zu Ankündigungen über Beta-Tests, den Projektstart und regelmäßige Projekt-Updates aktualisieren, so dass jeder, der das Forum besucht, schnell die neuesten Informationen finden kann.

    Um diese Ankündigungen für alle Forenbesucher so sichtbar wie möglich zu halten, wird dieser Thread gesperrt. Freiwillige werden ermutigt, über OpenPandemics in den folgenden Threads zu posten:

    Coming soon: OpenPandemics - Questions about science and technology
    Coming soon: OpenPandemics - Questions about work units and badges

    Außerdem werden wir unsere Kommunikationsrichtlinien, die ihr hier nachlesen könnt (engl.), strikt durchsetzen.

    Wir sind dankbar für jedermanns Unterstützung des World Community Grid und aller humanitären wissenschaftlichen Forschung. Jetzt stecken wir mehr denn je alle gemeinsam in dieser Sache.

    Vielen Dank,
    Juan
    ---

    Im Folgenden die gewohnten monatlichen Neuigkeiten der laufenden Subprojekte:

    Africa Rainfall Project - Originaltext - Diskussion

    Wir hatten heute ein kurzes Gespräch mit dem Forschungsteam.

    1. Das Tempo des Projekts wird vorerst gleich bleiben.
    2. Das Forschungsteam hat genug Arbeit geschaffen, um beim derzeitigen Tempo wahrscheinlich mehrere Monate lang zu laufen. Wenn sie beim derzeitigen Tempo bleiben, haben sie genug Zeit, die von uns erhaltenden Daten zu analysieren.
    3. Die Forscher diskutierten die Planung von Konferenzen im Jahr 2020, was aufgrund der Verbreitung von COVID-19 und der Absage von Konferenzen im Moment schwierig ist. Sie hoffen, die Teilnahme an den Konferenzen wieder aufnehmen zu können, um das Projekt im Laufe dieses Jahres mit anderen Wissenschaftlern zu diskutieren.



    FightAIDS@Home - Phase 2 - Originaltext - Diskussion

    Wir haben gerade unser monatliches Gespräch mit den Forschern von Scripps und Temple beendet.

    1. Die Forscher von Temple nähern sich dem Ende der aktuellen Simulationsgruppe. Sie werden mit der Scripps-Gruppe genauer besprechen, ob und wann sie einen neuen Satz erstellen werden. Wir werden dies in einem separaten Thread ankündigen, sobald die Forscher sich entschieden haben.
    2. Sie haben einen vielversprechenden Satz von Verbindungen (~30) auf der Grundlage der Daten aus früheren Arbeiten identifiziert und mit dem Prozess begonnen, sie in Nasslabors testen zu lassen. Leider verzögern sich die Tests aufgrund von Labor-/Universitätsschließungen wegen COVID-19.
    3. Das Scripps-Team ist dieselbe Gruppe, die demnächst OpenPandemics starten wird. Dies ist im Moment ihr Hauptaugenmerk.

    Aktueller Status der Arbeitseinheiten:

    In Arbeit: 4.984 Arbeitseinheiten*
    Abgeschlossen: 297.255 Arbeitseinheiten in den letzten 30 Tagen - durchschnittlich 9.908 Arbeitseinheiten pro Tag

    *Dieses Projekt verwendet keine Batches wie einige andere Projekte. Auch aufgrund der Verwendung der AsyncRe-Analysemethode hat dieses Projekt keinen Arbeitspuffer beim World Community Grid wie viele andere. Siehe die letzten beiden Projekt-Updates für Details.


    Help Stop Tuberculosis - Originaltext - Diskussion

    Wir hatten heute unseren monatlichen Anruf mit dem Forschungsteam.

    1. Sie erstellen immer noch Arbeitseinheiten und senden/empfangen diese von ihren neu eingerichteten virtuellen Laboren zu Hause.
    2. Wir hatten eine kurze Diskussion über zwei Arbeitseinheiten, die mehrfach im Grid fehlgeschlagen sind. Wir kennzeichneten sie und schickten sie zur Untersuchung an die Forscher zurück.
    3. Sie sind immer noch auf der Suche nach Studenten und zusätzlichen Teammitgliedern, obwohl das jetzt aufgrund der globalen Pandemie noch schwieriger ist.
    4. Sie hatten geplant, im August an einer Konferenz teilzunehmen, die inzwischen abgesagt wurde und nicht virtuell stattfindet. Sie suchen nach Online-Möglichkeiten, um das Projekt bekannt zu machen.
    5. Ihr neues Teammitglied ist immer noch an dem Projekt beteiligt (aber nicht am heutigen Aufruf). Sie haben ein kurzes Projekt-Update für uns erstellt, prüfen es aber, um zu sehen, ob es angesichts der veränderten Situation an ihrer Universität und in Großbritannien aufgrund von COVID-19 geändert werden muss.

    Aktueller Status der Arbeitseinheiten:

    In Bearbeitung: 45 Batches (4.500 Arbeitseinheiten)
    Abgeschlossen: 23.164 Batches - 97 Batches in den letzten 30 Tagen - durchschnittlich 3,2 Batches pro Tag


    Mapping Cancer Markers - Originaltext - Diskussion

    Wir haben gerade unser monatliches Gespräch mit den Forschern abgeschlossen.

    1. Der Großteil ihrer Arbeit wird zu Hause erledigt, da ihre Labors auf dem Campus zumindest bis Anfang Mai geschlossen sind. Solange ihre Server in Betrieb bleiben, werden sie weiterhin Arbeitseinheiten erstellen, senden und empfangen.
    2. Unser derzeitiger Arbeitsvorrat beträgt etwa 16 Tage.
    3. Die Forscher schlagen vor, einige kleinere Code-Änderungen an den Arbeitseinheiten vorzunehmen, die ihnen bei der Beantwortung spezifischer Forschungsfragen helfen werden. Diese Änderungen werden weder frühere noch aktuelle Arbeitseinheiten ungültig machen. Weitere Informationen dazu werden wir bei der nächsten monatlichen Aktualisierung erhalten.
    4. Die Konferenzen, deren Teilnahme für dieses Frühjahr und den Sommer geplant war, werden meist um sechs Monate oder länger verschoben, da die Planer auf die Sicherheit großer Versammlungen und Reisen achten.

    Aktueller Status der Arbeitseinheiten:

    Zum Download verfügbar: 706 Batches
    In Bearbeitung: 1.290 Batches (11.392.542 Arbeitseinheiten)
    Abgeschlossen: 60.666 Batches - 1.300 in den letzten 30 Tagen - durchschnittlich 43,3 pro Tag
    Geschätzter Auftragsbestand: 16,3 Tage


    Microbiome Immunity Project - Originaltext - Diskussion

    Das haben wir heute während unseres Anrufs mit dem Forschungsteam besprochen:

    1. Das Mitglied des Forschungsteams, Bryn Taylor, wird in Kürze ihre Dissertation verteidigen (aus der Ferne statt persönlich, da in ihrem Bundesstaat eine Ausgangsbeschränkung besteht). Wir wünschen ihr viel Glück!
    2. Es gibt derzeit einen Auftragsbestand von über 30 Tagen für das Projekt auf unseren Servern.
    3. Sie führen eingehendere Analysen der Daten durch, die sie von den WCG erhalten, und erwähnten, dass die Qualität der erhaltenen Daten im Vergleich zu anderen Methoden gut ist. Dies ist eine weitere Bestätigung, dass die Ergebnisse, die sie von uns erhalten, gültig sind.
    4. Sie hatten geplant, sich im vergangenen Monat persönlich in New York City zu treffen, um ein MIP-Forschertreffen abzuhalten. Da dies nicht möglich war, organisierten sie stattdessen eine dreitägige Videokonferenz zwischen den Forschern in Neuseeland, Polen und den USA. Sie werden uns so bald wie möglich ein kurzes Update darüber schicken.
    5. Sie warten auf die Rückmeldung zu einem Forschungsbericht, der zur Prüfung für eine Veröffentlichung eingereicht wurde, und sind fast fertig, noch einen weiteren einzureichen.

    Aktueller Status der Arbeitseinheiten:

    Zum Herunterladen verfügbar: 7.645 Batches
    In Bearbeitung: 7.053 Batches (21.346.582 Arbeitseinheiten)
    Abgeschlossen: 282.723 Batches - 6.723 Batches in den letzten 30 Tagen - durchschnittlich 224 Batches pro Tag
    Geschätzter Auftragsbestand: 34 Tage


    Smash Childhood Cancer - Originaltext - Diskussion

    Wir haben gerade unser monatliches Gespräch mit dem Forschungsteam beendet.

    1. Wir besprachen alle weiteren Ziele, die das Team für das World Community Grid haben könnte, nachdem die Arbeiten aus dem aktuellen Auftragsbestand abgeschlossen sind. Sie haben zwar ein weiteres Ziel im Auge, aber die Proteinstruktur dafür wird vom Forschungsteam noch gelöst. Wenn zusätzliche Arbeit nicht bald verfügbar sein wird und es eine Arbeitspause gibt, werden wir in einem separaten Thread eine Ankündigung machen.
    2. Sie hatten gerade mit der Erprobung einiger vielversprechender Verbindungen begonnen, als das Labor, das die Tests durchführte, aufgrund von Ausgangsbeschränkungen in den USA geschlossen wurde. Sie werden die Tests wieder aufnehmen, sobald sie ihre Labors wieder öffnen dürfen.
    3. Sie reichten letzten Monat einen Antrag für einen finanziellen Zuschuss ein, der leider nicht bewilligt wurde. Die Forscher glauben, dass dies darauf zurückzuführen ist, dass ein beträchtlicher Teil der Mittel auf die COVID-19-Forschung verlagert wurde. Sie sind weiterhin auf der Suche nach Mitteln, um den Kauf von Präparaten zu unterstützen.
    4. Wie von anderen Forschern berichtet, wurden die Treffen und Konferenzen, an denen sie später in diesem Jahr teilnehmen und Vorträge halten wollten, verschoben oder abgesagt.
    5. Sie sind auf der Suche nach einem zusätzlichen Teammitglied. Da die meisten Universitäten in der ganzen Welt weitgehend geschlossen haben, könnte dies ein langer Prozess werden.

    Aktueller Status der Arbeitseinheiten:

    Zum Herunterladen verfügbar: 84 Batches
    In Bearbeitung: 102 Batches (11.392.542 Arbeitseinheiten)
    Abgeschlossen: 3.681 Batches insgesamt - 59 Batches in den letzten 30 Tagen - durchschnittlich 2 pro Tag
    Geschätzter Auftragsbestand: 42 Tage
    von Veröffentlicht: 16.04.2020 16:35
    1. Kategorien:
    2. Projekte

    Erwartungsgemäß hat sich die Anzahl der Primzahlfunde im März mit 178 Treffern wieder ungefähr auf das Januar-Niveau zurückbewegt. Mitglieder von SETI.Germany waren in fünfzehn Fällen als Erstfinder und in vier Fällen als Doublechecker erfolgreich.

    Vier Top-100-Funde vor und während der Year of the Rat Challenge wurden bereits über die Projektnachrichten vermeldet:

    • 35816*5^2945294-1, 2058677 Dezimalstellen, gefunden von Pavel Atnashev (Team: Ural Federal University) aus Russland am 05.03.2020 um 15:40:22 MEZ, bestätigt von JH30895 (Antarctic Crunchers) aus den Vereinigten Staaten am 06.03.2020 um 22:41:36 MEZ
    • 146264*5^2953282-1, 2064261 Dezimalstellen, gefunden von DeleteNull (SETI.Germany) aus Deutschland am 09.03.2020 um 22:32:46 MEZ
    • 238694*5^2979422-1, 2082532 Dezimalstellen, gefunden von Khali (Crunching@EVGA) aus den Vereinigten Staaten am 12.03.2020 um 20:16:51 MEZ, bestätigt von SAKAGE@AMD@jisaku (Team 2ch) aus Japan am 13.03.2020 um 22:25:52 MEZ
    • 207494*5^3017502-1, 2109149 Dezimalstellen, gefunden von EXT64 ([H]ard|OCP) aus den Vereinigten Staaten am 16.03.2020 um 09:21:46 MEZ


    Acht weitere Funde hatten mehr als eine Million Dezimalstellen, woran Mitglieder von SETI.Germany einmal als Erstfinder und einmal als Doublechecker beteiligt waren:

    • Die 1002845-stellige Proth-Primzahl 6959*2^3331365+1 wurde am 02.03.2020 um 16:52:04 MEZ von DeleteNull (SETI.Germany) aus Deutschland mit einem Intel Core i7-7800X gefunden, wobei für den Primalitätstest mit LLR auf 3 Threads etwa 14 Minuten benötigt wurden. Die Bestätigung erfolgte am 02.03.2020 um 17:06:08 MEZ durch Robish (Storm) aus Irland mit einem Intel Core i5-9400, wobei für den Primalitätstest mit LLR auf 3 Threads etwa 17 Minuten benötigt wurden.

    • Die 1002853-stellige Proth-Primzahl 2939*2^3331393+1 wurde am 03.03.2020 um 04:59:24 MEZ von 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i9-7940X gefunden, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 24 Minuten benötigt wurden. Die Bestätigung erfolgte am 03.03.2020 um 05:06:28 MEZ durch jnamath (SETI.Germany) aus Deutschland mit einem Intel Core i5-6600T, wobei für den Primalitätstest mit LLR auf 3 Threads etwa 27 Minuten benötigt wurden.

    • Die 1029932-stellige verallgemeinerte Fermat-Primzahl 72070092^131072+1 wurde am 06.03.2020 um 04:19:50 MEZ von Scott Brown (Aggie The Pew) aus den Vereinigten Staaten mit einer NVIDIA Tesla P100-PCIE-16GB in Verbund mit einem Intel Xeon gefunden, wobei für den PRP-Test mit Genefer 5 Minuten 24 Sekunden benötigt wurden. Die Bestätigung erfolgte am 06.03.2020 um 04:23:55 MEZ durch Mektacular (Crunching@EVGA) aus den Vereinigten Staaten mit einer NVIDIA GeForce RTX 2070 SUPER in Verbund mit einem Intel Core i7-9800X, wobei für den PRP-Test mit Genefer 4 Minuten 8 Sekunden benötigt wurden.

    • Die 1002963-stellige Proth-Primzahl 5257*2^3331758+1 wurde am 12.03.2020 um 09:06:40 MEZ von Sean (Ultimate Chaos) aus den Vereinigten Staaten mit einem Intel Xeon Gold 6140 gefunden, wobei für den Primalitätstest mit LLR auf 3 Threads etwa 24 Minuten benötigt wurden. Die Bestätigung erfolgte am 12.03.2020 um 10:16:57 MEZ durch Charles Jackson aus den Vereinigten Staaten mit einer Intel-CPU, wobei für den Primalitätstest mit LLR etwa 1 Stunde 29 Minuten benötigt wurden.

    • Die 1030351-stellige verallgemeinerte Fermat-Primzahl 72602370^131072+1 wurde am 17.03.2020 um 18:50:06 MEZ von Scott Brown (Aggie The Pew) aus den Vereinigten Staaten mit einer NVIDIA Quadro P1000 in Verbund mit einem Intel Core i7-9700 gefunden, wobei für den PRP-Test mit Genefer 23 Minuten 2 Sekunden benötigt wurden. Die Bestätigung erfolgte am 17.03.2020 um 22:20:31 MEZ durch artemis8 (SETI.USA) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1660 SUPER in Verbund mit einem AMD Ryzen 7 2700X, wobei für den PRP-Test mit Genefer 6 Minuten 20 Sekunden benötigt wurden.

    • Die 1003062-stellige Proth-Primzahl 6459*2^3332086+1 wurde am 22.03.2020 um 20:21:01 MEZ von Michael Becker aus Deutschland mit einem Intel Core i7-4790K gefunden, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 25 Minuten benötigt wurden. Die Bestätigung erfolgte am 22.03.2020 um 20:27:45 MEZ durch Johny (Czech National Team) aus Tschechien mit einem AMD Ryzen 7 1700, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 35 Minuten benötigt wurden.

    • Die 1030740-stellige verallgemeinerte Fermat-Primzahl 73099962^131072+1 wurde am 31.03.2020 um 02:19:09 MEZ von Eudy Silva (Aggie The Pew) aus Brasilien mit einer NVIDIA GeForce RTX 2060 in Verbund mit einem Intel Core i7-6700 gefunden, wobei für den PRP-Test mit Genefer 4 Minuten 39 Sekunden benötigt wurden. Die Bestätigung erfolgte am 31.03.2020 um 02:30:10 MEZ durch Charles Jackson aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 980 Ti in Verbund mit einem Intel Core i7-5820K, wobei für den PRP-Test mit Genefer 17 Minuten 9 Sekunden benötigt wurden.

    • Die 1030765-stellige verallgemeinerte Fermat-Primzahl 73132228^131072+1 wurde am 31.03.2020 um 23:26:33 MEZ von Penguin (Antarctic Crunchers) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1650 in Verbund mit einem Intel Core i5-8400 gefunden, wobei für den PRP-Test mit Genefer 10 Minuten 40 Sekunden benötigt wurden. Die Bestätigung erfolgte am 01.04.2020 um 01:10:02 MEZ durch Andreas aus Deutschland mit einer NVIDIA GeForce GTX 960 in Verbund mit einem Intel Core i7-2600, wobei für den PRP-Test mit Genefer 18 Minuten 45 Sekunden benötigt wurden.


    Es folgt die Verteilung der übrigen 166 Primzahlen auf die Subprojekte:

    • Proth Prime Search (PPS): 5 Funde im Bereich 2854661 ≤ n ≤ 2857891 (859342-860314 Dezimalstellen)
    • Proth Prime Search Extended (PPSE): 27 Funde im Bereich 1575376 ≤ n ≤ 1577862 (474239-474987 Dezimalstellen)
    • Sophie Germain Prime Search (SGS): 59 Funde im Bereich 4927200934077 ≤ k ≤ 5014716301215 (388342 Dezimalstellen), darunter drei Erstfunde und ein Doublecheck von JayPi, je ein Erstfund von No_Name, DeleteNull und Freezing sowie je ein Doublecheck von [SG]KidDoesCrunch und ralf
    • Generalized Fermat Prime Search (n=15): 45 Funde im Bereich 160213180 ≤ b ≤ 165924560 (268852-269351 Dezimalstellen), darunter fünf Erstfunde von [SG]KidDoesCrunch und ein Erstfund von fnord
    • Generalized Fermat Prime Search (n=16): 26 Funde im Bereich 89420980 ≤ b ≤ 91217580 (521106-521672 Dezimalstellen), darunter ein Erstfund von DeleteNull
    • Generalized Fermat Prime Search (n=17 Low): 4 Funde im Bereich 18501600 ≤ b ≤ 18813106 (952528-953479 Dezimalstellen)


    von Veröffentlicht: 09.04.2020 17:15
    1. Kategorien:
    2. Projekte

    Vor gut zwei Jahren konnte das Subprojekt Theory Simulation den Meilenstein von 4 Billionen simulierten Teilchenkollisionen feiern. Jetzt ist die nächste Billion fast geschafft:

    Theory Simulation erreicht 5 BILLIONEN Ereignisse!!
    Das LHC@home-Subprojekt Theory Simulation wird morgen den Meilenstein von 5 BILLIONEN simulierten Ereignissen erreichen. Dieses Projekt nahm unter seinem früheren Namen "Test4Theory" im Jahr 2011 seinen Betrieb auf und war das erste BOINC-Projekt überhaupt, das auf Virtuelle Maschinen setzte (basierend auf dem CernVM-System des CERN.

    In den kommenden Wochen werden wir einige weitere Details über all dies auf den LHC@home- und CERN-Webseiten veröffentlichen. Natürlich hat das Coronavirus unsere Terminkalender durcheinandergewirbelt, aber wir konnten es einfach nicht verpassen, einen Meilenstein wie diesen bekanntzugeben und zu feiern.

    Das gesamte LHC@home-Team sendet größten Dank an all unsere Freiwilligen, die diese Leistung ermöglichten!!
    09.04.2020, 8:02:51 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5387
    Theory application reaches 5 TRILLION events !!
    LHC@home's Theory application will tomorrow pass the milestone of 5 TRILLION simulated events. This project, under its earlier name "Test4Theory", began production in 2011 and was the first BOINC project anywhere to use Virtual Machine technology (based on CERN's CernVM system).

    Over the coming weeks we plan to publish some more details about all this on the LHC@home and CERN websites. Our timetables have of course been affected by the Coronavirus disruptions, but we absolutely could not miss announcing and celebrating such a milestone as this.

    The whole LHC@home team sends our sincerest thanks to all our volunteers for enabling this achievement !!
    9 Apr 2020, 7:02:51 UTC
    von Veröffentlicht: 07.04.2020 06:50
    1. Kategorien:
    2. Projekte

    Geplante Wartung am Mittwoch, 8. April 2020

    Zusammenfassung

    Wir aktualisieren das Betriebssystem auf unseren Servern am Mittwoch, den 8. April, ab 15:00 MESZ.
    ---
    Wir werden am Mittwoch, den 8. April, ab 15:00 MESZ eine wichtige Aktualisierung des Betriebssystems auf unseren Servern installieren. Wir gehen davon aus, dass diese Arbeit ungefähr vier Stunden dauern wird.

    Während dieser Zeit können Teilnehmer zeitweise keine neuen Arbeiten hochladen oder herunterladen und die Website ist nicht zugänglich.

    Die Freiwilligen müssen keine besonderen Maßnahmen ergreifen, da ihre Geräte nach Abschluss der Wartungsarbeiten automatisch erneut versuchen, Verbindung aufzunehmen.

    Wir bedanken uns für Ihre Geduld und Teilnahme.
    06.04.2020

    Zitat Zitat von https://www.worldcommunitygrid.org/about_us/viewNewsArticle.do?articleId=621
    Planned Maintenance on Wednesday, April 8, 2020

    Summary
    We are updating the operating system on our servers on Wednesday, April 8, beginning at 13:00 UTC.
    ---
    We will be applying an important operating system update to our servers on Wednesday, April 8 beginning at 13:00 UTC. We anticipate that the work will take approximately four hours.

    During some of this time, volunteers will not be able to upload or download new work, and the website will not be accessible.

    Volunteers will not need to take any particular action, as your devices will automatically retry their connections after the maintenance work is completed.

    We appreciate your patience and participation.
    6 Apr 2020
    von Veröffentlicht: 05.04.2020 20:35
    1. Kategorien:
    2. Projekte

    Ralph@home benötigt Unterstützung beim Testen der nächsten Anwendungsversion. Da das Hauptprojekt momentan wenig WUs hat, gibt es hier eine weitere Möglichkeit zu helfen.


    Rosetta 4.13 und 4.14

    Die COVID-19-bezogenen Aktualisierungen für die Rosetta-Versionen 4.13 und 4.14 (Linux) enthalten neue Zielenergie- und Faltungsoptionen zur Verbesserung des Interface-Design-Protokolls. Sie ermöglicht die Durchführung von Messungen mit dem ACE2-Bindungshelix-Motiv, das zusammen mit dem Faltungsziel festgelegt wird, sowie eine schnelle Prüfung des Energiezustands. Erfolgreiche Proteinbinder, die dieses Protokoll verwenden, werden bereits im Nasslabor getestet und optimiert, aber dies wird es uns ermöglichen, viel mehr Kandidaten zu entwerfen, um unsere Chancen zu erhöhen, erfolgreiche Proteinbinder mit den vielversprechendsten Eigenschaften zu entwerfen.

    Bitte teilt diese Informationen, um unsere Ralph@home-Tests für diese Anwendung zu unterstützen. Eine breite Vielfalt von verschiedenen Plattformen ist erwünscht. Danke!


    Originaltext:
    Zitat Zitat von https://ralph.bakerlab.org/forum_thread.php?id=839&postid=6672#6672
    The COVID-19 related updates to the 4.13 rosetta and rosetta_for_devices and 4.14 rosetta linux versions include a new target clash energy and fold-tree options to improve the interface design protocol. It will allow sampling with the ACE2 binding helix motif fixed along with the target and a fast target clash energy check. Successful binders using this protocol are already being tested and optimized in the wet lab but this will allow us to design many more candidates to increase our chances of designing successful binders with the most promising binder properties.

    Please spread to word to help our Ralph@home testing efforts for this app. A broad range of platforms is desired. Thanks!
    von Veröffentlicht: 05.04.2020 10:25
    1. Kategorien:
    2. Projekte

    Mehr als acht Monate lagen die letzten beiden Funde bei SR5-LLR zurück, als in der Woche vor der Year of the Rat Challenge endlich der nächste Schritt zum Beweis der Vermutung, dass k=346802 das kleinste k ist, sodass k*5^n-1 niemals prim ist. Drei weitere Schritte gelangen in den folgenden elf Tagen, doch der Reihe nach:

    SR5-Megaprimzahl!
    Am 5. März 2020 um 15:40:22 MEZ hat PrimeGrids Subprojekt Sierpinski/Riesel Base 5 Problem k=35816 durch Finden einer Megaprimzahl eliminiert:

    35816*5^2945294-1

    Die Primzahl hat 2058677 Dezimalstellen, erreicht Chris Caldwells "Datenbank der größten bekannten Primzahlen" auf Platz 73 insgesamt und ist die größte bekannte Primzahl mit Basis 5. 66 ks verbleiben zum Beweis der verallgemeinerten Riesel-Vermutung zur Basis 5.

    Die Entdeckung gelang Pavel Atnashev (Pavel Atnashev) aus Russland mit einem Intel Xeon E5-2660 v2 @ 2,20 GHz mit 8 GB RAM unter Linux. Dieser Rechner brauchte etwa 3 Stunden 56 Minuten für den Primalitätstest mit LLR. Pavel Atnashev ist Mitglied des Teams Ural Federal University.

    Die Primzahl wurde am 6. März 2020 um 22:41:36 MEZ von John Hall (JH30895) aus den Vereinigten Staaten mit einem Intel Xeon W-3245 @ 3,20 GHz mit 385 GB RAM unter macOS bestätigt. Dieser Rechner brauchte etwa 1 Tag 7 Stunden 33 Minuten für den Primalitätstest mit LLR. John Hall ist Mitglied des Teams Antarctic Crunchers.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    11.03.2020 | 02:13:15 MEZ


    Ebenfalls im Vorfeld der Challenge konnte ein Mitglied von SETI.Germany ein k eliminieren:

    SR5-Megaprimzahl!
    Am 9. März 2020 um 22:32:46 MEZ hat PrimeGrids Subprojekt Sierpinski/Riesel Base 5 Problem k=146264 durch Finden einer Megaprimzahl eliminiert:

    146264*5^2953282-1

    Die Primzahl hat 2064261 Dezimalstellen, erreicht Chris Caldwells "Datenbank der größten bekannten Primzahlen" auf Platz 74 insgesamt und ist die größte bekannte Primzahl mit Basis 5. 65 ks verbleiben zum Beweis der verallgemeinerten Riesel-Vermutung zur Basis 5.

    Die Entdeckung gelang Wolfgang Schwieger (DeleteNull) aus Deutschland mit einem Intel Core i5-8600K @ 3,60 GHz mit 8 GB RAM unter Windows 10. Dieser Rechner brauchte etwa 6 Stunden 25 Minuten für den Primalitätstest mit LLR. Wolfgang Schwieger ist Mitglied des Teams SETI.Germany.

    Die Primzahl wurde intern mit einem Intel Core i7-7700K @ 4,20 GHz mit 32 GB RAM unter Linux bestätigt.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    31.03.2020 | 15:40:54 MEZ


    Die beiden weiteren Funde kamen schließlich während der Challenge hinzu:

    Noch eine SR5-Megaprimzahl!
    Am 12. März 2020 um 20:16:51 MEZ hat PrimeGrids Subprojekt Sierpinski/Riesel Base 5 Problem k=238694 durch Finden einer Megaprimzahl eliminiert:

    238694*5^2979422-1

    Die Primzahl hat 2082532 Dezimalstellen, erreicht Chris Caldwells "Datenbank der größten bekannten Primzahlen" auf Platz 76 insgesamt und ist die größte bekannte Primzahl mit Basis 5. 64 ks verbleiben zum Beweis der verallgemeinerten Riesel-Vermutung zur Basis 5.

    Die Entdeckung gelang Chris Howell (Khali) aus den Vereinigten Staaten mit einem Intel Core i9-9900K @ 3,60 GHz mit 32 GB RAM unter Windows 10. Dieser Rechner brauchte etwa 5 Stunden 56 Minuten für den Primalitätstest mit LLR. Chris Howell ist Mitglied des Teams Crunching@EVGA.

    Die Primzahl wurde am 13. März 2020 um 22:25:52 MEZ von Yuki Yoshigoe (SAKAGE@AMD@jisaku) aus Japan mit einem AMD Ryzen Threadripper 3970X mit 128 GB RAM unter Windows 10 bestätigt. Dieser Rechner brauchte etwa 1 Tag 5 Stunden 24 Minuten für den Primalitätstest mit LLR. Yuki Yoshigoe ist Mitglied von Team 2ch.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    31.03.2020 | 15:49:08 MEZ


    Und noch eine SR5-Megaprimzahl!
    Am 16. März 2020 um 09:21:46 MEZ hat PrimeGrids Subprojekt Sierpinski/Riesel Base 5 Problem k=207494 durch Finden einer Megaprimzahl eliminiert:

    207494*5^3017502-1

    Die Primzahl hat 2109149 Dezimalstellen, erreicht Chris Caldwells "Datenbank der größten bekannten Primzahlen" auf Platz 75 insgesamt und ist die größte bekannte Primzahl mit Basis 5. 63 ks verbleiben zum Beweis der verallgemeinerten Riesel-Vermutung zur Basis 5.

    Die Entdeckung gelang Todd Pickering (EXT64) aus den Vereinigten Staaten mit einem AMD EPYC 7601 mit 126 GB RAM unter Linux. Dieser Rechner brauchte etwa 1 Tag 17 Stunden 59 Minuten für den Primalitätstest mit LLR. Todd Pickering ist Mitglied des Teams [H]ard|OCP.

    Die Primzahl wurde intern mit einem Intel Core i7-7700K @ 4,20 GHz mit 32 GB RAM unter Linux bestätigt.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    31.03.2020 | 15:55:09 MEZ


    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=9078
    SR5 Mega Prime!
    On 5 March 2020, 14:40:22 UTC, PrimeGrid’s Sierpinski/Riesel Base 5 Problem project eliminated k=35816 by finding the mega prime:

    35816*5^2945294-1

    The prime is 2,058,677 digits long and enters Chris Caldwell's “The Largest Known Primes Database” ranked 73rd overall and is the largest known base 5 prime. 66 k’s now remain in the Riesel Base 5 problem.

    The discovery was made by Pavel Atnashev (Pavel Atnashev) of Russia using an Intel(R) Xeon(R) E5-2660 v2 CPU @ 2.20GHz with 8GB RAM running Linux. This computer took about 3 hours 56 minutes to complete the primality test using LLR. Pavel Atnashev is a member of the Ural Federal University team.

    The prime was verified on 6 March 2020, 21:41:36 UTC by John Hall (JH30895) of the United States using an Intel(R) Xeon(R) W-3245 CPU @ 3.20GHz with 385GB RAM, running Darwin 19.3.0. This computer took about 1 day, 7 hours 33 minutes to complete the primality test using LLR. John Hall is a member of the Antarctic Crunchers team.

    For more details, please see the official announcement.
    11 Mar 2020 | 1:13:15 UTC
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=9098
    SR5 Mega Prime!
    On 9 March 2020, 21:32:46, PrimeGrid’s Sierpinski/Riesel Base 5 Problem project eliminated k=146264 by finding the mega prime:

    146264*5^2953282-1

    The prime is 2,064,261 digits long and enters Chris Caldwell's “The Largest Known Primes Database” ranked 74th overall and is the largest known base 5 prime. 65 k’s now remain in the Riesel Base 5 problem.

    The discovery was made by Wolfgang Schwieger (DeleteNull) of Germany using an Intel(R) Core(TM) i5-8600K CPU @ 3.60GHz with 8GB RAM, running Microsoft Windows 10 Professional x64 Edition. This computer took about 6 hours, 25 minutes to complete the primality test using LLR. Wolfgang Schwieger is a member of the SETI.Germany team.

    The prime was verified internally using an Intel(R) Core(TM) i7-7700K CPU @ 4.20GHz with 32GB RAM, running Linux Debian.

    For more details, please see the official announcement.
    31 Mar 2020 | 14:40:54 UTC
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=9099
    Another SR5 Mega Prime!
    On 12 March 2020, 19:16:51 UTC, PrimeGrid’s Sierpinski/Riesel Base 5 Problem project eliminated k=238694 by finding the mega prime:

    238694*5^2979422-1

    The prime is 2,082,532 digits long and enters Chris Caldwell's “The Largest Known Primes Database” ranked 76th overall and is the largest known base 5 prime. 64 k’s now remain in the Riesel Base 5 problem.

    The discovery was made by Chris Howell (Khali) of the United States using an Intel(R) Core(TM) i9-9900K CPU @ 3.60GHz with 32GB RAM, running Microsoft Windows 10 Professional x64 Edition. This computer took about 5 hours, 56 minutes to complete the primality test using LLR. Chris Howell is a member of the Crunching@EVGA team.

    The prime was verified on 13 March 2020, 21:25:52 UTC by Yuki Yoshigoe (SAKAGE@AMD@jisaku) of Japan using an AMD Ryzen Threadripper 3970X 32-Core Processor with 128GB RAM, running Microsoft Windows 10 Professional x64 Edition. This computer took about 1 day, 5 hours, 24 minutes to complete the primality test using LLR. Yuki Yoshigoe is a member of the Team 2ch team.

    For more details, please see the official announcement.
    31 Mar 2020 | 14:49:08 UTC
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=9100
    And Another SR5 Mega Prime!
    On 16 March 2020, 08:21:46, PrimeGrid’s Sierpinski/Riesel Base 5 Problem project eliminated k=207494 by finding the mega prime:

    207494*5^3017502-1

    The prime is 2,109,149 digits long and enters Chris Caldwell's “The Largest Known Primes Database” ranked 75th overall and is the largest known base 5 prime. 63 k’s now remain in the Riesel Base 5 problem.

    The discovery was made by Todd Pickering (EXT64) of Germany using an the United States using an AMD EPYC 7601 32-Core Processor with 126GB RAM, running Linux Ubuntu. This computer took about 1 day, 17 hours, 59 minutes to complete the primality test using LLR. Todd Pickering is a member of the [H]ard|OCP team.

    The prime was verified internally using an Intel(R) Core(TM) i7-7700K CPU @ 4.20GHz with 32GB RAM, running Linux Debian.

    For more details, please see the official announcement.
    31 Mar 2020 | 14:55:09 UTC
    von Veröffentlicht: 03.04.2020 06:40
    1. Kategorien:
    2. Projekte

    Über Nacht sind nicht nur zehntausende WUs aufgetaucht, sondern auch ein neuer Beitrag, der die Arbeiten im Kampf gegen COVID-19 beschreibt und hier übersetzt wurde.


    Hilfe im Kampf gegen COVID-19

    Seit dem jüngsten Ausbruch von COVID-19 wurde R@h zur Vorhersage der Struktur von Proteinen verwendet, die für die Krankheit wichtig sind, sowie zur Herstellung neuer, stabiler Mini-Proteine, die als potenzielle Therapeutika und Diagnostika eingesetzt werden können, wie das hier abgebildete Protein, das an einen Teil des COVID-19-Spike-Proteins gebunden ist.

    Um unsere Forschung zu unterstützen, freuen wir uns, ein neues Anwendungs-Update bekannt zu geben, und dank der Hilfe der ARM-Entwicklungsgemeinschaft, einschließlich Rex St. John, Dmitry Moskalchuk, David Tischler, Lloyd Watts und Sahaj Sarup, freuen wir uns, auch die Linux-ARM-Plattform mit aufzunehmen. Mit diesem Update werden wir weiterhin Proteinbinder für COVID-19 und verwandte Ziele unter Verwendung der neuesten Rosetta-Source entwickeln.

    Vielen Dank an die freiwilligen Helfer von R@h für eure anhaltende Unterstützung dieses Projekts. Eure Rechenzeit wird nicht nur für die genaue Modellierung der Strukturen wichtiger Proteine, sondern auch für das Design neuer Proteine verwendet. Schließen wir uns zusammen und kämpfen wir gegen COVID-19!

    Die primäre Art und Weise, wie Proteine miteinander interagieren, ist das Binden aneinander. Wie ihr vielleicht in der Grafikanwendung gesehen habt, gibt es Proteine in allen Formen und Größen. Aus diesem Grund binden die meisten Proteine nicht willkürlich aneinander, sondern nur sehr spezifisch an eine Handvoll anderer Proteine. Zum Beispiel bindet das virale Spike-Protein von COVID-19 an das menschliche ACE2-Protein, wodurch das Virus in die Zelle gelangt.

    Das IPD hat hart daran gearbeitet, die Fähigkeit zur Gestaltung solcher Bindungsinteraktionen zu verbessern. Dieser Prozess beginnt mit der Schaffung eines Satzes von Gitternetzproteinen, die keinen anderen Zweck haben, als sich genau zu einer atomaren Struktur zu falten. Diese Gitter werden dann an ein Zielprotein von Interesse angedockt und ihre Oberflächen so gestaltet, dass sie das Ziel perfekt ergänzen. Abschließend werden die Designs analysiert, gefiltert und im Labor getestet.

    Wir werden nun den Schritt des Oberflächendesigns mit R@h durchführen. Das Andocken und Filtern geht schnell, aber das eigentliche Proteindesign ist langsam. Wir werden die enorme Rechenleistung von R@h nutzen, um jede Aminosäure an jeder Stelle der Oberfläche zu testen. Dann werden wir die besten Kombinationen von Aminosäuren mit Hilfe von Abkühlungs- und Monte-Carlo-Simulationen auswählen. Eine große Anzahl von Simulationen ist der entscheidende Faktor für diesen Vorgang, und deshalb verwenden wir R@h.

    Begleitet uns also in den kommenden Wochen bei der Herstellung von Proteinbindern für COVID-19 und verwandte Proteine. Wir werden immer noch Strukturvorhersagen und das Design von Strukturen durchführen, da diese auch für die Proteinforschung absolut entscheidend sind. Aber haltet Ausschau nach den Anwendungen für das Oberflächendesign, denn jemand könnte die nächste Therapie für COVID-19 entwickeln.

    Und hoffentlich bleibt ihr dabei, wenn die Pandemie vorbei ist. Wir können nur deshalb solche Proteinbinder entwerfen, weil wir seit Jahren hart an diesem Problem arbeiten. Aber es liegt noch ein langer Weg vor uns. Die Weiterentwicklung der Wissenschaft erfordert Zeit und Rechenleistung, deshalb hoffen wir, dass ihr uns auf dieser aufregenden Reise begleiten werdet.


    Originaltext:
    Zitat Zitat von https://boinc.bakerlab.org/rosetta/forum_thread.php?id=13702#93153

    With the recent COVID-19 outbreak, R@h has been used to predict the structure of proteins important to the disease as well as to produce new, stable mini-proteins to be used as potential therapeutics and diagnostics, like the one displayed above which is bound to part of the COVID-19 spike protein.

    To help our research, we are happy to announce a new application update, and thanks to the help from the Arm development community, including Rex St. John, Dmitry Moskalchuk, David Tischler, Lloyd Watts, and Sahaj Sarup, we are excited to also include the Linux-ARM platform. With this update we will continue to make protein binders to COVID-19 and related targets using the latest Rosetta source.

    Thank you R@h volunteers for your continued support to this project. Your CPU hours are used not only to accurately model the structures of important proteins, but to design new ones as well. Let's band together and fight COVID-19!

    The primary way proteins interact with each other is by sticking to one another. As you may have seen from the R@h graphics application, proteins come in all shapes and sizes. For this reason, most proteins do not stick randomly to each other, but rather stick very specifically to a handful of other proteins. For instance, the viral spike protein of COVID-19 sticks to the human ACE2 protein which is how the virus gains entry to the cell.

    The IPD has been working hard at improving the ability to design such binding interactions. This process starts by creating a set of scaffold proteins that do not have a purpose other than to fold precisely to an atomic structure. These scaffolds are then docked onto a target protein of interest and their surfaces designed to perfectly complement the target. Finally, the designs are scored, filtered, and tested for binding in the lab.

    We will now be using R@h to do the surface design step. Docking and filtering are fast, but actually doing protein design is slow. We will be using the massive amounts of compute power available on R@h to sample every amino acid at every position at the interface. We will then pick the best combinations of amino acids using simulated annealing and Monte-Carlo. Sampling is key for this process and this is why we turn to R@h.

    So, join us in the coming weeks as we make binders to COVID-19 and related proteins. We'll still be doing structure prediction and scaffold design as these are absolutely critical to protein science as well. But look out for the interface design cases, because someone might be designing the next COVID-19 cure.

    And hopefully you'll stick around once the pandemic is over. We can only design binders like this because we've been working hard at the problem for years. There's still a long way to go, though. Improving the science takes time and computing, so we hope you'll join us on this exciting ride.
    von Veröffentlicht: 29.03.2020 13:00
    1. Kategorien:
    2. Projekte

    Bevor es in eine längere Pentathlon-Pause geht, macht die PrimeGrid Challenge Series erstmals seit drei Jahren wieder Station beim LLR-Subprojekt mit den kürzesten WUs. Anlass ist der 244. Geburtstag der Namensgeberin:

    Sophie Germain's Birthday Challenge
    Beginn: 01.04.2020, 12:00 UTC = 13:00 MEZ = 14:00 MESZ
    Ende: 04.04.2020, 12:00 UTC = 13:00 MEZ = 14:00 MESZ
    Subprojekt: Sophie Germain Prime Search LLR (SGS)


    Der offizielle Thread zur Challenge im PrimeGrid-Forum ist hier zu finden.

    Es zählen für diese Challenge nur WUs des Subprojekts Sophie Germain Prime Search LLR (SGS), die nach dem 01.04. um 14:00 Uhr heruntergeladen und vor dem 04.04. um 14:00 Uhr zurückgemeldet werden! Das gewünschte Subprojekt kann in den PrimeGrid-Einstellungen festgelegt werden.

    Anwendungen gibt es für Windows und Linux (32- und 64-Bit) sowie macOS (64-Bit). Wer in den letzten Monaten keine WUs von einem PrimeGrid-LLR-Subprojekt berechnet hat, sollte dies vielleicht schon vor der Challenge mit kleineren WUs wie SGS nachholen, um die relativ große Anwendung (~35 MB) bereits auf dem Rechner zu haben.

    Die verwendete LLR-Anwendung belastet die CPU sehr stark und toleriert keinerlei Fehler. Daher bitte nicht zu stark übertakten und auf gute Kühlung achten!

    Die Laufzeiten liegen bei wenigen Minuten auf den schnellsten CPUs, moderne CPUs profitieren von den automatisch verwendeten Befehlssatzerweiterungen wie AVX, FMA3 und AVX-512. Anders als bei LLR-Subprojekten mit längeren WUs erreichen die meisten Rechner den größten Durchsatz mit einer WU pro CPU-Kern (in den Projekteinstellungen sollte Multi-threading: Max # of threads for each task also auf 1 stehen).

    Die Punkte für die Challenge-Statistik sind identisch mit den BOINC-Credits, werden jedoch sofort gutgeschrieben, während die BOINC-Credits erst vergeben werden, wenn das Quorum von 2 übereinstimmenden Ergebnissen erreicht ist.

    Team-Stats bei PrimeGrid
    User-Stats bei PrimeGrid

    Team-Stats bei SETI.Germany
    Detail-Statistik für SETI.Germany
    User-Stats bei SETI.Germany

    Zum Diskussionsthread
    von Veröffentlicht: 27.03.2020 16:35
    1. Kategorien:
    2. Projekte

    Während Schulen, Museen, Büros und Geschäfte geschlossen werden, um die Ausbreitung des neuen Coronavirus zu verlangsamen, sitzen nun Millionen von Menschen zu Hause fest. Glücklicherweise gibt es selbst in diesen schwierigen Zeiten kleine Schritte, die jeder machen kann, um bei der Bekämpfung von COVID-19 zu helfen.

    Eine Möglichkeit ist die Spende für die biomedizinische Forschung - aber dazu muss man nicht unbedingt seine Brieftasche öffnen.

    Rosetta@Home ist ein verteiltes Computerprojekt, das sich auf ein Netzwerk von Computern von Freiwilligen stützt. Ziel des Projekts ist es, mehr über wichtige Biomoleküle zu erfahren, einschließlich der Proteine, aus denen das neue Coronavirus besteht. Auf diese Weise können die Wissenschaftler entdecken, wie man Medikamente und Impfstoffe gegen das Coronavirus entwickeln kann. Rosetta@Home arbeitet auf der seit 2002 bestehenden offenen Infrastruktur für Netzwerk-Computing (Berkeley Open Infrastructure for Network Computing, BOINC). BOINC ist quelloffen und wird hauptsächlich von der National Science Foundation finanziert.

    In den letzten Tagen hat Rosetta@Home eine Welle neuer Freiwilliger erlebt, die großzügig die Nutzung ihrer ungenutzten Desktop-, Laptop- und Smartphone-Prozessoren spenden. Die Zahl der aktiven Benutzer hat sich verdoppelt, und vier der zehn outputstärksten Tage des Projekts sind erst in der letzten Woche entstanden. Diese Unterstützung treibt die Forschung über das neue Coronavirus am UW-Institut für Proteindesign und an anderen Universitäten voran.

    Neue Freiwillige treten in den Dienst des Projekts

    Um die Öffentlichkeit vor dem neuen Coronavirus zu schützen, musste das Phillip and Patricia Frost Museum of Science in Miami vorübergehend geschlossen werden. Das Museum beherbergt ein hochmodernes Planetarium, das von den Dell PowerEdge 7910-Servern des Frost-Planetariums, bestehend aus 168 Prozessoren, betrieben wird. Das Frost-Museum hat gerade kommuniziert, dass es seine freigewordene Rechenkraft großzügig für das Rosetta@Home-Projekt einsetzt.

    "Als eine führende wissenschaftliche Einrichtung wollten wir einen Weg finden, die leistungsstarke Computertechnologie, die wir mit unserer Schließung ungenutzt gelassen hatten, wieder zu nutzen. Jetzt unterstützen wir aktiv bahnbrechende Forschung, die uns helfen wird, einige der größten Herausforderungen der Welt zu lösen, wie z.B. COVID-19. Jetzt müssen wir mehr denn je zusammenarbeiten und Wissenschaft und hochwertige Forschung an der Spitze unseres Denkens halten. Wir ermutigen andere, sich unserem Frost Science BOINC-Team anzuschließen und direkt von zu Hause aus zu helfen, etwas zu verändern", sagte Frank Steslow, Präsident und CEO von Frost Science.

    Modus Create, eine multinationale Beratungsfirma, hat ebenfalls angekündigt, dass sie alle Computer-Ersatzteile an ihrem Hauptsitz in Reston, Virginia, sowohl für Rosetta@Home als auch für Folding@Home, ein ähnliches Projekt, spenden wird. "Der Einfallsreichtum der Menschheit zeigt sich oft am besten in Zeiten der Krise", schreiben sie. Wie viele Freiwillige hat auch Modus ein Team bei BOINC gebildet, das ihre Spenden organisiert. Es wurden über 11.000 solcher Teams gebildet, darunter viele aus Universitäten, Unternehmen und anderen Institutionen.

    Es ist einfach, Rosetta@Home beizutreten

    Der Beitritt zu Rosetta@Home ist einfach. Laden Sie zunächst die BOINC-Anwendung auf ein kompatibles Gerät (Windows, Mac, Linux oder Android) herunter. Wählen Sie dann Rosetta@Home als Ihr bevorzugtes Projekt aus. Das war's schon! Rosetta@Home ist nicht gewinnorientiert, wird von Akademikern betrieben und sammelt keine Ihrer persönlichen Daten. Folgen Sie dem Projekt auf Twitter für Updates: @RosettaAtHome

    Wenn Rosetta@Home auf Ihren Geräten läuft, können Sie selbst im Schlaf einen Beitrag zur Wissenschaft leisten.


    Originaltext:
    Zitat Zitat von https://www.ipd.uw.edu/2020/03/volunteers-rally-to-rosettahome-to-stop-covid-19/
    As schools, museums, offices and stores shutter to slow the spread of the new coronavirus, millions of people are now finding themselves stuck at home. Fortunately, even in these trying times, there are are small steps that anyone can be take to help combat COVID-19.

    One option is to donate to biomedical research — but doing so doesn’t necessarily require opening your wallet.

    Rosetta@Home is a distributed computing project that relies on a network of volunteer computers. The goal of the project is to learn more about important biomolecules, including the proteins that comprise the new coronavirus. In doing so, scientists may discover how to create medicines and vaccines to stop it. Rosetta@Home operates on the Berkeley Open Infrastructure for Network Computing, or BOINC, which has existed since 2002. BOINC is open-source and funded primarily by the National Science Foundation.

    In recent days, Rosetta@Home has seen a surge of new volunteers who are generously donating the use of their idle desktop, laptop and smartphone processors. The number of active users has doubled, and four of the project’s ten best compute days have occurred just in the last week. This giving is powering research on the new coronavirus at the UW Institute for Protein Design and at other universities.

    New volunteers stepping up

    To keep the public safe from the new coronavirus, the Phillip and Patricia Frost Museum of Science in Miami, Floria has had to temporarily close. The museum is home to a state-of-the-art planetarium, powered by the Frost Planetarium’s Dell PowerEdge 7910 servers, consisting of 168 processors. The Frost Museum just announced that it is generously donating its computer downtime to the Rosetta@Home project.

    “As a leading scientific institution, we wanted to find a way to repurpose the powerful computing technology we had idle with our closure. We are now actively supporting groundbreaking research that will help us solve some of the world’s biggest challenges, such as COVID-19. Now more than ever, we need to work together and keep science and high quality research at the forefront of our thinking. We encourage others to join our Frost Science BOINC team and help make a difference, right from their homes” said Frank Steslow, Frost Science President & CEO.

    Modus Create, a multi-national consulting firm, has also announced that it is donating all spare computer parts at its headquarters in Reston, Virginia to both Rosetta@Home and Folding@Home, a similar project. “Humanity’s ingenuity is often best demonstrated at times of crisis,” they write. Like many volunteers, Modus has also created a team on BOINC to organize their giving. Over 11,000 such teams have been formed, including many from universities, business and other institutions.

    It is easy to join Rosetta@Home

    Joining Rosetta@Home is simple. First, download the BOINC app on a compatible device (Windows, Mac, Linux or Android). Then, select Rosetta@Home as your preferred project. That’s it! Rosetta@Home is not for profit, operated by academics and will not collect any of your personal information. Follow the project on Twitter for updates: @RosettaAtHome

    With Rosetta@Home running on your devices, you can contribute to science even as you sleep.
    Seite 2 von 75 Erste 1 2 3 4 12 52 ... Letzte
Single Sign On provided by vBSSO