• Projekte

    von Veröffentlicht: 21.05.2020 16:40
    1. Kategorien:
    2. Projekte

    Etwa ein Jahr nach einem Artikel über die Suche nach Gravitationswellensignalen dreier Supernova-Überreste wurde nun eine weitergehende Analyse unter dem Titel "Search for Continuous Gravitational Waves from the Central Compact Objects in Supernova Remnants Cassiopeia A, Vela Jr. and G347.3-0.5" (engl., Suche nach kontinuierlichen Gravitationswellen der kompakten Zentralobjekte der Supernova-Überreste Cassiopeia A, Vela Jr. und G347.3-0.5) zur Veröffentlichung im Astrophysical Journal angenommen und kann vorab auf arXiv gelesen werden.

    Ergebnisse unserer tiefergehenden Nachuntersuchung zur Veröffentlichung im Astrophysical Journal angenommen: Vielen Dank!
    Ein neuer Artikel über Ergebnisse von Einstein@Home wurde für die Veröffentlichung im Astrophysical Journal angenommen!

    Er beschreibt eine tiefergehende Nachuntersuchung von Ergebnissen der Einstein@Home-Suche nach Gravitationswellen von kompakten Zentralobjekten dreier Supernova-Überreste in O1-LIGO-Daten. Außerdem präsentiert er die erste bisher durchgeführte elektromagnetische Nachuntersuchung eines möglichen kontinuierlichen Gravitationswellensignals.

    Wir danken euch allen sehr herzlich, die ihr diese Arbeit durch Spenden eurer Rechenleistung ermöglicht habt!

    Ihr könnt den Artikel kostenlos auf https://arxiv.org/abs/2005.06544 (engl.) lesen.
    Wenn ihr mehr über unsere Forschung erfahren wollt, schaut euch https://www.youtube.com/watch?v=7xIAHdDipNg (engl. mit deutschen Untertiteln) an.
    20.05.2020 14:29:25 MEZ

    Im Folgenden seien auch ein paar Worte der Erstautorin zum Artikel übersetzt:

    Liebe Freiwillige!

    Eine tiefergehende Nachuntersuchung der 10.000 interessantesten Ergebnisse aus der Einstein@Home-Suche in O1-LIGO-Daten, welche sich mit der Emission der kompakten Zentralobjekte der Supernova-Überreste Vela Jr., Cassiopeia A und G347.3-0.5 beschäftigt, wurde zur Veröffentlichung im Astrophysical Journal angenommen. Ihr könnt den Artikel bereits auf https://arxiv.org/abs/2005.06544 (engl.) lesen.

    Wir haben O2-LIGO-Daten benutzt, um die Ausreißer in den O1-Daten nachzuverfolgen. Interessanterweise blieb ein Signalkandidat, der mit dem kompakten Zentralobjekt des Supernova-Überrests G347.3-0.5 zusammenhängt, nach der ersten O2-Nachuntersuchung übrig, wurde aber nicht eindeutig bestätigt. Um einen möglichen astrophysikalischen Ursprung zu bestimmen, haben wir Archivdaten im Röntgenbereich nach einem gepulsten Signal mit der Rotationsfrequenz des Neutronensterns und ihrer Oberschwingungen durchsucht. Dies stellt die erste bisher durchgeführte ausführliche Nachverfolgung eines möglichen kontinuierlichen Gravitationswellensignals dar. Leider konnten wir kein signifikantes zugehöriges Signal finden, aber die Suche im Röntgenbereich hatte aufgrund des großen zeitlichen Abstands zwischen den Röntgen- und den Gravitationswellenbeobachtungen eine beschränkte Empfindlichkeit.

    Neue Röntgenbeobachtungen gleichzeitig mit dem LIGO-O3-Durchlauf werden eine empfindlichere Suche nach einem elektromagnetischen Gegenstück ermöglichen. Eine gezielte Gravitationswellensuche in O3-Daten basierend auf den von unserer Suche gefundenen Parametern sollte auf einfache Weise die Natur dieses Ausreißers beleuchten können. Untersuchungen des Rauschens an den LIGO-Instrumenten könnten auch eine kohärente Signalverschmutzung offenbaren.

    Wir danken euch allen sehr herzlich, die ihr diese Arbeit durch Spenden eurer Rechenleistung ermöglicht habt!

    Dr. M.A. Papa

    Unabhängige Forschungsgruppenleiterin

    Max-Planck-Institut für Gravitationsphysik

    https://www.aei.mpg.de/searching-for-continuous-waves


    Originaltexte:
    Zitat Zitat von https://einsteinathome.org/content/our-deep-follow-search-results-accepted-publication-astrophysical-journal-thank-you
    Our deep follow-up search results accepted for publication in The Astrophysical Journal: thank you!
    A new paper on Einstein@Home results was accepted for publication in The Astrophysical Journal!

    It describes a deep follow-up of results from the Einstein@Home search on LIGO O1 data for gravitational waves from central compact objects in three supernova remnants. It also presents the first electromagnetic follow-up of a continuous gravitational-wave candidate performed to date.

    Many heart-felt thanks to all of you who made this work possible by donating cycles from your computers!

    Read the paper for free at https://arxiv.org/abs/2005.06544.
    If you want to learn more about our research watch https://www.youtube.com/watch?v=7xIAHdDipNg.
    20 May 2020 13:29:25 UTC
    Zitat Zitat von https://einsteinathome.org/de/content/our-deep-follow-search-results-accepted-publication-astrophysical-journal-thank-you#comment-177923
    Dear volunteers !

    A deep follow-up of the most interesting 10 000 results from the Einstein@Home search on LIGO O1 data targeting emission from the central compact object in the supernova remnants Vela Jr., Cassiopeia A and G347.3-0.5 was accepted for publication in The Astrophysical Journal. You can read the paper already at https://arxiv.org/abs/2005.06544.

    We used O2 LIGO data to follow-up the O1 outliers. Interestingly one candidate survives the first O2 follow-up investigation, associated with the central compact object in SNR G347.3-0.5, but it is not conclusively confirmed. In order to assess a possible astrophysical origin we searched archival X-ray data for a pulsed signal at the rotation frequency of the neutron star and its harmonics. This represents the first extensive electromagnetic follow-up of a continuous gravitational wave candidate performed to date. Unfortunately we could not identify any significant associated signal, but the X-ray search had a limited sensitivity due to the large distance in time between the X-ray and the gravitational-wave observations.

    New X-ray observations contemporaneous with the LIGO O3 run will enable a more sensitive search for an electromagnetic counterpart. A focused gravitational wave search in O3 data based on the parameters provided by our search should be easily able to shed light on the nature of this outlier. Noise investigations on the LIGO instruments could also reveal the presence of a coherent contamination.

    Many heart-felt thanks to all of you who made this work possible by donating cycles from your computers !

    Dr. M.A. Papa

    Independent Research Group Leader

    Max Planck Institut f. Gravitationsphysik

    http://www.aei.mpg.de/continuouswaves/
    von Veröffentlicht: 17.05.2020 23:35
    1. Kategorien:
    2. Projekte

    Originaltext: https://www.worldcommunitygrid.org/r...n1/overview.do

    Problem
    COVID-19 ist eine Krankheit, die durch SARS-CoV-2, ein Virus aus der Familie der Coronaviren, verursacht wird. Diese Viren verursachen Krankheiten, die hauptsächlich das menschliche Atmungssystem und möglicherweise andere wichtige Organe befallen. COVID-19 kann zu schweren Erkrankungen oder sogar zum Tod führen.

    Zum Zeitpunkt des Starts dieses Projekts gibt es keine Behandlung, Heilung oder einen Impfstoff für COVID-19.

    Vorgeschlagene Lösung
    Wissenschaftler beim Scripps Research führen molekulare Modellierungssimulationen durch, um nach möglichen Kandidaten für die Entwicklung von Behandlungen für COVID-19 zu suchen, aber um erfolgreich zu sein, benötigen sie massive Rechenleistung, um Millionen von simulierten Laborexperimenten durchzuführen.

    Deshalb arbeitet Scripps Research mit World Community Grid zusammen, einer sozial ausgerichteten IBM-Initiative, die es jedem, der über einen Computer und eine Internetverbindung verfügt, ermöglicht, die Rechenleistung seines Geräts zu spenden, um Wissenschaftler bei der Untersuchung der weltweit größten Probleme in den Bereichen Gesundheit und Nachhaltigkeit zu unterstützen. Mit dieser gespendeten Rechenleistung wollen die Wissenschaftler vielversprechende chemische Verbindungen für weitere Labortests identifizieren.

    Das Forschungsteam will nicht nur bei der Suche nach Behandlungsmöglichkeiten für COVID-19 helfen, sondern auch ein schnell reagierendes Open-Source-Toolkit erstellen, das allen Wissenschaftlern bei der schnellen Suche nach Behandlungsmöglichkeiten für künftige Pandemien helfen soll. Im Einklang mit der Open-Data-Politik des World Community Grid stehen alle Daten und Werkzeuge, die im Rahmen dieses Projekts entwickelt werden, in der wissenschaftlichen Gemeinschaft frei zur Verfügung.

    Das Hauptziel des Projekts ist die Suche nach potenziellen Behandlungsmöglichkeiten für COVID-19, weshalb die Untersuchung von Proteinen von SARS-CoV-2 (dem Virus, das COVID-19 verursacht) höchste Priorität hat.

    Darüber hinaus wollen die Wissenschaftler nicht nur den aktuellen Notfall bekämpfen, sondern sich auch auf die wahrscheinlich folgenden vorbereiten. Künftige Pandemien könnten aus einer fortschreitenden Anhäufung von Mutationen entstehen, die schließlich zu einer neuen Virusvariante führen können. Dies geschah, als das Virus SARS-CoV-1 zu SARS-CoV-2 mutierte. Das Forschungsteam bezieht also Proteine des SARS-CoV-1-Virus und anderer Viren ein, die im Rahmen von OpenPandemics - COVID-19 untersucht werden sollen, um beurteilen zu können, wie schwierig es wäre, Moleküle zu finden oder zu entwerfen, die in der Lage sind, die unvermeidlichen Mutationen zu überwinden.

    Wie du helfen kannst
    Als freiwilliger Teilnehmer am World Community Grid kannst du ein sicheres Softwareprogramm auf deinen Computer herunterladen. Und wenn dein Computer nicht seine volle Rechenleistung ausschöpft, führt er im Hintergrund automatisch ein simuliertes Experiment durch, mit dessen Hilfe die Wirksamkeit einer bestimmten chemischen Verbindung als mögliche Behandlung von COVID-19 vorhergesagt werden kann. Dann kontaktiert dein Computer den World Community Grid-Server, um ihn wissen zu lassen, dass er die Simulation abgeschlossen hat, die automatisch und sicher an uns zurückgeschickt wird.

    All dies geschieht unauffällig, während du deinen regulären Aktivitäten nachgehen, z.B. eine E-Mail tippen, im Internet surfen oder während dein Computer im Leerlauf ist, aber eingeschaltet bleibt.

    World Community Grid empfängt die Ergebnisse, die von dir zurückgesendet (oft als Arbeitseinheiten oder Forschungsaufgaben bezeichnet), kombiniert diese mit Hunderttausenden von Ergebnissen anderer Freiwilliger aus der ganzen Welt und sendet sie an das Scripps Research Team. Die Forscher beginnen dann mit der schwierigen Arbeit, die Daten zu analysieren. Dieser Prozess geschieht zwar nicht von heute auf morgen, aber er beschleunigt, was sonst viele Jahre dauern würde oder sogar unmöglich sein könnte.

    Badges:
    von Veröffentlicht: 16.05.2020 00:20
    1. Kategorien:
    2. Projekte

    Nach den vier Funden in kurzem Abstand im März begann der fünfte Monat des Jahres gleich mit dem fünften Treffer des Jahres bei SR5-LLR. Dieses Mal wurde ein k auf Sierpinski-Seite eliminiert:

    SR5-Megaprimzahl!
    Am 1. Mai 2020 um 05:01:08 MEZ hat PrimeGrids Subprojekt Sierpinski/Riesel Base 5 Problem k=118568 durch Finden einer Megaprimzahl eliminiert:

    118568*5^3112069+1

    Die Primzahl hat 2 175 248 Dezimalstellen, erreicht Chris Caldwells "Datenbank der größten bekannten Primzahlen" auf Platz 70 insgesamt und ist die größte bekannte Primzahl mit Basis 5. 30 ks verbleiben zum Beweis der verallgemeinerten Sierpinski-Vermutung zur Basis 5.

    Die Entdeckung gelang Honza Cholt (Honza) aus Tschechien mit einem Intel Core i7-9700K @ 3,60 GHz mit 32 GB RAM unter Windows 10. Dieser Rechner brauchte etwa 49 Minuten für den Primalitätstest mit LLR. Honza Cholt ist Mitglied des Czech National Team.

    Die Primzahl wurde am 2. Mai 2020 um 10:00:41 MEZ von Tom Murphy VII (brighterorange) aus den Vereinigten Staaten mit einem AMD Ryzen Threadripper 2990WX mit 128 GB RAM unter Windows bestätigt. Dieser Rechner brauchte etwa 1 Tag 1 Stunde 55 Minuten für den Primalitätstest mit LLR.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    10.05.2020 | 21:10:18 MEZ

    Originaltext:
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=9148
    SR5 Mega Prime!
    On 1 May 2020, 04:01:08 UTC, PrimeGrid’s Sierpinski/Riesel Base 5 Problem project eliminated k=118568 by finding the mega prime:

    118568*5^3112069+1

    The prime is 2,175,248 digits long and enters Chris Caldwell's “The Largest Known Primes Database” ranked 70th overall and is the largest known base 5 prime. 30 k’s now remain in the Sierpinski Base 5 problem.

    The discovery was made by Honza Cholt (Honza) of the Czech Republic using an Intel(R) Core(TM) i7-9700K CPU @ 3.60GHz with 32GB RAM, running Microsoft Windows 10 Professional x64 Edition. This computer took about 49 minutes to complete the primality test using LLR. Honza Cholt is a member of Czech National Team.

    The prime was verified on 2 May 2020, 09:00:41 UTC by Tom Murphy VII (brighterorange) of the United States using an AMD Ryzen Threadripper 2990WX 32-Core Processor with 128GB RAM, running Microsoft Windows 10 Professional x64 Edition. This computer took about 1 day, 1 hour, 55 minutes to complete the primality test using LLR.

    For more details, please see the official announcement.
    10 May 2020 | 20:10:18 UTC
    von Veröffentlicht: 15.05.2020 23:00
    1. Kategorien:
    2. Projekte

    Africa Rainfall Project - Originaltext - Diskussion

    Wir haben gerade unser monatliches Gespräch mit dem Forschungsteam beendet.

    1. Wir besprachen die Lieferung von Arbeitseinheiten. Zum gegenwärtigen Zeitpunkt glauben die WCG-Entwickler, dass wir einen guten Auftragsbestand haben und dass uns die Arbeit in naher Zukunft nicht ausgehen wird. (Angesichts der Tatsache, dass wir jeden Tag eine größere Anzahl neuer Freiwilliger als gewöhnlich bekommen, ist es schwierig, eine Schätzung darüber abzugeben, wie lange dieser Auftragsbestand andauern wird.)
    2. Vor einigen Wochen gab es ein Übertragungsproblem mit einer kleinen Anzahl von Arbeitseinheiten. Das Forschungsteam bestätigte, dass es nun alle betroffenen Arbeitseinheiten hat, so dass das Problem geklärt ist.
    3. Sie haben einen Kurzbericht für eine Konferenz eingereicht, auf der sie im September (virtuell) über das Projekt berichten möchten. Wir werden alle wissen lassen, ob ihre Vorlage angenommen wird. Wie bei den meisten anderen Veranstaltungen dieser Tage (einschließlich virtueller Veranstaltungen) kann es auch bei dieser Konferenz zu einer Verschiebung oder Absage kommen.



    FightAIDS@Home - Phase 2 - Originaltext - Diskussion

    Wir hatten gerade ein kurzes monatliches Gespräch mit den meisten Mitgliedern des Forschungsteams.

    1. Das Phase-2-Team bereitet sich darauf vor, neue Ziele auf WCG zu testen. Sie müssen sich mit dem Phase-1-Team beraten, um die Einzelheiten zu klären. (Das Phase-1-Team ist die gleiche Gruppe bei Scripps Research, die OpenPandemics leitet.)
    2. Es gab eine Diskussion zwischen den WCG und den Forschungsteams darüber, wie lange die derzeitigen Ziele noch laufen werden. Auf der Grundlage der Diskussion gehen wir davon aus, dass beim derzeitigen Tempo etwa 3-5 Wochen Arbeit zur Verfügung stehen. Beachtet, dass dies nur eine Schätzung ist.

    In Bearbeitung: 4.981 Arbeitseinheiten*
    Abgeschlossen: 296.874 Arbeitseinheiten in den letzten 30 Tagen - durchschnittlich 9.895 Arbeitseinheiten pro Tag

    *Dieses Projekt verwendet keine Batches wie einige andere Projekte. Auch aufgrund der Verwendung der AsyncRe-Analysemethode hat dieses Projekt keinen Arbeitspuffer beim World Community Grid wie viele andere.


    Help Stop Tuberculosis - Originaltext - Diskussion

    Wir haben gerade unser monatliches Gespräch mit den Forschern beendet.

    1. Sie erstellen, senden und empfangen weiterhin problemlos Arbeitseinheiten von zu Hause aus.
    2. Wir haben ein kurzes Projekt-Update von ihnen, zu dem wir ein paar Informationen hinzufügen, die wir voraussichtlich nächste Woche veröffentlichen werden.
    3. Ihr neues Teammitglied wird beim HSTB-Projekt bleiben. Angesichts der COVID-19 Situation ist es unwahrscheinlich, dass sie bis auf weiteres noch jemanden einstellen können.

    Aktueller Status der Arbeitseinheiten:

    In Bearbeitung: 41 (4.070 Arbeitseinheiten)
    Abgeschlossen: 23.274 Batches - 107 Batches in den letzten 30 Tagen - durchschnittlich 3,6 Batches pro Tag


    Mapping Cancer Markers - Originaltext - Diskussion

    Wir haben gerade unser monatliches Gespräch mit den Forschern abgeschlossen.

    1. Die Arbeitseinheiten scheinen insgesamt reibungslos zu laufen, einschließlich der meisten Android-Einheiten.
    2. Sie arbeiten weiter an der Konsolidierung der Daten aus den Arbeitseinheiten für Eierstockkrebs.
    3. Sie haben damit begonnen, 33 Studien zu Lungenkrebs-Markern zu untersuchen, um festzustellen, wie die Daten aus diesen Studien im Vergleich zu den Daten stehen, die sie aus der Arbeit am World Community Grid erhalten haben. Diese Analyse befindet sich noch in einem sehr frühen Stadium.
    4. Hinsichtlich der vorgeschlagenen geringfügigen Code-Änderung, die im Bericht vom letzten Monat erwähnt wurde, wird das technische Team von WCG bald (nach dem Start von OpenPandemics) einen Blick auf den Code werfen.
    5. Das Forschungsteam, das nicht direkt mit der Kartierung von Krebsmarkern zu tun hat, setzt einige seiner Werkzeuge ein, um einem internationalen Konsortium von Institutionen zu helfen, das an der Analyse von SARS-CoV-2 arbeitet.

    Aktueller Status der Arbeitseinheiten:

    Zum Herunterladen verfügbar: 862 Batches
    In Bearbeitung: 1.279 Batches (11.182.542 Arbeitseinheiten)
    Abgeschlossen: 62.351 Batches - 1.373 Batches in den letzten 30 Tagen - durchschnittlich 45,8 Batches pro Tag
    Geschätzter Vorrat: 18 Tage


    Microbiome Immunity Project - Originaltext - Diskussion

    Hier ist das, was wir heute während unseres Anrufs mit dem Forschungsteam besprochen haben.

    1. Bryn Taylor verteidigte vor einigen Wochen erfolgreich ihre Doktorarbeit. Herzlichen Glückwunsch, Dr. Taylor!
    2. Sie sind fast fertig mit einem kurzen Projekt-Update, das einen Link zu einem Vorabdruck ihres ersten Forschungsberichts enthalten wird. Wir werden das Update und den Link veröffentlichen, sobald sie fertig sind. Der Forschungsbericht wurde noch nicht zur Veröffentlichung in einer Zeitschrift angenommen.
    3. Sie arbeiten an zwei weiteren Forschungsberichten - derzeit in der Phase der Datenanalyse bei beiden.
    4. Wie bereits im letzten Monat erwähnt, arbeiten sie weiterhin an Modell-Qualitätsbewertungen, die ihnen helfen sollen, die Qualität der Daten zu bestimmen, die sie von uns erhalten. Bis jetzt erhalten sie in 75-80% der Fälle die erwarteten Ergebnisse. Jetzt prüfen sie, wie sie die verbleibenden 20-25% angehen können.

    Aktueller Status der Arbeitseinheiten:

    Zum Herunterladen verfügbar: 5.416 Batches
    In Bearbeitung: 8.436 Batches (17.513.030 Arbeitseinheiten)
    Abgeschlossen: 28.7891 Batches - 5.469 Batches in den letzten 30 Tagen - durchschnittlich 182 Batches pro Tag
    Geschätzter Arbeitspuffer: 29 Tage


    Smash Childhood Cancer - Originaltext - Diskussion

    Wir hatten gerade ein Gespräch mit den meisten Mitgliedern des Forschungsteams.

    1. Sie sprachen sehr kurz über eine der von ihnen gesuchten Wechselwirkungen zwischen Zielmolekülen und potenziellen Behandlungen, insbesondere über eine Wechselwirkung, die darauf hindeuten würde, dass die potenzielle Behandlung die Toxizität auf menschliche Zellen begrenzt hätte.
    2. Sie arbeiten weiter an der Identifizierung potentieller neuer Zielmoleküle für uns und werden bald ein kleineres Forschertreffen abhalten, um eine Entscheidung über ihre Richtung zu treffen.
    3. Einer der Forscher schickt Daten über zwei Verbindungen an mehrere andere Forscher, um ihre Hilfe bei der Analyse zu erhalten.
    4. Sie reichen Anträge für zwei zusätzliche Stipendien ein, um bei der weiteren Forschung zu helfen.

    Aktueller Status der Arbeitseinheiten:

    Die Arbeit von World Community Grid für dieses Projekt ist derzeit unterbrochen, während die Forscher über neue Ziele entscheiden, die wir uns vornehmen müssen. Es gibt derzeit nur eine kleine Anzahl von Arbeitseinheiten bei den Freiwilligen.
    von Veröffentlicht: 14.05.2020 00:45
    1. Kategorien:
    2. Projekte

    Ein neues Video der Wissenschaftler vom Max-Planck-Institut für Gravitationswellenforschung erklärt die Suche nach kontinuierlichen Gravitationswellen:

    Video: Die Suche nach kontinuierlichen Gravitationswellen
    Wir haben ein Video erstellt, in welchem einige Mitglieder unserer Forschungsgruppe beschreibt, wonach wir suchen, wie und warum wir das tun. Es ist auf YouTube verfügbar. Es ist auf Englisch, aber es gibt Untertitel auf Chinesisch, Englisch, Deutsch, Hindi, Italienisch, Malayalam und Persisch.
    13. Mai 2020

    Originaltext:
    Zitat Zitat von https://einsteinathome.org/content/video-searching-continuous-gravitational-waves
    Video: Searching for Continuous Gravitational Waves
    We made a video, where some members of our research group describe what we search for, how and why we do it. It's available on YouTube. It is in English, but subtitles are available in Chinese, English, German, Hindi, Italian, Malayalam, and Persian.
    May 13, 2020
    von Veröffentlicht: 30.04.2020 14:35
    1. Kategorien:
    2. Projekte

    Nachdem primaboinca schon seit einigen Jahren nicht besonders gepflegt wirkte, hat sich nun jemand gefunden, um den Stecker zu ziehen. Noch im Umlauf befindliche WUs können bis Ende des Monats gemeldet werden, neue WUs werden schon jetzt nicht mehr erzeugt:

    Es ist Zeit, auf Wiedersehen und vielen Dank zu sagen!
    Nach 10 erfolgreichen Jahren werden wir das Projekt primaboinca am 31.05.2020 beenden.
    Während dieser Zeit hat primaboinca den Zahlenraum 10^10 < n < 10^17 untersucht.
    Leider wurden keine Gegenbeispiele für die untersuchten Vermutungen (die Agrawal- und die Popovych-Vermutung) gefunden.
    Ab sofort werden keine neuen WUs erzeugt.

    Wir möchten allen danken, die im Dienste der Wissenschaft an diesem Projekt teilgenommen haben.


    Originaltext:
    Zitat Zitat von http://primaboinca.com/
    It's time to say goodbye and thank you!
    After 10 successful years, we will be terminating the primaboinca project on 31.05.2020.
    During this time, primaboinca investigated the number space 10^10 < n < 10^17.
    Unfortunately, no counterexamples for the investigated conjectures (Agrawal's and Popovych's conjecture) were found.
    From now on no further workunits will be created.

    We would like to thank all those who participated in this project in the interest of science.
    von Veröffentlicht: 26.04.2020 09:15
    1. Kategorien:
    2. Projekte

    Die vor einem Monat veröffentlichte neue Anwendung für NVIDIA-Grafikkarten benötigt nun deutlich weniger CPU-Zeit und steht inzwischen auch für Linux zur Verfügung (genau wie für Windows nur als 64-Bit-Version, da es CUDA 10.2 nicht für 32-Bit-Systeme gibt).

    Neue CUDA-10.2-Anwendung herausgegeben
    Wir haben heute die neue Version v102.14 der CUDA-10.2-Anwendung sowohl für Windows als auch für Linux herausgegeben.
    Es wurde ein Fehler behoben, der zu vollen Auslastung eines ganzen CPU-Kerns (bzw. -Threads bei CPUs mit Hyperthreading) führte.

    Radim Vančo (FoxKyong)
    25.04.2020, 14:09:02 MEZ

    Originaltext:
    Zitat Zitat von https://asteroidsathome.net/boinc/forum_thread.php?id=805
    New CUDA102 application was released
    Today we released a new CUDA102 application v102.14 for both Windows & Linux.
    A bug was fixed where application causes 100% utilisation of whole CPU core (thread in hyperthreaded CPUs)

    Radim Vančo (FoxKyong)
    25 Apr 2020, 13:09:02 UTC
    von Veröffentlicht: 26.04.2020 08:55
    1. Kategorien:
    2. Projekte

    Es sind derzeit ruhige Zeiten bei LHC@home, für die Subprojekte SixTrack und CMS Simulation wird sogar keine Arbeit mehr ausgeliefert. Dennoch ist man am CERN nicht untätig und stellt im Kampf gegen COVID-19 auch direkt Rechenleistung für andere Projekte zur Verfügung:

    CERN und COVID-19
    Wie viele Organisationen ist auch das CERN von der COVID-19-Pandemie betroffen. Die Forscher der CERN-Gemeinschaft versuchen auf verschiedenen Wegen zu helfen, wie auf dieser Webseite (engl.) beschrieben.

    Als Teil dieser Bemühungen im Kampf gegen COVID-19 spenden wir auch die Rechenleistung kurzzeitig verfügbarer Server, die stillgelegt werden sollten, für Folding@home und Rosetta@home.

    In Zeiten wie dieser mit wenig Arbeit von LHC@home ermutigen wir euch auch, an anderen BOINC-Projekten wie Rosetta@home teilzunehmen und zum weltweiten Kampf gegen die Pandemie beizutragen.

    Vielen Dank für eure Beteiligung an LHC@home und weiterhin frohes Crunchen!

    Das LHC@home-Team wünscht euch und euren Familien gute Gesundheit.
    24.04.2020, 7:09:07 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5407
    CERN and COVID-19
    Like many organisations, CERN is also affected by the COVID-19 pandemic. Researchers in the CERN community are trying to help out in different ways, as explained on this web page.

    As part of this effort to fight COVID-19, we also contribute computing power to Folding@home and Rosetta@home from temporarily available servers that were about to be decommissioned.

    During periods like this with little work from LHC@home, we also encourage you to participate in other BOINC projects such as Rosetta@home and contribute to the global fight of the pandemic.

    Many thanks for your contributions to LHC@home and continued happy crunching!

    With the best of wishes of good health for your and your families from the LHC@home team.
    24 Apr 2020, 6:09:07 UTC
    von Veröffentlicht: 21.04.2020 06:50
    1. Kategorien:
    2. Projekte

    Der Beta-Test für das neue Projekt OpenPandemics startet ab sofort:

    Originaltext - Diskussion

    Grüße,

    Wir beginnen einen neuen Betatest, der die Version 7.08 für Autodock sein wird. Dies ist das neue Projekt, das hier angekündigt wurde: https://www.worldcommunitygrid.org/f...d_thread,42232

    Die anfängliche Gruppe von Arbeitseinheiten wird eine Größe von 3 Minuten bis 6 Stunden haben. Wir werden von jeder Arbeitseinheit 2 Exemplare verschicken, um die Arbeit des Validators mit den Antworten zu überprüfen. Jede Arbeitseinheit sollte 49 Checkpoints schreiben. Bitte überprüft die Checkpoints.

    Außerdem verstecken wir die Bildschirmschoner-Grafiken nicht, so dass ihr einen Eindruck davon bekommen könnt, wie sie aussehen wird.

    Danke,
    -Uplinger
    ---

    Des Weiteren sind für den morgigen Mittwoch nachmittags Wartungsarbeiten geplant:

    Originaltext - Diskussion

    Geplante Wartung am Mittwoch, 22. April 2020

    Zusammenfassung

    Wir führen eine Datenbank-Wartung durch am Mittwoch, 22. April 2020, ab 15:00 MESZ.
    ---
    Wir führen Wartungsarbeiten an der BOINC-Datenbank durch, um die Leistung und Kapazität zu verbessern. Diese Arbeiten beginnen am Mittwoch, den 22. April 2020 um 15:00 MESZ und dauern etwa fünf Stunden.

    Während der gesamten Dauer der Wartung können Freiwillige keine neue Arbeit erhalten oder abgeschlossene Arbeit melden. Die Freiwilligen können den Status ihrer Ergebnisse nicht überprüfen, der Rest der Website bleibt jedoch verfügbar.

    Freiwillige müssen keine besonderen Maßnahmen ergreifen, da ihre Geräte nach Abschluss der Wartungsarbeiten automatisch erneut versuchen, Verbindung aufzunehmen.

    Wir bedanken uns für Ihre Geduld und Teilnahme.
    20.04.2020
    von Veröffentlicht: 19.04.2020 07:45
    1. Kategorien:
    2. Projekte

    Rosetta@home nimmt künftig nun auch große Proteine mit bis zu 2000 Aminosäuren (hier ein Beispiel mit 1273 Gliedern) ins Visier und veranschlagt dafür bis zu 4 GB RAM.

    Rosetta@home: Anpassungen bezüglich COVID und anderer großer Proteine

    Ich wollte versuchen, allen bewusst zu machen, dass das Projekt einige der größten Protein-WUs vorbereitet, die jemals auf R@h liefen. Diese werden pro Modell viel länger brauchen als kleinere Proteine. Das wird es sehr schwierig machen, die "geschätzte verbleibende Laufzeit" genau darzustellen. Es wird die Wahrscheinlichkeit erhöhen, dass Aufgaben länger laufen als eure WU-Laufzeitpräferenz vorgibt, insbesondere wenn ihr eine Laufzeitpräferenz habt, die weniger als die 8 Stunden Standardlaufzeit beträgt. Um dem Rechnung zu tragen, wird der Watchdog länger ruhen als früher und nur WUs beenden, die mehr als 10 CPU-Stunden länger als die Laufzeitpräferenz gelaufen sind.

    Diese lang laufenden Modelle werden zu einem hohen Grad an Laufzeitschwankungen zwischen den einzelnen Aufgaben führen. Es kann vorkommen, dass eine Aufgabe fast doppelt so viel Punkte erhält wie eine andere. Das liegt daran, dass sie zwei Modelle ausgeführt hat, anstatt eines. Die Gutschrift sollte im Allgemeinen proportional zur Menge der in die Aufgabe investierten CPU-Zeit sein.

    Diese hohe Variation in der Laufzeit wird eine Herausforderung für den BOINC-Manager bei der Entscheidung darstellen, wie viel Arbeit er anfordern sollte. Ihr könnt dem BOINC-Manager helfen, zu viel Arbeit zu vermeiden, wenn ihr euren Arbeitspuffer auf unter einen Tag begrenzt.

    Außerdem haben einige von euch kürzlich Arbeitseinheiten gemeldet, die vor ihrer Laufzeitpräferenz abgeschlossen wurden. Dies wird auch bei diesen lang laufenden Modellen häufiger vorkommen. Wenn ihr z.B. die standardmäßige Laufzeitpräferenz von 8 Stunden habt und das erste Modell 5 Stunden für die Fertigstellung benötigt, dann wird es nach 5 Stunden aufhören und zurück gemeldet, weil ein zweites Modell die Präferenz überschreiten würde. Das Projektteam zieht es vor, dass ihr die Laufzeitpräferenz nicht ändert, was derzeit zu 8 Stunden Laufzeit führt. Wenn diese hohen Laufzeitschwankungen euch jedoch Probleme bereiten, möchte ich darauf hinweisen, dass die Einstellung einer längeren Laufzeitpräferenz im Allgemeinen zu konsistenteren Bearbeitungszeiten führt. Beachtet einfach, dass Änderungen der Laufzeitpräferenz sowohl auf bestehende heruntergeladenen Arbeitseinheiten als auch auf neue Arbeitsanforderungen angewendet werden. Daher schlage ich immer vor, Änderungen nur dann vorzunehmen, wenn ihr einen kleinen Arbeitspuffer habt, und die Laufzeitpräferenz nur um kleine Schritte auf einmal zu ändern, damit der BOINC-Manager Zeit hat, die WUs mit den neuen Laufzeiten fertiggestellt zu sehen. Dies hilft ihm dabei, die Menge an Arbeit anzufordern, die euren Präferenzen entspricht.

    Die Arbeitseinheiten, auf denen sehr kurze Modelle liefen und die enden, wenn sie 1.000 Modelle (vor ihrer Laufzeitpräferenz) oder andere sehr runde Zahlen erreicht haben, wurden angepasst, um eine größere maximale Anzahl von Modellen zu ermöglichen. Dies wird helfen, eure vorgegebene Laufzeitpräferenz einzuhalten und die zusätzliche Zeit zu nutzen, um mehr Modelle zu berechnen. Dies wird dazu beitragen, dass die Laufzeiten dieser Art von Arbeitseinheiten konsistenter sind.


    Originaltext:
    Zitat Zitat von https://boinc.bakerlab.org/rosetta/forum_thread.php?id=13826#94811
    I wanted to try to help everyone be aware that the project is preparing some of the largest protein WUs even run on R@h. These will take much longer to run per model than smaller proteins. This is going to make "estimated runtime remaining" very difficult to show accurately. It will increase the likelihood of tasks running longer than your WU runtime preference, especially if you have a runtime preference that is less than the 8 hours default. To accommodate, the watchdog will be napping longer that he used to. Only ending WUs that have run more than 10 CPU hours longer than the runtime preference.

    These long-running models are going to result in a high degree of variation in runtime between tasks. You might see one task granted nearly twice as much credit as another. That because it ran two models rather than one. Credit should generally be proportional to the amount of CPU time invested in the task.

    This high variation in runtime is going to present a challenge for the BOINC Manager in deciding how much work it should be requesting. You can help the BOINC Manager avoid pulling down too much work if you adjust your preferences for how much work to store to be under a day.

    Also, several of you have recently reported work units that have completed before their runtime preference. This is going to become more common with these long-running models as well. As an example if you have the default 8 hour runtime preference and the first model takes 5 hours to complete, then 5 hours is where it will stop and report back because a second model would exceed the preference. The Project Team prefers you leave the runtime preference unset, which presently results in 8 hour runtimes. But if these high variations in runtimes are presenting problems for you, I should point out that setting a longer runtime preference will generally result in more consistent completion times. Just beware that runtime preference changes are applied to your existing downloaded work units as well as new work requests. So I always suggest making changes only when you have settings for a small work cache, and to only change the runtime preference a couple of notches at a time, so the BOINC Manager has time to see WUs complete with the new runtimes. This helps it request the amount of work that matches your preferences.

    The work units that were running very short models and ending when they reached 1,000 models (before their runtime preference), or other very round numbers, have been adjusted to allow a larger maximum number of models. This will help them fill out their runtime preference, using the additional time to compute more models. This will help runtimes of this type of work unit to be more consistent.
    Seite 2 von 76 Erste 1 2 3 4 12 52 ... Letzte
Single Sign On provided by vBSSO