• Projekte

    von Veröffentlicht: 25.06.2019 19:45
    1. Kategorien:
    2. Projekte

    Die Anwendung für die nach Fertigstellung der Suche nach orthogonalen diagonalen lateinischen Quadraten neunter Ordnung begonnene Suche nach solchen Quadraten zehnter Ordnung enthält einen Fehler, weshalb derzeit keine neuen WUs verschickt werden.

    R10-Suche zeitweise gestoppt!
    Liebe Teilnehmer!

    Wir haben die Verteilung von R10-RakeSearch-WUs gestoppt, da Daniel auf einen fehlerhaften Abschnitt im Quellcode der neuen Anwendung hingewiesen hat. Wir untersuchen das Problem derzeit und werden danach (vermutlich) eine neue Anwendung erstellen.
    25.06.2019, 13:53:05 MEZ

    Originaltext:
    Zitat Zitat von https://rake.boincfast.ru/rakesearch/forum_thread.php?id=186
    R10 search temporary stopped!
    Dear participants!

    We stoped the sending of tasks for R10 RakeSearch due signal from Daniel about incorrect fragment of code of new application. Now we investigate the problem and after this - (presumably) will build a new application.
    25 Jun 2019, 12:53:05 UTC
    von Veröffentlicht: 25.06.2019 19:40
    1. Kategorien:
    2. Projekte

    Wegen einer anstehenden Aktualisierung der Serversoftware werden derzeit keine neuen WUs verteilt.

    Server-Aktualisierung
    In den nächsten Tagen werde ich keine weiteren Aufgaben erzeugen, da ich eine Aktualisierung der Serversoftware vorbereite.
    Die Software wird einige Neustarts erfordern und ist für später in dieser Woche geplant - ich werde ich informieren, wann genau das geschehen wird.
    24.06.2019, 21:39:25 MEZ

    Originaltext:
    Zitat Zitat von https://universeathome.pl/universe/forum_thread.php?id=425
    Server upgrade
    For next few days I will not generate more tasks as I'm preparing to server software update.
    The software will require few restarts and is planned later in this week - I will inform you when it happens exactly.
    24 Jun 2019, 20:39:25 UTC
    von Veröffentlicht: 25.06.2019 19:30
    1. Kategorien:
    2. Projekte

    Derzeit werden einige extrem kurze WUs für die frisch begonnene Basis R448 verteilt, weitere ähnlich kurze WUs für S448 und S575 befinden sich in Vorbereitung. Subprojekte mit längeren WUs laufen parallel weiter, um den Server etwas zu entlasten.

    Vorbereitung neuer Basen
    Wie einige von euch mitbekommen haben, sind die Laufzeiten beim Subprojekt Riesel Base - short sehr kurz. Diese Anwendung hat eine höhere Priorität, um genug WUs für alle zu verteilen. Ich bereite immer mehr neue, noch nicht begonnene Basen im Bereich 1 < n < 2500 vor, welche Lokal mit PFGW unter Win64 und einem neuen Skript laufen. Der Bereich 2500 < n < 10000 wird ebenfalls auf dem Server durchgesiebt werden. Es dauert auf einem einzelnen Kern zu lange (etwa 3-4 Monate), sodass ich das unter BOINC laufen lasse. Um die Serverlast zu verringern, laufen alle anderen Basen gleichzeitig.
    24.06.2019, 19:05:14 MEZ

    Originaltext:
    Zitat Zitat von https://srbase.my-firewall.org/sr5/forum_thread.php?id=1210
    preparing new bases
    As some of you noticed there is a very short runtime on the Riesel Base -short app. This app has a higher priority to spread out enough work for all. Iam preparing more and more new unstarted bases from 1-2.5k range which are running locally with Win64PFGW and the new base script. The range from 2.5k-10k will also be sieved on the server. Its taking too long to run it on a single core (around 3-4 month) so I let it run on BOINC. To reduce the server load all other bases are running at the same time.
    24 Jun 2019, 18:05:14 UTC
    von Veröffentlicht: 21.06.2019 16:55
    1. Kategorien:
    2. Projekte

    Mit 142 Primzahlen war der Mai der bisher zweitbeste Monat dieses Jahres, wobei sich vor allem die kurzen GFN-15-WUs offensichtlich großer Beliebtheit erfreuten und für zahlreiche Funde sorgten. Mitglieder von SETI.Germany waren insgesamt fünfmal als Erstfinder und neunmal als Doublechecker erfolgreich.

    Es sind fünf Megaprimzahlen zu vermelden:

    • Die 1092002-stellige Proth-Primzahl 1175*2^3627541+1 wurde am 03.05.2019 um 18:00:08 MEZ von Kai Ylijoki aus Kanada mit einem Intel Xeon E5-1680 v2 gefunden, wobei für den Primalitätstest mit LLR etwa 3 Stunden 16 Minuten benötigt wurden. Die Bestätigung erfolgte am 06.05.2019 um 04:15:11 MEZ durch PixelSmasher8 (Team: SEACOAST -- SouthEAst COalition of Alien Signal Trackers) aus den Vereinigten Staaten mit einem Intel Core i7-8700K, wobei für den Primalitätstest mit LLR etwa 1 Stunden 32 Minuten benötigt wurden.

    • Die 1092502-stellige Proth-Primzahl 1121*2^3629201+1 wurde am 10.05.2019 um 08:12:05 MEZ von Jordan Romaidis (San Francisco) aus den Vereinigten Staaten mit einem Intel Core i7-6920HQ gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunden 5 Minuten benötigt wurden. Die Bestätigung erfolgte am 10.05.2019 um 09:04:25 MEZ durch Spear (Storm) aus Irland mit einem Intel Core i9-7900X, wobei für den Primalitätstest mit LLR etwa 2 Stunden 39 Minuten benötigt wurden.

    • Die 1019624-stellige verallgemeinerte Fermat-Primzahl 60133106^131072+1 wurde am 17.05.2019 um 14:22:54 MEZ von darkclown (Aggie The Pew) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1660 Ti in Verbund mit einem Intel Core i5-9600K gefunden, wobei für den PRP-Test mit Genefer 7 Minuten 57 Sekunden benötigt wurden. Die Bestätigung erfolgte am 17.05.2019 um 18:32:37 MEZ durch rolfo aus Deutschland mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-4790K, wobei für den PRP-Test mit Genefer 8 Minuten 26 Sekunden benötigt wurden.

    • Die 1093185-stellige Proth-Primzahl 753*2^3631472+1 wurde am 21.05.2019 um 21:14:11 MEZ von 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i7-7820X gefunden, wobei für den Primalitätstest mit LLR etwa 32 Minuten benötigt wurden. Die Bestätigung erfolgte am 23.05.2019 um 11:04:58 MEZ durch sentient_life (AMD Users) aus den Vereinigten Staaten mit einem AMD Ryzen 7 1700, wobei für den Primalitätstest mit LLR auf 8 Threads etwa 37 Minuten benötigt wurden.

    • Die 1019929-stellige verallgemeinerte Fermat-Primzahl 60455792^131072+1 wurde am 31.05.2019 um 02:03:31 MEZ von k4m1k4z3 (Overclock.net) aus den Vereinigten Staaten mit einer NVIDIA GeForce RTX 2080 Ti in Verbund mit einem AMD Ryzen 5 2600 gefunden, wobei für den PRP-Test mit Genefer 2 Minuten 58 Sekunden benötigt wurden. Die Bestätigung erfolgte am 31.05.2019 um 02:22:03 MEZ durch Patrick Schmeer (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Core i7-7700, wobei für den PRP-Test mit Genefer 11 Minuten 31 Sekunden benötigt wurden.



    Die Verteilung der 137 weiteren Primzahlfunde:

    • Proth Prime Search (PPS): 3 Funde im Bereich 2727928 ≤ n ≤ 2728537 (821192-821375 Dezimalstellen)
    • Proth Prime Search Extended (PPSE): 24 Funde im Bereich 1537398 ≤ n ≤ 1539922 (462807-463567 Dezimalstellen)
    • Sophie Germain Prime Search (SGS): 43 Funde im Bereich 4414432914675 ≤ k ≤ 4468936958115 (388342 Dezimalstellen), darunter zwei Erstfunde und sechs Doublechecks von DeleteNull, je ein Erstfund von Patrick Schmeer und trebotuet sowie ein Doublecheck von pan2000
    • Generalized Fermat Prime Search (n=15): 48 Funde im Bereich 122792010 ≤ b ≤ 127176348 (265066-265566 Dezimalstellen), darunter ein Erstfund von C. Ketelsen
    • Generalized Fermat Prime Search (n=16): 17 Funde im Bereich 61754924 ≤ b ≤ 62702572 (510570-511003 Dezimalstellen), darunter ein Doublecheck von Daniel Beer (Unity of Man)
    • Generalized Fermat Prime Search (n=17 low): 2 Funde: 15237960^131072+1 (941481 Dezimalstellen), 15342502^131072+1 (941870 Dezimalstellen)


    von Veröffentlicht: 19.06.2019 19:25
    1. Kategorien:
    2. Projekte

    OpenIFShome vereint zwei leistungsstarke Tools: OpenIFS, eine einfach zu bedienende, unterstützte Version des Integrierten Prognosesystems (IFS) des ECMWF, das in Forschung und Lehre weit verbreitet ist, und Climateprediction.net (CPDN) an der University of Oxford, einem sehr erfolgreichen Freiwilligen-Computerprojekt, das seit 2003 läuft.

    "CPDN hat in den letzten 15 Jahren von der Leistung von mehr als 600.000 Heimcomputern profitiert und hat derzeit etwa 32.000 aktive Freiwillige an Bord", sagt Professor David Wallom, der die Innovation am Oxford e-Research Centre (Department of Engineering Science) überwacht.

    "Durch die Nutzung der verteilten Rechenleistung von Zehntausenden von Freiwilligen kann CPDN Wetter- und Klimaexperimente durchführen, die selbst für Supercomputer zu rechenintensiv wären", betont er.

    David erklärt, dass eine solche Rechenleistung erforderlich ist, wenn Wissenschaftler Tausende von leicht veränderten Versionen eines Modells für dasselbe Ereignis ausführen wollen.

    "Sehr große Ensembles von Wetter- und Klimasimulationen sind unerlässlich, um die Vorhersagbarkeit von Extremereignissen zu untersuchen", sagt Antje Weisheimer, eine Wissenschaftlerin des ECMWF, die auch an der University of Oxford arbeitet.

    Antje nennt das Beispiel von Karl, einem tropischen Sturm, der sich im September 2016 im Atlantik entwickelte. Die NAWDEX-Feldkampagne beobachtete den Sturm im Zusammenspiel mit dem Jetstream.

    "Dieser Sturm hat bei Forschern großes Interesse geweckt, die die Gründe für die Abweichungen der Wettervorhersage in Europa untersuchen", sagt Antje.

    "Um die Vorhersagbarkeit solcher Stürme und ihre Auswirkungen auf das nachfolgende Wetter in Europa zu untersuchen, müssen wir Tausende von leicht veränderten Simulationen durchführen, und genau hier setzt CPDN an."

    Der OpenIFS-Workshop vom 17. bis 21. Juni widmet sich den Auswirkungen von Verdunstungsprozessen auf die Wettervorhersage und wird Arbeiten an Karl beinhalten.

    Am 18. Juni eröffnete David ein OpenIFS-Experiment auf Karl für etwa 8.000 CPDN-Freiwillige, die Linux-Betriebssysteme auf ihren Computern haben.

    Am Ende der Woche werden die Ergebnisse mit den Ergebnissen eines ähnlichen Experiments auf der Hochleistungsrechenanlage des EZMW verglichen.

    OpenIFShome stellt einen neuen Ansatz für OpenIFS und CPDN dar.

    "Das Projekt bietet beispiellose Möglichkeiten für Anwender von OpenIFS", sagt Glenn Carver, der das OpenIFS-Projekt am ECMWF leitet.

    "Wenn sie nur begrenzten Zugang zu Supercomputern haben oder Experimente mit sehr großen Ensembles durchführen wollen, könnte OpenIFShome für sie geeignet sein", sagt er.

    Marcus Köhler vom OpenIFS-Team stellt fest, dass die OpenIFShome-Experimente derzeit auf einen Rasterabstand von etwa 125 km beschränkt sind.

    Er fügt jedoch hinzu, dass die maximale horizontale Auflösung in Zukunft zunehmen wird. "Mit zunehmender Rechenleistung von Heimcomputern sollte es möglich werden, mit OpenIFShome hochauflösende Experimente durchzuführen", sagt er.

    Dr. Sarah Sparrow, die Programmkoordinatorin für das CPDN-Projekt, stellt fest, dass OpenIFShome eine bedeutende Erweiterung des Programms darstellt.

    "Wir hatten einige Diskussionen über die Notwendigkeit, auf eine Multi-Modell-Fähigkeit umzustellen, und OpenIFS schien eine gute Wahl zu sein, um das CPDN-Modellportfolio zu erweitern."

    Sie fügt hinzu, dass es einen Zusammenhang mit dem traditionellen Fokus des CPDN auf das Klima gibt, da es in Zukunft möglich sein wird, OpenIFS für Extremereignis-Attributionsstudien zu nutzen. Solche Studien zielen darauf ab, zu ermitteln, wie die Wahrscheinlichkeit des Auftretens bestimmter Wetterereignisse durch den Klimawandel beeinflusst wird.

    "Der Kontakt zum OpenIFS-Team des ECMWF erfolgte über Antje, die am Physikalischen Institut der Universität Oxford und am ECMWF tätig ist. Die Zusammenarbeit mit dem ECMWF war hervorragend und wir freuen uns darauf, dass OpenIFShome zum Wohle der modernen Wetter- und Klimaforschung eingesetzt wird."

    Florian Pappenberger, Direktor für Prognosen des ECMWF, begrüßte die Verfügbarkeit von OpenIFS auf CPDN: "Ich möchte allen Beteiligten für die Arbeit danken, die sie in dieses Projekt gesteckt haben. OpenIFShome wird wichtige Forschungsarbeiten über die Vorhersagbarkeit von Extremwetter erleichtern, was letztendlich zu besseren Wettervorhersagen für unsere Mitgliedstaaten und kooperierenden Staaten führen wird."

    Wissenschaftler, die an der Verwendung von OpenIFS auf CPDN interessiert sind, sollten das neue OpenIFShome Anfrageformular für die Zusammenarbeit auf der CPDN-Website ausfüllen.



    Link zum Originalbeitrag: Link
    von Veröffentlicht: 19.06.2019 19:15
    1. Kategorien:
    2. Projekte

    Am morgigen Donnerstag, den 20. Juni, wird der Server kurzzeitig für Wartungsarbeiten vom Netz genommen:

    Geplante Serverwartung
    Hallo zusammen,

    der MilkyWay@home-Server wird morgen (20. Juni) Abend abgeschaltet. Wir planen, ihn kurze Zeit später wieder ans Netz zu bringen. Falls es Probleme gibt, werden wir das über unsere Social-Media-Kanäle bekanntgeben.

    Danke für eure Unterstützung!

    Tom
    19.06.2019, 15:40:19 MEZ

    Originaltext:
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/forum_thread.php?id=4476
    Planned Server Maintenance
    Hi Everyone,

    The MilkyWay@home server will be shut down at noon tomorrow (6/20). We plan on bringing it back online shortly after. If there are any problems, we will post to our social media accounts.

    Thank you for your support!

    Tom
    19 Jun 2019, 14:40:19 UTC
    von Veröffentlicht: 19.06.2019 19:05
    1. Kategorien:
    2. Projekte

    Eine Serie sehr langer SixTrack-WUs wurde leider mit unzureichendem Festplattenlimit verschickt, sodass BOINC sie vor der Fertigstellung abbrechen würde. Daher wurden die betroffenen WUs serverseitig abgebrochen. Wer vor gestern Nachmittag WUs heruntergeladen und seither keinen Kontakt zum Projektserver hatte, sollte daher einmal das Projekt aktualisieren, damit BOINC nicht unnötigerweise versucht, diese WUs zu berechnen.

    Extrem lange SixTrack-Aufgaben abgebrochen
    Hallo zusammen,

    wir mussten etwa 10000 WUs mit den Namen w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc* wegen unzureichender Festplattenspeicheranforderung abbrechen.

    Diese Aufgaben wären ohnehin an einem bestimmten Punkt von BOINC mit der Fehlermeldung EXIT_DISK_LIMIT_EXCEEDED abgebrochen worden - siehe bitte https://lhcathome.cern.ch/lhcathome/...ad.php?id=5062 für weitere Informationen.

    Diese Aufgaben umfassen 10 Millionen LHC-Umläufe, zehnmal so viele wie üblich, und die Dateien wachsen und wachsen, bis das Limit erreicht ist.

    Nicht alle Aufgaben mit solchen Namen wurden abgebrochen - ich habe nur solche abgebrochen, welche einen stabilen Teilchenstrahl umfassen sollten; diese Aufgaben sollten lang laufen und daher das Festplattenlimit erreichen. In den anderen WUs sollten so viele Teilchen verloren gehen, dass das Limit nicht erreicht wird - bitte meldet in diesem Thread, wenn das nicht der Fall ist. Durch diese Auslese beim Abbrechen sollten so viele bereits in Bearbeitung befindliche oder auf Validierung wartende WUs wie möglich erhalten bleiben.

    Sobald ihr in eurem BOINC-Manager das Projekt LHC@home aktualisiert, sollten die Aufgaben abgebrochen werden.

    Wir werden die gleichen Aufgaben bald noch einmal mit passender Festplattenanforderung herausgeben.
    Entschuldigung für die Störung und danke für euer Verständnis.
    A.
    18.06.2019, 17:49:08 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5064
    killing extremely long SixTrack tasks
    Dear all,

    we had to kill ~10k WUs named:
    w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc*

    due to a mismatch between the requested disk space and that actually necessary to the job.
    These tasks would anyway be killed by the BOINC manager at a certain point with an EXIT_DISK_LIMIT_EXCEEDED message - please see:
    https://lhcathome.cern.ch/lhcathome/...ad.php?id=5062
    for further info.

    These tasks cover 10^7 LHC turns, a factor 10 larger than usual, with files building up in dimension until the limit is hit.

    The killing does not involve all tasks with such names - I have killed only those that should cover the stable part of the beam; these tasks are expected to last long and hence reach the limit in disk usage. The other WUs should see enough beam losses that the limit is not reached - please post in this thread if this is not the case. The cherry-picking killing was done in the effort of preserving as much as possible tasks already being crunched or pending validation.

    As soon as you update the LHC@project on your BOINC manager you should see the task being killed.

    We will resubmit soon the same tasks, with appropriate disk requirements.
    Apologies for the disturbance, and thanks for your understanding.
    A.
    18 Jun 2019, 16:49:08 UTC
    von Veröffentlicht: 17.06.2019 21:45
    1. Kategorien:
    2. Projekte

    Die durch den hohen Andrang bei der zweiwöchentlichen Verteilung einiger weniger neuer WUs für neue Strukturen in der Kristallografie-Datenbank COD verursachten Serverprobleme haben den Administrator nun dazu bewegt, das BOINC-Projekt nicht mehr weiterzuführen.

    Das Projekt ist beendet
    Da das Projekt nicht hinreichend viele WUs für jedermann bereitstellen kann, kommt es während der WU-Erzeugung alle zwei Wochen zu massiven Überlastungen des Servers. Diese Überlastungen erschweren das Herunter-/Hochladen der WUs deutlich. Die Fortsetzung des Projektes wäre daher auch für die Teilnehmer unangenehm.

    Da nach Erreichen des Projektziels im September 2017 die über BOINC verfügbare Leistung eigentlich nicht weiter benötigt wird, denke ich, dass dies ein passender Moment ist, XANSONS for COD zu beenden.

    Ich möchte euch allen dafür danken, dem Projekt die ganze Zeit geholfen zu haben!
    16.06.2019, 22:56:13 MEZ


    Auch zu der seit einigen Wochen nicht mehr erreichbaren Ergebnisdatenbank gibt es eine Information:

    […]
    Die Datenbank der Beugungsmuster ist seit April nicht erreichbar, da das Rechenzentrum am Institute for Information Transmission Problems der Russischen Akademie der Wissenschaften, wo sie beherbergt ist (in diesem Rechenzentrum sind auch Acoustics@Home, USPEX@Home, SAT@Home, Optima@Home, Boinc.ru und einige andere nicht-BOINC-Ressourcen untergebracht), abgeschaltet ist und derzeit an einen neuen Ort umgezogen wird. Sobald das Rechenzentrum wieder läuft, wird die Datenbank wieder erreichbar sein. Der Umzug des Rechenzentrums der Akademie ist jedoch ein sehr langwieriger Prozess wegen einer Menge Bürokratie.
    16.06.2019, 22:57:01 MEZ


    Originaltexte:
    Zitat Zitat von http://xansons4cod.com/xansons4cod/forum_thread.php?id=142
    This project is finally over.
    The inability of the project to provide sufficient number of WUs for everyone provokes major server overloads during the WU generation each two weeks. These overloads significantly complicate downloading/uploading of the work. Continuing the project will cause an unpleasant experience for the participants.

    Considering that the power of BOINC is actually not required for this project since the project reached its goal in September 2017, I think this is a right moment to finally end XANSONS for COD.

    I would like to thank everyone for helping the project all that time!
    16 Jun 2019, 21:56:13 UTC
    Zitat Zitat von http://xansons4cod.com/xansons4cod/forum_thread.php?id=142&postid=751
    Also, some info about the database:

    The database of diffraction patterns is offline since April because the data center at the Institute for Information Transmission Problems of RAS in which it is hosted (also, this center is a hosting provider for the Acoustics@Home, USPEX@Home, SAT@Home, Optima@Home, Boinc.ru and some other non-boinc resources) is powered off and in the middle of moving to a new location. As soon as the data center will be powered on, the database will be back online. However, moving the academic data center to a new location is a long process because a lot of bureaucracy involved.
    16 Jun 2019, 21:57:01 UTC
    von Veröffentlicht: 17.06.2019 20:40
    1. Kategorien:
    2. Projekte

    Wie vor einigen Wochen angekündigt, wurden die letzten WUs für Unterkörper 5 (ℚ(√-5)) bei der Suche nach Zahlkörpern zehnten Grades nun verschickt. Weiter geht es mit ein paar kurzen WUs für eine Serie zum Unterkörper 6 (ℚ(√10)) und danach mit dem Rest von Unterkörper 4 (ℚ(√-2)). Der Projektverlauf kann auf dieser Seite verfolgt werden.

    Unterkörper 5 fast fertig
    Wie ihr vielleicht bemerkt habt, nähert sich Unterkörper 5 der Fertigstellung. In den nächsten Stunden werden die letzten WUs verschickt. Natürlich wird es noch etwa 2 Wochen dauern, während die letzten Ergebnisse eintrudeln, bis er offiziell fertig ist.

    Das ist ein großer Meilenstein! Die Zeit für die Fertigstellung dieses Unterkörpers wurde ursprünglich auf über ein Jahr geschätzt. Wegen der neuen optimierten Anwendungen (auch für GPUs) hat es nur wenige Monate gedauert.

    Wir werden mit Unterkörper 4 weitermachen. Aber zunächst machen wir einen kleinen Umweg und bringen Serie DS7 von Unterkörper 6 zu Ende. Lasst euch nicht von den etwa 2,5 Millionen WUs abschrecken. Diese wurden für die alten Anwendungen erzeugt und hätten etwa 2 Stunden pro Stück gebraucht, sollten mit den neueren Anwendungen aber zehnmal schneller sein. Das heißt, dass wir etwa 350000 WUs pro Tag schaffen sollten. Falls sich herausstellt, dass das zu viel Serverlast verursacht, werden wir sofort zu Unterkörper 4 springen (und Serie DS7 von Unterkörper 6 nebenher laufen lassen).

    Danke euch allen für eure Beiträge! Wir hätten das nicht ohne unsere Freiwilligen schaffen können.
    16.06.2019, 17:38:42 MEZ

    Originaltext:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/forum_thread.php?id=380
    Subfield 5 almost complete
    As you may have noticed, subfield 5 is nearing completion. In the next few hours the last of the work units will be sent out. Of course it will still take ~2weeks for the final results to trickle in before it's officially complete.

    This is a huge milestone! This subfield was originally estimated to take over a year to complete. Due to the new optimized apps (including GPU apps), this was completed in just several months.

    We will be moving on to subfield 4. But first we will make a short detour and finish off subfield 6 DS7. Don't let the ~2.5mil work units scare you. These were generated for the old apps, and would have taken about 2 hours a pop, but with the newer apps they should be about 10x faster. That means we should blow through about 350k work units per day. If this turns out to be too much of a strain on the server, then we will jump straight to subfield 4 (and run sf6 DS7 in parallel).

    Thanks everyone for your contributions! We couldn't have done this without our volunteers.
    16 Jun 2019, 16:38:42 UTC
    von Veröffentlicht: 13.06.2019 07:10
    1. Kategorien:
    2. Projekte

    Geplante Wartung am Donnerstag, 13. Juni 2019

    Zusammenfassung
    Wir aktualisieren den Speicher auf unseren Servern am Donnerstag, den 13. Juni, ab 17:45 MESZ.
    ---
    Wir werden am Donnerstag, den 13. Juni, ab 17:45 MESZ wichtige Aufrüstungen des Speichers unserer Server durchführen. Wir gehen davon aus, dass die Arbeit etwa zwei Stunden dauern wird.

    Während dieser Zeit können die Teilnehmer teilweise keine neuen Arbeiten hochladen oder herunterladen und die Website ist nicht zugänglich.

    Die Teilnehmer müssen keine besonderen Maßnahmen ergreifen, da Ihre Geräte nach Abschluss der Wartungsarbeiten ihre Verbindungen automatisch wiederherstellen.

    Wir bedanken uns für Ihre Geduld und Teilnahme.
    12. Juni 2019

    Originaltext:
    Zitat Zitat von https://www.worldcommunitygrid.org/about_us/viewNewsArticle.do?articleId=596
    Planned Maintenance on Thursday, June 13, 2019

    Summary
    We are updating the storage on our servers on Thursday, June 13, beginning at 15:45 UTC.
    ---
    We will be applying an important storage updates to our servers on Thursday, June 13, beginning at 15:45 UTC. We anticipate that the work will take approximately two hours.

    During some of this time, volunteers will not be able to upload or download new work, and the website will not be accessible.

    Volunteers will not need to take any particular action, as your devices will automatically retry their connections after the maintenance work is completed.

    We appreciate your patience and participation.
    12 Jun 2019
    Seite 3 von 66 Erste 1 2 3 4 5 13 53 ... Letzte
Single Sign On provided by vBSSO