• Projekte

    von Veröffentlicht: 02.07.2019 21:25
    1. Kategorien:
    2. Projekte

    Nachdem seit Ende 2016 nur verallgemeinerte Riesel-Vermutungen bewiesen worden waren, gelang im Juni auch der jeweils letzte Schritt zum Beweis zweier verallgemeinerter Sierpinski-Vermutungen: k=243 ist das kleinste k, für das es keine Primzahl der Form k*780^n+1 gibt, wohingegen k=32 das kleinste k ist, für das es keine Primzahl der Form k*743^n+1 gibt.

    Basis S780 bewiesen
    Am 02. Juni hat CharityEngine2, Mitglied von Gridcoin, die letzte Primzahl zur Basis S780 gefunden.
    Die Primzahl 43*780^205685+1 hat 594863 Dezimalstellen und erreichte die Top 5000 in Chris Caldwells Datenbank der größten bekannten Primzahlen.
    26.06.2019, 16:18:35 MEZ

    Basis S743 bewiesen
    Am 15. Juni hat Doug, Mitglied von Gridcoin, die letzte Primzahl zur Basis S743 gefunden.
    Die Primzahl 10*743^285478+1 hat 819606 Dezimalstellen und erreichte die Top 5000 in Chris Caldwells Datenbank der größten bekannten Primzahlen.
    27.06.2019, 17:42:31 MEZ

    Originaltexte:
    Zitat Zitat von https://srbase.my-firewall.org/sr5/forum_thread.php?id=1211
    base S780 proven
    On 02th of June, CharityEngine2, a member of the team Gridcoin found the last prime for base S780.
    The prime 43*780^205685+1 has 594863 digits and entered the TOP5000 in Chris Caldwell's The Largest Known Primes Database.
    26 Jun 2019, 15:18:35 UTC
    Zitat Zitat von https://srbase.my-firewall.org/sr5/forum_thread.php?id=1212
    base S743 proven
    On 15th of June, Doug, a member of the team Gridcoin found the last prime for base S743.
    The prime 10*743^285478+1 has 819606 digits and entered the TOP5000 in Chris Caldwell's The Largest Known Primes Database.
    27 Jun 2019, 16:42:31 UTC
    von Veröffentlicht: 02.07.2019 17:10
    1. Kategorien:
    2. Projekte

    Das derzeit im Testbetrieb befindliche neue yoyo@home-Subprojekt M Queens (nicht zu verwechseln mit dem früheren BOINC-Projekt NQueens@Home, welches sich mit dem gleichen mathematischen Problem auf kleineren Schachbrettern beschäftigte) wird versuchen, die vor drei Jahren vom Q27-Projekt gefundene Anzahl von 234.907.967.154.122.528 Lösungen für ein 27x27-Brett zu bestätigen.

    Neues Subprojekt M Queens
    Wir haben M Queens als neues Subprojekt von yoyo@home gestartet.
    Beim verallgemeinerten Damenproblem geht es darum, M Damen auf einem MxM-Schachbrett derart aufzustellen, dass sich keine zwei Damen schlagen könnten; eine Lösung setzt daher voraus, dass keine Reihe, Spalte oder Diagonale von zwei Damen geteilt wird.

    Derzeit gibt es nur eine Testanwendung für 64-Bit-Linux und wir lassen einige Test-WUs für M=24 laufen. Wir haben bereits M=20 durchgeführt und die Ergebnisse bestätigt. Als nächsten Schritt werden wir die Lösungen für M=27 bestätigen. Wenn alles gut läuft, könnten wir nach Lösungen für M=28 suchen, welche derzeit unbekannt sind.
    30.06.2019

    Originaltext:
    Zitat Zitat von https://www.rechenkraft.net/yoyo/
    New Project M Queens
    We started M Queens as new project in yoyo@home.
    The M queens puzzle is the problem of placing M chess queens on an M x M chessboard so that no two queens threaten each other; thus, a solution requires that no two queens share the same row, column, or diagonal.

    Curently it is a test application only available for Linux64 and we are running some test workunits for M=24. We did already M=20 and verified the results. As next step we will verfy the number of solutions for M=27. If everything runs well we might go to find solutions for M=28, which is currently unknown.
    30 June 2019
    von Veröffentlicht: 25.06.2019 19:45
    1. Kategorien:
    2. Projekte

    Die Anwendung für die nach Fertigstellung der Suche nach orthogonalen diagonalen lateinischen Quadraten neunter Ordnung begonnene Suche nach solchen Quadraten zehnter Ordnung enthält einen Fehler, weshalb derzeit keine neuen WUs verschickt werden.

    R10-Suche zeitweise gestoppt!
    Liebe Teilnehmer!

    Wir haben die Verteilung von R10-RakeSearch-WUs gestoppt, da Daniel auf einen fehlerhaften Abschnitt im Quellcode der neuen Anwendung hingewiesen hat. Wir untersuchen das Problem derzeit und werden danach (vermutlich) eine neue Anwendung erstellen.
    25.06.2019, 13:53:05 MEZ

    Originaltext:
    Zitat Zitat von https://rake.boincfast.ru/rakesearch/forum_thread.php?id=186
    R10 search temporary stopped!
    Dear participants!

    We stoped the sending of tasks for R10 RakeSearch due signal from Daniel about incorrect fragment of code of new application. Now we investigate the problem and after this - (presumably) will build a new application.
    25 Jun 2019, 12:53:05 UTC
    von Veröffentlicht: 25.06.2019 19:40
    1. Kategorien:
    2. Projekte

    Wegen einer anstehenden Aktualisierung der Serversoftware werden derzeit keine neuen WUs verteilt.

    Server-Aktualisierung
    In den nächsten Tagen werde ich keine weiteren Aufgaben erzeugen, da ich eine Aktualisierung der Serversoftware vorbereite.
    Die Software wird einige Neustarts erfordern und ist für später in dieser Woche geplant - ich werde ich informieren, wann genau das geschehen wird.
    24.06.2019, 21:39:25 MEZ

    Originaltext:
    Zitat Zitat von https://universeathome.pl/universe/forum_thread.php?id=425
    Server upgrade
    For next few days I will not generate more tasks as I'm preparing to server software update.
    The software will require few restarts and is planned later in this week - I will inform you when it happens exactly.
    24 Jun 2019, 20:39:25 UTC
    von Veröffentlicht: 25.06.2019 19:30
    1. Kategorien:
    2. Projekte

    Derzeit werden einige extrem kurze WUs für die frisch begonnene Basis R448 verteilt, weitere ähnlich kurze WUs für S448 und S575 befinden sich in Vorbereitung. Subprojekte mit längeren WUs laufen parallel weiter, um den Server etwas zu entlasten.

    Vorbereitung neuer Basen
    Wie einige von euch mitbekommen haben, sind die Laufzeiten beim Subprojekt Riesel Base - short sehr kurz. Diese Anwendung hat eine höhere Priorität, um genug WUs für alle zu verteilen. Ich bereite immer mehr neue, noch nicht begonnene Basen im Bereich 1 < n < 2500 vor, welche Lokal mit PFGW unter Win64 und einem neuen Skript laufen. Der Bereich 2500 < n < 10000 wird ebenfalls auf dem Server durchgesiebt werden. Es dauert auf einem einzelnen Kern zu lange (etwa 3-4 Monate), sodass ich das unter BOINC laufen lasse. Um die Serverlast zu verringern, laufen alle anderen Basen gleichzeitig.
    24.06.2019, 19:05:14 MEZ

    Originaltext:
    Zitat Zitat von https://srbase.my-firewall.org/sr5/forum_thread.php?id=1210
    preparing new bases
    As some of you noticed there is a very short runtime on the Riesel Base -short app. This app has a higher priority to spread out enough work for all. Iam preparing more and more new unstarted bases from 1-2.5k range which are running locally with Win64PFGW and the new base script. The range from 2.5k-10k will also be sieved on the server. Its taking too long to run it on a single core (around 3-4 month) so I let it run on BOINC. To reduce the server load all other bases are running at the same time.
    24 Jun 2019, 18:05:14 UTC
    von Veröffentlicht: 21.06.2019 16:55
    1. Kategorien:
    2. Projekte

    Mit 142 Primzahlen war der Mai der bisher zweitbeste Monat dieses Jahres, wobei sich vor allem die kurzen GFN-15-WUs offensichtlich großer Beliebtheit erfreuten und für zahlreiche Funde sorgten. Mitglieder von SETI.Germany waren insgesamt fünfmal als Erstfinder und neunmal als Doublechecker erfolgreich.

    Es sind fünf Megaprimzahlen zu vermelden:

    • Die 1092002-stellige Proth-Primzahl 1175*2^3627541+1 wurde am 03.05.2019 um 18:00:08 MEZ von Kai Ylijoki aus Kanada mit einem Intel Xeon E5-1680 v2 gefunden, wobei für den Primalitätstest mit LLR etwa 3 Stunden 16 Minuten benötigt wurden. Die Bestätigung erfolgte am 06.05.2019 um 04:15:11 MEZ durch PixelSmasher8 (Team: SEACOAST -- SouthEAst COalition of Alien Signal Trackers) aus den Vereinigten Staaten mit einem Intel Core i7-8700K, wobei für den Primalitätstest mit LLR etwa 1 Stunden 32 Minuten benötigt wurden.

    • Die 1092502-stellige Proth-Primzahl 1121*2^3629201+1 wurde am 10.05.2019 um 08:12:05 MEZ von Jordan Romaidis (San Francisco) aus den Vereinigten Staaten mit einem Intel Core i7-6920HQ gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunden 5 Minuten benötigt wurden. Die Bestätigung erfolgte am 10.05.2019 um 09:04:25 MEZ durch Spear (Storm) aus Irland mit einem Intel Core i9-7900X, wobei für den Primalitätstest mit LLR etwa 2 Stunden 39 Minuten benötigt wurden.

    • Die 1019624-stellige verallgemeinerte Fermat-Primzahl 60133106^131072+1 wurde am 17.05.2019 um 14:22:54 MEZ von darkclown (Aggie The Pew) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1660 Ti in Verbund mit einem Intel Core i5-9600K gefunden, wobei für den PRP-Test mit Genefer 7 Minuten 57 Sekunden benötigt wurden. Die Bestätigung erfolgte am 17.05.2019 um 18:32:37 MEZ durch rolfo aus Deutschland mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-4790K, wobei für den PRP-Test mit Genefer 8 Minuten 26 Sekunden benötigt wurden.

    • Die 1093185-stellige Proth-Primzahl 753*2^3631472+1 wurde am 21.05.2019 um 21:14:11 MEZ von 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i7-7820X gefunden, wobei für den Primalitätstest mit LLR etwa 32 Minuten benötigt wurden. Die Bestätigung erfolgte am 23.05.2019 um 11:04:58 MEZ durch sentient_life (AMD Users) aus den Vereinigten Staaten mit einem AMD Ryzen 7 1700, wobei für den Primalitätstest mit LLR auf 8 Threads etwa 37 Minuten benötigt wurden.

    • Die 1019929-stellige verallgemeinerte Fermat-Primzahl 60455792^131072+1 wurde am 31.05.2019 um 02:03:31 MEZ von k4m1k4z3 (Overclock.net) aus den Vereinigten Staaten mit einer NVIDIA GeForce RTX 2080 Ti in Verbund mit einem AMD Ryzen 5 2600 gefunden, wobei für den PRP-Test mit Genefer 2 Minuten 58 Sekunden benötigt wurden. Die Bestätigung erfolgte am 31.05.2019 um 02:22:03 MEZ durch Patrick Schmeer (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Core i7-7700, wobei für den PRP-Test mit Genefer 11 Minuten 31 Sekunden benötigt wurden.



    Die Verteilung der 137 weiteren Primzahlfunde:

    • Proth Prime Search (PPS): 3 Funde im Bereich 2727928 ≤ n ≤ 2728537 (821192-821375 Dezimalstellen)
    • Proth Prime Search Extended (PPSE): 24 Funde im Bereich 1537398 ≤ n ≤ 1539922 (462807-463567 Dezimalstellen)
    • Sophie Germain Prime Search (SGS): 43 Funde im Bereich 4414432914675 ≤ k ≤ 4468936958115 (388342 Dezimalstellen), darunter zwei Erstfunde und sechs Doublechecks von DeleteNull, je ein Erstfund von Patrick Schmeer und trebotuet sowie ein Doublecheck von pan2000
    • Generalized Fermat Prime Search (n=15): 48 Funde im Bereich 122792010 ≤ b ≤ 127176348 (265066-265566 Dezimalstellen), darunter ein Erstfund von C. Ketelsen
    • Generalized Fermat Prime Search (n=16): 17 Funde im Bereich 61754924 ≤ b ≤ 62702572 (510570-511003 Dezimalstellen), darunter ein Doublecheck von Daniel Beer (Unity of Man)
    • Generalized Fermat Prime Search (n=17 low): 2 Funde: 15237960^131072+1 (941481 Dezimalstellen), 15342502^131072+1 (941870 Dezimalstellen)


    von Veröffentlicht: 19.06.2019 19:25
    1. Kategorien:
    2. Projekte

    OpenIFShome vereint zwei leistungsstarke Tools: OpenIFS, eine einfach zu bedienende, unterstützte Version des Integrierten Prognosesystems (IFS) des ECMWF, das in Forschung und Lehre weit verbreitet ist, und Climateprediction.net (CPDN) an der University of Oxford, einem sehr erfolgreichen Freiwilligen-Computerprojekt, das seit 2003 läuft.

    "CPDN hat in den letzten 15 Jahren von der Leistung von mehr als 600.000 Heimcomputern profitiert und hat derzeit etwa 32.000 aktive Freiwillige an Bord", sagt Professor David Wallom, der die Innovation am Oxford e-Research Centre (Department of Engineering Science) überwacht.

    "Durch die Nutzung der verteilten Rechenleistung von Zehntausenden von Freiwilligen kann CPDN Wetter- und Klimaexperimente durchführen, die selbst für Supercomputer zu rechenintensiv wären", betont er.

    David erklärt, dass eine solche Rechenleistung erforderlich ist, wenn Wissenschaftler Tausende von leicht veränderten Versionen eines Modells für dasselbe Ereignis ausführen wollen.

    "Sehr große Ensembles von Wetter- und Klimasimulationen sind unerlässlich, um die Vorhersagbarkeit von Extremereignissen zu untersuchen", sagt Antje Weisheimer, eine Wissenschaftlerin des ECMWF, die auch an der University of Oxford arbeitet.

    Antje nennt das Beispiel von Karl, einem tropischen Sturm, der sich im September 2016 im Atlantik entwickelte. Die NAWDEX-Feldkampagne beobachtete den Sturm im Zusammenspiel mit dem Jetstream.

    "Dieser Sturm hat bei Forschern großes Interesse geweckt, die die Gründe für die Abweichungen der Wettervorhersage in Europa untersuchen", sagt Antje.

    "Um die Vorhersagbarkeit solcher Stürme und ihre Auswirkungen auf das nachfolgende Wetter in Europa zu untersuchen, müssen wir Tausende von leicht veränderten Simulationen durchführen, und genau hier setzt CPDN an."

    Der OpenIFS-Workshop vom 17. bis 21. Juni widmet sich den Auswirkungen von Verdunstungsprozessen auf die Wettervorhersage und wird Arbeiten an Karl beinhalten.

    Am 18. Juni eröffnete David ein OpenIFS-Experiment auf Karl für etwa 8.000 CPDN-Freiwillige, die Linux-Betriebssysteme auf ihren Computern haben.

    Am Ende der Woche werden die Ergebnisse mit den Ergebnissen eines ähnlichen Experiments auf der Hochleistungsrechenanlage des EZMW verglichen.

    OpenIFShome stellt einen neuen Ansatz für OpenIFS und CPDN dar.

    "Das Projekt bietet beispiellose Möglichkeiten für Anwender von OpenIFS", sagt Glenn Carver, der das OpenIFS-Projekt am ECMWF leitet.

    "Wenn sie nur begrenzten Zugang zu Supercomputern haben oder Experimente mit sehr großen Ensembles durchführen wollen, könnte OpenIFShome für sie geeignet sein", sagt er.

    Marcus Köhler vom OpenIFS-Team stellt fest, dass die OpenIFShome-Experimente derzeit auf einen Rasterabstand von etwa 125 km beschränkt sind.

    Er fügt jedoch hinzu, dass die maximale horizontale Auflösung in Zukunft zunehmen wird. "Mit zunehmender Rechenleistung von Heimcomputern sollte es möglich werden, mit OpenIFShome hochauflösende Experimente durchzuführen", sagt er.

    Dr. Sarah Sparrow, die Programmkoordinatorin für das CPDN-Projekt, stellt fest, dass OpenIFShome eine bedeutende Erweiterung des Programms darstellt.

    "Wir hatten einige Diskussionen über die Notwendigkeit, auf eine Multi-Modell-Fähigkeit umzustellen, und OpenIFS schien eine gute Wahl zu sein, um das CPDN-Modellportfolio zu erweitern."

    Sie fügt hinzu, dass es einen Zusammenhang mit dem traditionellen Fokus des CPDN auf das Klima gibt, da es in Zukunft möglich sein wird, OpenIFS für Extremereignis-Attributionsstudien zu nutzen. Solche Studien zielen darauf ab, zu ermitteln, wie die Wahrscheinlichkeit des Auftretens bestimmter Wetterereignisse durch den Klimawandel beeinflusst wird.

    "Der Kontakt zum OpenIFS-Team des ECMWF erfolgte über Antje, die am Physikalischen Institut der Universität Oxford und am ECMWF tätig ist. Die Zusammenarbeit mit dem ECMWF war hervorragend und wir freuen uns darauf, dass OpenIFShome zum Wohle der modernen Wetter- und Klimaforschung eingesetzt wird."

    Florian Pappenberger, Direktor für Prognosen des ECMWF, begrüßte die Verfügbarkeit von OpenIFS auf CPDN: "Ich möchte allen Beteiligten für die Arbeit danken, die sie in dieses Projekt gesteckt haben. OpenIFShome wird wichtige Forschungsarbeiten über die Vorhersagbarkeit von Extremwetter erleichtern, was letztendlich zu besseren Wettervorhersagen für unsere Mitgliedstaaten und kooperierenden Staaten führen wird."

    Wissenschaftler, die an der Verwendung von OpenIFS auf CPDN interessiert sind, sollten das neue OpenIFShome Anfrageformular für die Zusammenarbeit auf der CPDN-Website ausfüllen.



    Link zum Originalbeitrag: Link
    von Veröffentlicht: 19.06.2019 19:15
    1. Kategorien:
    2. Projekte

    Am morgigen Donnerstag, den 20. Juni, wird der Server kurzzeitig für Wartungsarbeiten vom Netz genommen:

    Geplante Serverwartung
    Hallo zusammen,

    der MilkyWay@home-Server wird morgen (20. Juni) Abend abgeschaltet. Wir planen, ihn kurze Zeit später wieder ans Netz zu bringen. Falls es Probleme gibt, werden wir das über unsere Social-Media-Kanäle bekanntgeben.

    Danke für eure Unterstützung!

    Tom
    19.06.2019, 15:40:19 MEZ

    Originaltext:
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/forum_thread.php?id=4476
    Planned Server Maintenance
    Hi Everyone,

    The MilkyWay@home server will be shut down at noon tomorrow (6/20). We plan on bringing it back online shortly after. If there are any problems, we will post to our social media accounts.

    Thank you for your support!

    Tom
    19 Jun 2019, 14:40:19 UTC
    von Veröffentlicht: 19.06.2019 19:05
    1. Kategorien:
    2. Projekte

    Eine Serie sehr langer SixTrack-WUs wurde leider mit unzureichendem Festplattenlimit verschickt, sodass BOINC sie vor der Fertigstellung abbrechen würde. Daher wurden die betroffenen WUs serverseitig abgebrochen. Wer vor gestern Nachmittag WUs heruntergeladen und seither keinen Kontakt zum Projektserver hatte, sollte daher einmal das Projekt aktualisieren, damit BOINC nicht unnötigerweise versucht, diese WUs zu berechnen.

    Extrem lange SixTrack-Aufgaben abgebrochen
    Hallo zusammen,

    wir mussten etwa 10000 WUs mit den Namen w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc* wegen unzureichender Festplattenspeicheranforderung abbrechen.

    Diese Aufgaben wären ohnehin an einem bestimmten Punkt von BOINC mit der Fehlermeldung EXIT_DISK_LIMIT_EXCEEDED abgebrochen worden - siehe bitte https://lhcathome.cern.ch/lhcathome/...ad.php?id=5062 für weitere Informationen.

    Diese Aufgaben umfassen 10 Millionen LHC-Umläufe, zehnmal so viele wie üblich, und die Dateien wachsen und wachsen, bis das Limit erreicht ist.

    Nicht alle Aufgaben mit solchen Namen wurden abgebrochen - ich habe nur solche abgebrochen, welche einen stabilen Teilchenstrahl umfassen sollten; diese Aufgaben sollten lang laufen und daher das Festplattenlimit erreichen. In den anderen WUs sollten so viele Teilchen verloren gehen, dass das Limit nicht erreicht wird - bitte meldet in diesem Thread, wenn das nicht der Fall ist. Durch diese Auslese beim Abbrechen sollten so viele bereits in Bearbeitung befindliche oder auf Validierung wartende WUs wie möglich erhalten bleiben.

    Sobald ihr in eurem BOINC-Manager das Projekt LHC@home aktualisiert, sollten die Aufgaben abgebrochen werden.

    Wir werden die gleichen Aufgaben bald noch einmal mit passender Festplattenanforderung herausgeben.
    Entschuldigung für die Störung und danke für euer Verständnis.
    A.
    18.06.2019, 17:49:08 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5064
    killing extremely long SixTrack tasks
    Dear all,

    we had to kill ~10k WUs named:
    w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc*

    due to a mismatch between the requested disk space and that actually necessary to the job.
    These tasks would anyway be killed by the BOINC manager at a certain point with an EXIT_DISK_LIMIT_EXCEEDED message - please see:
    https://lhcathome.cern.ch/lhcathome/...ad.php?id=5062
    for further info.

    These tasks cover 10^7 LHC turns, a factor 10 larger than usual, with files building up in dimension until the limit is hit.

    The killing does not involve all tasks with such names - I have killed only those that should cover the stable part of the beam; these tasks are expected to last long and hence reach the limit in disk usage. The other WUs should see enough beam losses that the limit is not reached - please post in this thread if this is not the case. The cherry-picking killing was done in the effort of preserving as much as possible tasks already being crunched or pending validation.

    As soon as you update the LHC@project on your BOINC manager you should see the task being killed.

    We will resubmit soon the same tasks, with appropriate disk requirements.
    Apologies for the disturbance, and thanks for your understanding.
    A.
    18 Jun 2019, 16:49:08 UTC
    von Veröffentlicht: 17.06.2019 21:45
    1. Kategorien:
    2. Projekte

    Die durch den hohen Andrang bei der zweiwöchentlichen Verteilung einiger weniger neuer WUs für neue Strukturen in der Kristallografie-Datenbank COD verursachten Serverprobleme haben den Administrator nun dazu bewegt, das BOINC-Projekt nicht mehr weiterzuführen.

    Das Projekt ist beendet
    Da das Projekt nicht hinreichend viele WUs für jedermann bereitstellen kann, kommt es während der WU-Erzeugung alle zwei Wochen zu massiven Überlastungen des Servers. Diese Überlastungen erschweren das Herunter-/Hochladen der WUs deutlich. Die Fortsetzung des Projektes wäre daher auch für die Teilnehmer unangenehm.

    Da nach Erreichen des Projektziels im September 2017 die über BOINC verfügbare Leistung eigentlich nicht weiter benötigt wird, denke ich, dass dies ein passender Moment ist, XANSONS for COD zu beenden.

    Ich möchte euch allen dafür danken, dem Projekt die ganze Zeit geholfen zu haben!
    16.06.2019, 22:56:13 MEZ


    Auch zu der seit einigen Wochen nicht mehr erreichbaren Ergebnisdatenbank gibt es eine Information:

    […]
    Die Datenbank der Beugungsmuster ist seit April nicht erreichbar, da das Rechenzentrum am Institute for Information Transmission Problems der Russischen Akademie der Wissenschaften, wo sie beherbergt ist (in diesem Rechenzentrum sind auch Acoustics@Home, USPEX@Home, SAT@Home, Optima@Home, Boinc.ru und einige andere nicht-BOINC-Ressourcen untergebracht), abgeschaltet ist und derzeit an einen neuen Ort umgezogen wird. Sobald das Rechenzentrum wieder läuft, wird die Datenbank wieder erreichbar sein. Der Umzug des Rechenzentrums der Akademie ist jedoch ein sehr langwieriger Prozess wegen einer Menge Bürokratie.
    16.06.2019, 22:57:01 MEZ


    Originaltexte:
    Zitat Zitat von http://xansons4cod.com/xansons4cod/forum_thread.php?id=142
    This project is finally over.
    The inability of the project to provide sufficient number of WUs for everyone provokes major server overloads during the WU generation each two weeks. These overloads significantly complicate downloading/uploading of the work. Continuing the project will cause an unpleasant experience for the participants.

    Considering that the power of BOINC is actually not required for this project since the project reached its goal in September 2017, I think this is a right moment to finally end XANSONS for COD.

    I would like to thank everyone for helping the project all that time!
    16 Jun 2019, 21:56:13 UTC
    Zitat Zitat von http://xansons4cod.com/xansons4cod/forum_thread.php?id=142&postid=751
    Also, some info about the database:

    The database of diffraction patterns is offline since April because the data center at the Institute for Information Transmission Problems of RAS in which it is hosted (also, this center is a hosting provider for the Acoustics@Home, USPEX@Home, SAT@Home, Optima@Home, Boinc.ru and some other non-boinc resources) is powered off and in the middle of moving to a new location. As soon as the data center will be powered on, the database will be back online. However, moving the academic data center to a new location is a long process because a lot of bureaucracy involved.
    16 Jun 2019, 21:57:01 UTC
    Seite 3 von 67 Erste 1 2 3 4 5 13 53 ... Letzte
Single Sign On provided by vBSSO