• pschoefer

    von Veröffentlicht: 19.06.2019 19:15
    1. Kategorien:
    2. Projekte

    Am morgigen Donnerstag, den 20. Juni, wird der Server kurzzeitig für Wartungsarbeiten vom Netz genommen:

    Geplante Serverwartung
    Hallo zusammen,

    der MilkyWay@home-Server wird morgen (20. Juni) Abend abgeschaltet. Wir planen, ihn kurze Zeit später wieder ans Netz zu bringen. Falls es Probleme gibt, werden wir das über unsere Social-Media-Kanäle bekanntgeben.

    Danke für eure Unterstützung!

    Tom
    19.06.2019, 15:40:19 MEZ

    Originaltext:
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/forum_thread.php?id=4476
    Planned Server Maintenance
    Hi Everyone,

    The MilkyWay@home server will be shut down at noon tomorrow (6/20). We plan on bringing it back online shortly after. If there are any problems, we will post to our social media accounts.

    Thank you for your support!

    Tom
    19 Jun 2019, 14:40:19 UTC
    von Veröffentlicht: 19.06.2019 19:05
    1. Kategorien:
    2. Projekte

    Eine Serie sehr langer SixTrack-WUs wurde leider mit unzureichendem Festplattenlimit verschickt, sodass BOINC sie vor der Fertigstellung abbrechen würde. Daher wurden die betroffenen WUs serverseitig abgebrochen. Wer vor gestern Nachmittag WUs heruntergeladen und seither keinen Kontakt zum Projektserver hatte, sollte daher einmal das Projekt aktualisieren, damit BOINC nicht unnötigerweise versucht, diese WUs zu berechnen.

    Extrem lange SixTrack-Aufgaben abgebrochen
    Hallo zusammen,

    wir mussten etwa 10000 WUs mit den Namen w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc* wegen unzureichender Festplattenspeicheranforderung abbrechen.

    Diese Aufgaben wären ohnehin an einem bestimmten Punkt von BOINC mit der Fehlermeldung EXIT_DISK_LIMIT_EXCEEDED abgebrochen worden - siehe bitte https://lhcathome.cern.ch/lhcathome/...ad.php?id=5062 für weitere Informationen.

    Diese Aufgaben umfassen 10 Millionen LHC-Umläufe, zehnmal so viele wie üblich, und die Dateien wachsen und wachsen, bis das Limit erreicht ist.

    Nicht alle Aufgaben mit solchen Namen wurden abgebrochen - ich habe nur solche abgebrochen, welche einen stabilen Teilchenstrahl umfassen sollten; diese Aufgaben sollten lang laufen und daher das Festplattenlimit erreichen. In den anderen WUs sollten so viele Teilchen verloren gehen, dass das Limit nicht erreicht wird - bitte meldet in diesem Thread, wenn das nicht der Fall ist. Durch diese Auslese beim Abbrechen sollten so viele bereits in Bearbeitung befindliche oder auf Validierung wartende WUs wie möglich erhalten bleiben.

    Sobald ihr in eurem BOINC-Manager das Projekt LHC@home aktualisiert, sollten die Aufgaben abgebrochen werden.

    Wir werden die gleichen Aufgaben bald noch einmal mit passender Festplattenanforderung herausgeben.
    Entschuldigung für die Störung und danke für euer Verständnis.
    A.
    18.06.2019, 17:49:08 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5064
    killing extremely long SixTrack tasks
    Dear all,

    we had to kill ~10k WUs named:
    w-c*_job*__s__62.31_60.32__*__7__*_sixvf_boinc*

    due to a mismatch between the requested disk space and that actually necessary to the job.
    These tasks would anyway be killed by the BOINC manager at a certain point with an EXIT_DISK_LIMIT_EXCEEDED message - please see:
    https://lhcathome.cern.ch/lhcathome/...ad.php?id=5062
    for further info.

    These tasks cover 10^7 LHC turns, a factor 10 larger than usual, with files building up in dimension until the limit is hit.

    The killing does not involve all tasks with such names - I have killed only those that should cover the stable part of the beam; these tasks are expected to last long and hence reach the limit in disk usage. The other WUs should see enough beam losses that the limit is not reached - please post in this thread if this is not the case. The cherry-picking killing was done in the effort of preserving as much as possible tasks already being crunched or pending validation.

    As soon as you update the LHC@project on your BOINC manager you should see the task being killed.

    We will resubmit soon the same tasks, with appropriate disk requirements.
    Apologies for the disturbance, and thanks for your understanding.
    A.
    18 Jun 2019, 16:49:08 UTC
    von Veröffentlicht: 17.06.2019 21:45
    1. Kategorien:
    2. Projekte

    Die durch den hohen Andrang bei der zweiwöchentlichen Verteilung einiger weniger neuer WUs für neue Strukturen in der Kristallografie-Datenbank COD verursachten Serverprobleme haben den Administrator nun dazu bewegt, das BOINC-Projekt nicht mehr weiterzuführen.

    Das Projekt ist beendet
    Da das Projekt nicht hinreichend viele WUs für jedermann bereitstellen kann, kommt es während der WU-Erzeugung alle zwei Wochen zu massiven Überlastungen des Servers. Diese Überlastungen erschweren das Herunter-/Hochladen der WUs deutlich. Die Fortsetzung des Projektes wäre daher auch für die Teilnehmer unangenehm.

    Da nach Erreichen des Projektziels im September 2017 die über BOINC verfügbare Leistung eigentlich nicht weiter benötigt wird, denke ich, dass dies ein passender Moment ist, XANSONS for COD zu beenden.

    Ich möchte euch allen dafür danken, dem Projekt die ganze Zeit geholfen zu haben!
    16.06.2019, 22:56:13 MEZ


    Auch zu der seit einigen Wochen nicht mehr erreichbaren Ergebnisdatenbank gibt es eine Information:

    […]
    Die Datenbank der Beugungsmuster ist seit April nicht erreichbar, da das Rechenzentrum am Institute for Information Transmission Problems der Russischen Akademie der Wissenschaften, wo sie beherbergt ist (in diesem Rechenzentrum sind auch Acoustics@Home, USPEX@Home, SAT@Home, Optima@Home, Boinc.ru und einige andere nicht-BOINC-Ressourcen untergebracht), abgeschaltet ist und derzeit an einen neuen Ort umgezogen wird. Sobald das Rechenzentrum wieder läuft, wird die Datenbank wieder erreichbar sein. Der Umzug des Rechenzentrums der Akademie ist jedoch ein sehr langwieriger Prozess wegen einer Menge Bürokratie.
    16.06.2019, 22:57:01 MEZ


    Originaltexte:
    Zitat Zitat von http://xansons4cod.com/xansons4cod/forum_thread.php?id=142
    This project is finally over.
    The inability of the project to provide sufficient number of WUs for everyone provokes major server overloads during the WU generation each two weeks. These overloads significantly complicate downloading/uploading of the work. Continuing the project will cause an unpleasant experience for the participants.

    Considering that the power of BOINC is actually not required for this project since the project reached its goal in September 2017, I think this is a right moment to finally end XANSONS for COD.

    I would like to thank everyone for helping the project all that time!
    16 Jun 2019, 21:56:13 UTC
    Zitat Zitat von http://xansons4cod.com/xansons4cod/forum_thread.php?id=142&postid=751
    Also, some info about the database:

    The database of diffraction patterns is offline since April because the data center at the Institute for Information Transmission Problems of RAS in which it is hosted (also, this center is a hosting provider for the Acoustics@Home, USPEX@Home, SAT@Home, Optima@Home, Boinc.ru and some other non-boinc resources) is powered off and in the middle of moving to a new location. As soon as the data center will be powered on, the database will be back online. However, moving the academic data center to a new location is a long process because a lot of bureaucracy involved.
    16 Jun 2019, 21:57:01 UTC
    von Veröffentlicht: 17.06.2019 20:40
    1. Kategorien:
    2. Projekte

    Wie vor einigen Wochen angekündigt, wurden die letzten WUs für Unterkörper 5 (ℚ(√-5)) bei der Suche nach Zahlkörpern zehnten Grades nun verschickt. Weiter geht es mit ein paar kurzen WUs für eine Serie zum Unterkörper 6 (ℚ(√10)) und danach mit dem Rest von Unterkörper 4 (ℚ(√-2)). Der Projektverlauf kann auf dieser Seite verfolgt werden.

    Unterkörper 5 fast fertig
    Wie ihr vielleicht bemerkt habt, nähert sich Unterkörper 5 der Fertigstellung. In den nächsten Stunden werden die letzten WUs verschickt. Natürlich wird es noch etwa 2 Wochen dauern, während die letzten Ergebnisse eintrudeln, bis er offiziell fertig ist.

    Das ist ein großer Meilenstein! Die Zeit für die Fertigstellung dieses Unterkörpers wurde ursprünglich auf über ein Jahr geschätzt. Wegen der neuen optimierten Anwendungen (auch für GPUs) hat es nur wenige Monate gedauert.

    Wir werden mit Unterkörper 4 weitermachen. Aber zunächst machen wir einen kleinen Umweg und bringen Serie DS7 von Unterkörper 6 zu Ende. Lasst euch nicht von den etwa 2,5 Millionen WUs abschrecken. Diese wurden für die alten Anwendungen erzeugt und hätten etwa 2 Stunden pro Stück gebraucht, sollten mit den neueren Anwendungen aber zehnmal schneller sein. Das heißt, dass wir etwa 350000 WUs pro Tag schaffen sollten. Falls sich herausstellt, dass das zu viel Serverlast verursacht, werden wir sofort zu Unterkörper 4 springen (und Serie DS7 von Unterkörper 6 nebenher laufen lassen).

    Danke euch allen für eure Beiträge! Wir hätten das nicht ohne unsere Freiwilligen schaffen können.
    16.06.2019, 17:38:42 MEZ

    Originaltext:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/forum_thread.php?id=380
    Subfield 5 almost complete
    As you may have noticed, subfield 5 is nearing completion. In the next few hours the last of the work units will be sent out. Of course it will still take ~2weeks for the final results to trickle in before it's officially complete.

    This is a huge milestone! This subfield was originally estimated to take over a year to complete. Due to the new optimized apps (including GPU apps), this was completed in just several months.

    We will be moving on to subfield 4. But first we will make a short detour and finish off subfield 6 DS7. Don't let the ~2.5mil work units scare you. These were generated for the old apps, and would have taken about 2 hours a pop, but with the newer apps they should be about 10x faster. That means we should blow through about 350k work units per day. If this turns out to be too much of a strain on the server, then we will jump straight to subfield 4 (and run sf6 DS7 in parallel).

    Thanks everyone for your contributions! We couldn't have done this without our volunteers.
    16 Jun 2019, 16:38:42 UTC
    von Veröffentlicht: 05.06.2019 19:00
    1. Kategorien:
    2. Projekte

    Am morgigen Donnerstag, den 6. Juni, wird sich PrimeGrid eine der seltenen längeren Wartungspausen genehmigen. Es sollte nicht länger als eine Stunde dauern, der genaue Zeitpunkt ist noch unbekannt.

    Geplante Wartung
    Wir werden PrimeGrid am Donnerstag, den 6. Juni, für Wartungsarbeiten vom Netz nehmen. Wenn alles gut läuft, wird der Server weniger als eine Stunde nicht erreichbar sein.

    Ich weiß noch nicht, wann genau das geschehen wird, aber es wird wahrscheinlich nicht vor 11:00 MEZ/12:00 MESZ beginnen.

    Während der Server nicht erreichbar ist, könnt ihr euch über den Stand der Wartungsarbeiten auf unserem Discord-Server auf dem Laufenden halten: https://discord.gg/N2mCaQz .
    03.06.2019 | 23:10:37 MEZ

    Originaltext:
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=8631
    Scheduled Maintenance
    We will be taking PrimeGrid offline for maintenance on Thursday, June 6th. If all goes well, the server will be down for less than an hour.

    I'm not sure yet exactly when this will be done, but it's unlikely to start before 10:00 UTC.

    While the server is down, you can keep up with status of the maintenance on our Discord server: https://discord.gg/N2mCaQz .
    3 Jun 2019 | 22:10:37 UTC
    von Veröffentlicht: 05.06.2019 17:20
    1. Kategorien:
    2. Projekte

    SixTrack 5 ist jetzt nach Windows und Linux (64-Bit) auch für weitere Plattformen verfügbar, darunter Android und Linux auf 64-Bit-ARM-CPUs:

    Neue SixTrack-5.02.05-Anwendungen
    Liebe Freiwillige,

    wir freuen uns, die Freigabe neuer Anwendungen der aktuellen Version (v5.02.05) für den Produktivbetrieb (SixTrack) bekanntzugeben. Wir haben neue Anwendungen für FreeBSD (avx/sse2), eine Anwendung für Windows XP (32-Bit), eine aarch64-Anwendung für Linux und eine für Android. Vielen Dank an James, Kyrre und Veronica, dass sie die Zeit zum Erstellen dieser Anwendungen gefunden haben.

    Das Verteilen eine Anwendung, die mit XP-Rechnern kompatibel ist, soll niemanden ermuntern, weiterhin veraltete Betriebssysteme einzusetzen, sondern einen sanfteren Übergang auf neuere Betriebssysteme ermöglichen. Auf diese Weise verpassen Teilnehmer mit XP-Rechnern nicht die Möglichkeit, an der aktuellen Welle von SixTrack-Aufgaben (die recht lang anhalten sollte) teilzunehmen, während sie über Möglichkeiten der Aktualisierung ihrer Rechner nachdenken. Gleichzeitig versuchen wir, 32-Bit-Linux-Anwendungen vorzubereiten. Nehmt zur Kenntnis, dass alle Windows-Anwendungen ohne Filter nach bestimmten Versionen verteilt werden - daher könnten XP-Rechner die normalen Windows-Anwendungen erhalten, welche sofort abstürzen, aber der BOINC-Server sollte schnell lernen, dass die XP-kompatible Anwendung die richtige ist.

    Wir freuen uns sehr, nun auch FreeBSD- und Android-Nutzer in unseren Betrieb einzubeziehen. Für letztere Plattform laufen die aktuellen Anwendungen nicht auf Android-Version 8 oder neuer. James beschäftigt sich noch damit. Da das Scheduler-seitige Filtern nach Android-Version noch fehlerhaft ist (siehe https://github.com/BOINC/boinc/issues/3172, engl.), haben wir die Android-Anwendung als Testanwendung markiert. Daher sollten SixTrack-Teilnehmer mit Android 8 oder neuer keine Aufgaben für die entsprechenden Rechner anfordern oder die Option Die Ausführung von Testanwendung erlauben? in ihren LHC@home-Projekteinstellungen deaktivieren.

    Wir verfolgen auch die Erzeugung von Anwendungen für macOS und sollten diese bald unter sixtracktest testen können.

    Danke für eure fortwährende Unterstützung und Hilfe,
    Alessio für das SixTrack-Team
    04.06.2019, 11:17:02 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5051
    new exes for SixTrack 5.02.05
    Dear volunteers,

    we are pleased to announce the release to production (SixTrack app) of new exes for the current pro version (v5.02.05). We have new exes for FreeBSD (avx/sse2), an exe for XP hosts (32bits), an aarch64 executable for Linux, and one for Android. Many thanks to James, Kyrre and Veronica for finding the time to produce them.

    Distributing an exe compatible with XP hosts is not a way to encourage people to stay with unsupported OSs, but rather a trial to have a smooth transition to more recent OSs. In this way, people with XP hosts do not miss the possibility to contribute to the present wave of SixTrack tasks (expected to be quite long) while considering options for upgrading their hosts. At the same time, we are looking into preparing 32bits Linux exes. It should be noted that all Win exes are distributed without targeting specific kernel versions - hence, XP hosts may receive tasks with regular Windows exes immediately failing, but the BOINC server should quickly learn that the XP-compatible exe is the appropriate one.

    We are also very happy to start involving freeBSD and Android users in our production chain. For the latter platform, the present exe won't run on Android versions >=8 - James is still looking into this. Since the android version filtering needs a fix on the scheduler side:
    https://github.com/BOINC/boinc/issues/3172
    we labelled the Android exe as beta. Hence, Sixtrack beta users with Android 8 and later should not request tasks for that host or untick the test applications flag in their LHC@home project preferences.

    We are pursuing also the generation of MacOS exes, and we should test them soon on sixtracktest.

    Thanks for your continuous support and help,
    Alessio, for the SixTrack team
    4 Jun 2019, 10:17:02 UTC
    von Veröffentlicht: 30.05.2019 08:30
    1. Kategorien:
    2. Projekte

    Kurz bevor auch dieser Monat zu Ende geht, fehlt noch der Blick auf die Primzahlfunde des Vormonats. Davon gab es 123, darunter 10 Erstfunde und 3 Doublechecks von SETI.Germany-Mitgliedern.

    Erneut eine GFN-19- und nach mehrmonatiger Pause wieder eine SR5-Primzahl waren dabei, welche die Top 100 erreichten und daher bereits in den Projektnachrichten bekanntgegeben wurden:


    Acht weitere Funde hatten mehr als eine Million Dezimalstellen:
    • Die 1018745-stellige verallgemeinerte Fermat-Primzahl 59210784^131072+1 wurde am 03.04.2019 um 02:59:42 MEZ von Kellen aus Kanada mit einer NVIDIA GeForce GTX 1080 Ti in Verbund mit einem AMD Ryzen 5 1600X gefunden, wobei für den PRP-Test mit Genefer 6 Minuten 40 Sekunden benötigt wurden. Die Bestätigung erfolgte am 03.04.2019 um 04:28:41 MEZ durch PC10K (Canada) aus Kanada mit einer NVIDIA GeForce 940MX in Verbund mit einem Intel Core i7-8550U, wobei für den PRP-Test mit Genefer 1 Stunde 25 Minuten 48 Sekunden benötigt wurden.

    • Die 1018835-stellige verallgemeinerte Fermat-Primzahl 59305348^131072+1 wurde am 07.04.2019 um 03:52:05 MEZ von Grind29 aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 750 Ti in Verbund mit einem Intel Core i7-3770 gefunden, wobei für den PRP-Test mit Genefer 25 Minuten 10 Sekunden benötigt wurden. Die Bestätigung erfolgte am 07.04.2019 um 04:07:39 MEZ durch stiven (BOINC@Poland) aus Polen mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Xeon E3-1220 v3, wobei für den PRP-Test mit Genefer 11 Minuten 6 Sekunden benötigt wurden.

    • Die 1018890-stellige verallgemeinerte Fermat-Primzahl 59362002^131072+1 wurde am 09.04.2019 um 16:43:57 MEZ von 288larsson (Sicituradastra.) aus Schweden mit einer AMD Radeon VII in Verbund mit einem Intel Core i7-6800K gefunden, wobei für den PRP-Test mit Genefer 4 Minuten 46 Sekunden benötigt wurden. Die Bestätigung erfolgte am 09.04.2019 um 21:54:09 MEZ durch Luca Bertelloni aus Italien mit einer NVIDIA GeForce GTX 1050 in Verbund mit einem AMD FX-6100, wobei für den PRP-Test mit Genefer 18 Minuten 3 Sekunden benötigt wurden.

    • Die 1018931-stellige verallgemeinerte Fermat-Primzahl 59405420^131072+1 wurde am 11.04.2019 um 20:39:10 MEZ von Skligmund (Prime Ordeal Soup) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1070 in Verbund mit einem AMD Ryzen 7 1700 gefunden, wobei für den PRP-Test mit Genefer 8 Minuten 41 Sekunden benötigt wurden. Die Bestätigung erfolgte am 11.04.2019 um 22:19:33 MEZ durch Matthew D Doenges aus den Vereinigten Staaten mit einer AMD Radeon R9 360 in Verbund mit einem Intel Core i7-6700, wobei für den PRP-Test mit Genefer 45 Minuten 45 Sekunden benötigt wurden.

    • Die 1090691-stellige Proth-Primzahl 951*2^3623185+1 wurde am 11.04.2019 um 23:24:06 MEZ von 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i9-7940X gefunden, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 18 Minuten benötigt wurden. Die Bestätigung erfolgte am 11.04.2019 um 23:41:00 MEZ durch Randall J. Scalise aus den Vereinigten Staaten mit einem Intel Core i5-4590, wobei für den Primalitätstest mit LLR etwa 1 Stunden 21 Minuten benötigt wurden.

    • Die 1019037-stellige verallgemeinerte Fermat-Primzahl 59515830^131072+1 wurde am 17.04.2019 um 19:08:04 MEZ von Keith (BOINC@Denmark) aus Kanada mit einer NVIDIA GeForce GTX 1070 Ti in Verbund mit einem Intel Core i5-8400 gefunden, wobei für den PRP-Test mit Genefer 7 Minuten 56 Sekunden benötigt wurden. Die Bestätigung erfolgte am 17.04.2019 um 19:59:25 MEZ durch Medijate (The Knights Who Say Ni!) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-8700K, wobei für den PRP-Test mit Genefer 6 Minuten 43 Sekunden benötigt wurden.

    • Die 1019206-stellige verallgemeinerte Fermat-Primzahl 59692546^131072+1 wurde am 28.04.2019 um 03:50:56 MEZ von CGB (Canada) aus Kanada mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-8086K gefunden, wobei für den PRP-Test mit Genefer 7 Minuten 5 Sekunden benötigt wurden. Die Bestätigung erfolgte am 28.04.2019 um 04:45:57 MEZ durch vko (University of Maryland) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 Ti in Verbund mit einem Intel Core i9-7940X, wobei für den PRP-Test mit Genefer 5 Minuten 52 Sekunden benötigt wurden.

    • Die 1019232-stellige verallgemeinerte Fermat-Primzahl 59720358^131072+1 wurde am 29.04.2019 um 09:59:10 MEZ von dh1saj (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-3770 gefunden, wobei für den PRP-Test mit Genefer 6 Minuten 42 Sekunden benötigt wurden. Die Bestätigung erfolgte am 29.04.2019 um 12:02:58 MEZ durch TimT (Aggie The Pew) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 950 in Verbund mit einem Intel Core i7-4790K, wobei für den PRP-Test mit Genefer 19 Minuten 33 Sekunden benötigt wurden.


    Weitere 113 Primzahlen entfallen auf die anderen Subprojekte:
    • Proth Prime Search (PPS): 1 Fund: 1101*2^2720091+1 (818833 Dezimalstellen)
    • Proth Prime Search Extended (PPSE): 17 Funde im Bereich 1535128 ≤ n ≤ 1537390 (462124-462805 Dezimalstellen)
    • Sophie Germain Prime Search (SGS): 48 Funde im Bereich 4359102853317 ≤ k ≤ 4414394225787 (388342 Dezimalstellen), darunter acht Erstfunde und drei Doublechecks von DeleteNull
    • Generalized Fermat Prime Search (n=15): 26 Funde im Bereich 119831538 ≤ b ≤ 122579374 (264719-265042 Dezimalstellen)
    • Generalized Fermat Prime Search (n=16): 19 Funde im Bereich 59841338 ≤ b ≤ 61425072 (509674-510418 Dezimalstellen), darunter ein Erstfund von EmmettDe
    • Generalized Fermat Prime Search (n=17 low): 2 Funde: 15091270^131072+1 (940930 Dezimalstellen), 15147290^131072+1 (941141 Dezimalstellen)


    von Veröffentlicht: 29.05.2019 18:35
    1. Kategorien:
    2. Projekte

    Der Suchbereich der orthogonalen diagonalen lateinischen Quadrate neunter Ordnung dürfte in etwa zwei Wochen erschöpft sein. Seit wenigen Tagen wird eine Anwendung (derzeit nur für 64-Bit-Linux verfügbar) für eine Fortsetzung mit Quadraten zehnter Ordnung getestet (Subprojekt RakeSearch for rank 10). Wer für die bisherige Suche die optimierte Anwendung verwendete, wird die app_info.xml löschen oder ergänzen müssen, um WUs des neuen Subprojektes erhalten zu können. Wie lange das neue Subprojekt laufen wird, ist unklar, da der komplette Suchbereich der Quadrate zehnter Ordnung mit heutiger Rechnerkapazität nicht in überschaubarer Zeit abgearbeitet werden könnte.

    Zukunft des Projektes RakeSearch
    Liebe Leute!

    Vor zwei Tagen hat das Projekt den Meilenstein von 95% der geplanten Berechnungen erreicht. Für die aktuelle Suche verbleiben noch etwa 1 100 000 WUs. In den nächsten Tagen wollen wir ein oder mehrere WU-Bündel für eine neue Suche erzeugen - im Raum der diagonalen lateinischen Quadrate zehnter Ordnung. Anfangs werden nur für 64-Bit-Linux Aufgaben verfügbar sein, wenn diese erfolgreich laufen, wird die Windows-Anwendung veröffentlicht.
    Ein paar Worte über die neue Suche. Wir erwarten, dass eine typische Aufgabe im Durchschnitt mehr Quadrate in der gleichen Zeit bearbeitet. Wir werden einige Optimierungen in die Anwendung für die neue Suche einbauen und sie wird deutlich schneller sein als die Standardanwendung für die Suche im Raum neunter Ordnung. Auch der Suchraum selbst ist interessant. Wir vergrößern die Ordnung der Quadrate nur um einen Schritt, von 9 auf 10. Derzeit verwenden wir für die WU-Namen das Format R9_<8 Ziffern> (z.B. R9_022248939) und die erste Ziffer ist stets 0. Aber wenn wir alle WUs der neuen Suche durchnummerieren wollten, müssten wir ein Format wie _0000000000000001 benutzen! (Wir kennen die genaue Anzahl der WUs für eine vollständige Suche im Raum zehnter Ordnung nicht, aber eine grobe Schätzung sind 160 Billionen WUs). Die aktuelle Suche besteht aus 23 Millionen WUs, aber die vollständige Suche im Raum zehnter Ordnung wäre etwa 7 Millionen Mal so groß! Natürlich können wir keine solche Suche durchführen. Nicht einmal mit neuen Ryzen-CPUs.
    Außerdem wissen wir nicht, ob "permutationelle" orthogonale diagonale lateinische Quadrate zehnter Ordnung überhaupt existieren.
    Aus diesen Gründen planen wir, nur einen kleinen Teil des gesamten Suchraums abzudecken - vielleicht 1 Million WUs, vielleicht mehr, aber wir wollen keine endlose Suche ohne irgendwelche Ergebnisse durchführen, da es viele andere interessante und nützliche Projekte gibt.

    Vielen Dank für eure Aufmerksamkeit und Teilnahme!
    26.05.2019, 22:21:30 MEZ

    Originaltext:
    Zitat Zitat von https://rake.boincfast.ru/rakesearch/forum_thread.php?id=176
    Future of the RakeSearch project
    Dear folks!

    Two days ago the project reached a milestone of 95% of completion. As part of the current search, it remains to process about 1100 000 workunits. In the next few days, we plan to generate one or several bunches of workunits for new search - in space of diagonal Latin squares of rank 10. Initially, tasks only under Linux x86-64 platform will be available, if their processing is successful, the application for Windows will be released.
    A few words about the new search. We expect that an typical task will process more squares for the same time (on average). In the application for a new search, we implement some optimizations and it will be significantly faster than default application for search in space of rank 9. Another interesting thing - the search space, itself. We increase a square rank by only one stage - from 9 to 10. Currently, for workunit names we use a format R9_<8 digits> (R9_022248939 for example) and first digit from tuple - always 0. But for the naming of workunits for a new search, if we try to count all of them, we must use a format like _0000000000000001! (We don't know the number of workunits for full search in space of rank 10 precisely, but rough estimate - about 160 millions of millions of workunits). The current search comprises 23 000 000 workunits, but the full search in rank 10 space targets about 7 000 000 searches of rank 9! Of course, we cannot perform a search like this. Even with new Ryzens.
    Also, today we do not know whether or not "permutational" orthogonal diagonal Latin squares of rank 10 exist.
    For the reasons listed below, we plan to perform a search over a tiny part of entire search space - may be 1 million of workunits, may be larger, but we don't want to run an endless search without any results, because many other interesting and useful projects exist.

    Thank you for attention and participation!
    26 May 2019, 21:21:30 UTC
    von Veröffentlicht: 29.05.2019 17:20
    1. Kategorien:
    2. Projekte

    Die Wissenschaftler hinter SixTrack bedanken sich noch einmal explizit für die Zusatzleistung durch den Sprint beim vergangenen BOINC Pentathlon. Kürzlich ist zudem ein Artikel im Fachjournal Physical Review Accelerators and Beams erschienen, der die Ergebnisse früherer Berechnungen über LHC@home verwendet.

    BOINC Pentathlon 2019 ist vorbei - ein großer Dank vom SixTrack-Team!
    Liebe Freiwillige,

    der Pentathlon 2019 ist vorbei und wir möchten allen Teilnehmern dafür danken, unsere WUs gecruncht zu haben! Die unter BOINC zur Verfügung stehende CPU-Leistung hat sich fast verdoppelt und unsere Berechnungen beschleunigt, auch wenn es nur für ein paar Tage war. Wir sind dafür sehr dankbar!

    Das SixTrack-Team möchte auch all euch Freiwilligen danken, die uns regelmäßig mit ihren CPUs unterstützen. Ihr gebt uns die Möglichkeit, unser Verständnis der Dynamischen Apertur zu vertiefen, einer Größe von höchster Wichtigkeit für die Stabilität von Teilchenstrahlen in großen Beschleunigern wie supraleitenden Speicherringen. Zu guter Letzt ein brandneuer Artikel im wichtigsten Journal im Feld der Beschleunigerphysik, welcher Simulationen und Messungen vergleicht, wobei die Simulationsergebnisse dank euch und BOINC erzielt wurden:
    https://journals.aps.org/prab/pdf/10...eams.22.034002 (engl.)

    Viel wurde schon mit eurer Hilfe erreicht, aber in der nächsten Zeit wird noch viel mehr kommen. Wir zählen auf eure Unterstützung!
    Macht weiter so,
    Alessio und Massimo für das SixTrack-Team
    20.05.2019, 9:00:15 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5036
    2019 BOINC Pentathlon is over - a big thank you from the SixTrack team!
    Dear volunteers,

    the 2019 pentathlon is over, and we would like to thank all the participants for having crunched our tasks! We saw the BOINC CPU capacity almost doubled, boosting our calculations, even though it was only for few days. We are very grateful for that!

    The SixTrack team would also like to thank all you volunteers who regularly support us with your CPUs. You give us the possibility to deepen our understanding of the dynamic aperture, a quantity of paramount importance for the stability of particle beams in big research accelerators like superconducting colliders - last but not least a very recent paper on the most important journal in the field of accelerator physics, comparing simulations and measurements:
    https://journals.aps.org/prab/pdf/10...eams.22.034002
    where simulation results have been obtained thanks to you and BOINC!

    A lot has been already done with your help, but a lot more has still to come in the next future. We count on your support!
    Keep up the good work,
    Alessio and Massimo, for the SixTrack team
    20 May 2019, 8:00:15 UTC
    von Veröffentlicht: 28.05.2019 19:00
    1. Kategorien:
    2. Projekte

    Zwei weitere verallgemeinerte Riesel-Vermutungen wurden in den vergangenen Wochen bewiesen. Zum einen ist k=74 die kleinste verallgemeinerte Riesel-Zahl zur Basis b=875:

    Basis R875 bewiesen
    Am 22. April hat whizbang, Mitglied des Teams Ars Technica, die letzte Primzahl zur Basis R875 gefunden.
    Die Primzahl 38*875^256892-1 hat 755780 Dezimalstellen und erreicht die Top 5000 in Chris Caldwells Datenbank der größten bekannten Primzahlen.
    19.05.2019, 15:49:09 MEZ


    Zum anderen ist k=50 die kleinste verallgemeinerte Riesel-Zahl zur Basis b=951, wie durch einen Megaprimzahlfund für das letzte verbliebene kleinere k bewiesen wurde:

    Basis R951 bewiesen / Megaprimzahl
    Am 4. Mai hat whizbang, Mitglied des Teams Ars Technica, die letzte Primzahl zur Basis R951 gefunden.
    Die Primzahl 34*951^371834-1 hat 1107391 Dezimalstellen und erreicht die Top 5000 in Chris Caldwells Datenbank der größten bekannten Primzahlen.
    25.05.2019, 9:50:35 MEZ


    Originaltexte:
    Zitat Zitat von http://srbase.my-firewall.org/sr5/forum_thread.php?id=1182
    base R875 proven
    On 22th of April, whizbang, a member of the team Ars Technica found the last prime for base R875.
    The prime 38*875^256892-1 has 755780 digits and entered the TOP5000 in Chris Caldwell's The Largest Known Primes Database.
    19 May 2019, 14:49:09 UTC
    Zitat Zitat von http://srbase.my-firewall.org/sr5/forum_thread.php?id=1186
    base R951 proven / Megaprime
    On 04th of May, whizbang, a member of the team Ars Technica found the last prime for base R951.
    The prime 38*875^256892-1 [sic!] has 1.107.391 digits and entered the TOP5000 in Chris Caldwell's The Largest Known Primes Database.
    25 May 2019, 8:50:35 UTC
    Seite 1 von 64 1 2 3 11 51 ... Letzte
Single Sign On provided by vBSSO