• Projekte

    von Veröffentlicht: 07.05.2019 10:45
    1. Kategorien:
    2. Projekte

    Der gestern begonnene Stadtlauf beim diesjährigen BOINC Pentathlon hat bereits einen nennenswerten Faktorenfund beim Subprojekt ECM hervorgebracht (gefunden von Tom Turbo aus dem Team Planet 3DNow!). Wer der Aufforderung des Projektadministrators in der zum Start veröffentlichten Meldung folgen möchte, sollte jedoch reichlich RAM mitbringen.

    Willkommen an die Pentathlon-Wettkampfteams
    Unser kleiner Server kämpft schwer mit all den geleerten Bunkern, besonders zum Anfang. Wir haben einige Maßnahmen ergriffen, um mit der Last klarzukommen. Wenn jedoch viele Puffer gleichzeitig geleert werden, wird der Transitioner Zeit brauchen, alle zu bearbeiten.

    Beim Subprojekt ECM wurde ein 63-stelliger Primfaktor einer Cullen/Woodall-Zahl gefunden, der die gmp-ecm-Top10-Liste für dieses Jahr erreichen wird.

    Habt Spaß und schnappt euch mehr von den ECM-P2-WUs!

    yoyo
    06.05.2019

    Originaltext:
    Zitat Zitat von https://www.rechenkraft.net/yoyo/
    Welcome Penta Racing Teams
    Our small server heavily fights with all flushed buffers, especially at the beginning. We did some measures to handle the load. But if many buffers will be flushed at the same time, the transitioner will need time to handle all.

    In the ECM project a 63 digit prime as a factor of a CullenWoodall number was found, which will make it into the gmp-ecm Top 10 list for this year.

    Have fun and take more of the ECM P2 workunits!

    yoyo
    6 May 2019
    von Veröffentlicht: 05.05.2019 17:50
    1. Kategorien:
    2. Projekte

    Der fünfte Unterkörper (ℚ(√-5)) bei der Suche nach Zahlkörpern zehnten Grades ist nun fast abgearbeitet. Die WUs der letzten Serie wurden wegen der kürzlich optimierten Anwendung deutlich verlängert, sodass aber auch deutlich weniger WUs berechnet werden müssen. Allerdings werden auch einige bereits vor einiger Zeit vorbereitete WUs für den sechsten Unterkörper (ℚ(√10)) eingestreut, die im Schnitt deutlich kürzer sind.

    Unterkörper 5 erreicht die Schlussphase
    Die letzte Serie von Unterkörper 5 ist angebrochen (16x12).

    Dies ist die erste WU-Serie, die nach der Optimierung der Anwendung erzeugt wurde. Daher werden die Laufzeiten steigen. Diese WUs laufen durchschnittlich 2 Stunden auf meinem AMD Ryzen 2990WX. Es gibt 1,6 Millionen dieser WUs; mit der nicht optimierten Anwendung hätte es 16 Millionen gebraucht, das ist also eine riesige Verbesserung.

    Ich werde in diese Serie einige WUs zu Unterkörper 6 einstreuen. Diese wurden vor einiger Zeit für die nicht optimierte Anwendung erzeugt und werden daher vergleichsweise schnell laufen. Falls ich diese separat laufen lassen würde, könnte dies zu hohe Serverlast erzeugen, daher habe ich mir das als einen guten Weg überlegt, um diese WUs zu erledigen (ohne sie neu erzeugen zu müssen, was mühsam sein kann).
    04.05.2019, 19:25:13 MEZ

    Originaltext:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/forum_thread.php?id=371
    Subfield 5 entering final phase
    Subfield 5 is now on it's final batch (16x12).

    This is the first batch of WUs generated since the app was optimized. As a result, run times will be going up. These WUs average 2 hour run times on my AMD Ryzen 2990WX. Note there are 1.6 million of them; with the unoptimized app it would have required 16 million, so this is a huge improvement.

    I will be mixing in some subfield 6 WUs with this batch. These were generated a while ago for the unoptimized app, so will run very quickly by comparison. If I were to run them independently, it might put too much of a strain on the server, so I figured this is a good way to get them done (without having to re-generate them which can be tedious).
    4 May 2019, 18:25:13 UTC
    von Veröffentlicht: 03.05.2019 23:30
    1. Kategorien:
    2. Projekte

    Eine komplett überarbeitete Version des SixTrack-Programms hat nun ihren Weg in das BOINC-Projekt gefunden, bisher für Windows (32- und 64-Bit) und Linux (64-Bit) jeweils in einer SSE2- und einer AVX-optimierten Fassung. Neue WUs gab es bisher nur wenige, aber die neuen Funktionen eröffnen so viele neue Möglichkeiten, dass künftige Leerläufe wohl erstmal nicht mehr so lange anhalten sollten wie die nun beendete Pause.

    Neue SixTrack-Version 5.02.05 unter BOINC für Produktivbetrieb freigegeben
    Liebe Freiwillige,

    nach einer langen Entwicklungs- und Testphase freuen wir uns bekanntzugeben, dass wir unter BOINC eine neue Hauptversion von SixTrack haben. Das Entwicklerteam hat eindrucksvolle Arbeit beim Restrukturieren des Codes gemacht, Arrays in dynamische Speicherzuweisung überführt, den Quellcode (der in wenigen, riesigen Quelldateien zusammengefasst war) in fortran90-Module aufgespaltet, die Wartung vereinfacht und eine Menge doppelten Code und riesige Arrays gelöscht - von unzähligen behobenen Problemen, Aktualisierungen der Dokumentation, umgeschriebener Eingabeauswertung sowie Verbesserungen des Erstellungssystems und der Testumgebung ganz zu schweigen.

    Wir haben auch eine Reine neuer Funktionen eingebaut. Die meisten davon sind noch nur auf dem Batch-System am CERN verfügbar (z.B. die Verknüpfung mit Geant4 oder Pythia, Kopplung an FLUKA oder anderen externen Code, Unterstützung für ROOT und HDF5), aber viele können bereits in BOINC-Aufgaben ausgeliefert werden, etwa die Prüfung der Apertur zur Laufzeit, Elektronenlinsen, verallgemeinerte Radiofrequenz-Multipole, Quadrupol-Randfelder und das Hashen von Dateien zwecks Überprüfung. All diese neuen Funktionen werden es uns ermöglichen, neue Maschinenkonfigurationen zu untersuchen und Ergebnisse zu verfeinern, und wir zählen auf eure Unterstützung!

    Vielen Dank nochmals für eure Unterstützung und macht weiter so!

    Alessio für das SixTrack-Team
    03.05.2019, 17:01:25 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5011
    new SixTrack version 5.02.05 released on BOINC for production
    Dear volunteers,

    after a long period of development and testing, we are pleased to announce that we have on BOINC a new major release of SixTrack. The development team made an impressive job to re-factorise the code, porting arrays to dynamic memory allocation, splitting the source code (gathered in few, huge source files) into fortran90 modules, making maintenance easier and deleting a lot of duplicated code and massive arrays - without mentioning countless bug fixes, documentation updates, re-written input parsing, improved build system and test suite.

    We have also implemented plenty of new features. Most of them are still available only on the batch system as CERN (e.g. linking to Geant4 or Pythia, running coupled to FLUKA or other external codes, support for ROOT and HDF5), but many of them can be already deployed by BOINC jobs, like on-line aperture checking, electron lenses, generalised RF-multipoles, quadrupole fringe fields, and hashing of files for checks. All these new features will allow us to study new machine configurations and refine results, and we count on your help!

    Thanks again for your support, and keep up the good work!

    Alessio, for the SixTrack Team
    3 May 2019, 16:01:25 UTC
    von Veröffentlicht: 30.04.2019 20:45
    1. Kategorien:
    2. Projekte

    Geplante Wartung am Mittwoch, 1. Mai 2019

    Zusammenfassung
    Wir aktualisieren das Betriebssystem auf unseren Servern am Mittwoch, den 1. Mai, um 21:00 MEZ.
    ---
    Wir werden am Mittwoch, den 1. Mai, um 21:00 Uhr MESZ ein wichtiges Betriebssystem-Update auf unseren Servern durchführen. Wir erwarten, dass die Arbeit ungefähr zwei Stunden dauern wird.

    Eine Zeit lang können die Teilnehmer keine neuen Arbeiten hochladen oder herunterladen und die Webseite ist nicht zugänglich.

    Die Teilnehmer müssen keine besonderen Maßnahmen ergreifen, da Ihre Geräte nach Abschluss der Wartungsarbeiten ihre Verbindungen automatisch wiederherstellen.

    Wir bedanken uns für Ihre Geduld und Ihre Teilnahme.
    30.04.2019

    Originaltext:
    Zitat Zitat von https://www.worldcommunitygrid.org/about_us/viewNewsArticle.do?articleId=594
    Planned Maintenance on Wednesday, May 1, 2019

    Summary
    We are updating the operating system on our servers on Wednesday, May 1, beginning at 19:00 UTC.
    ---
    We will be applying an important operating system update to our servers on Wednesday, May 1, beginning at 19:00 UTC. We anticipate that the work will take approximately two hours.

    During some of this time, volunteers will not be able to upload or download new work, and the website will not be accessible.

    Volunteers will not need to take any particular action, as your devices will automatically retry their connections after the maintenance work is completed.

    We appreciate your patience and participation.
    30 Apr 2019
    von Veröffentlicht: 28.04.2019 09:50
    1. Kategorien:
    2. Projekte

    Eine längere Durststrecke bei SR5-LLR seit den Funden zwischen Juni und August 2018 hat nun ihr Ende gefunden:

    Neue SR5-Megaprimzahl!
    Am 26. April 2019 um 14:27:42 MEZ hat PrimeGrids Subprojekt Sierpinski/Riesel Base 5 Problem k=138514 durch Finden einer Megaprimzahl eliminiert:

    138514*5^2771922+1

    Die Primzahl hat 1937496 Dezimalstellen, erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 63 insgesamt und ist die größte bekannte ...
    von Veröffentlicht: 26.04.2019 18:15
    1. Kategorien:
    2. Projekte

    Eine weitere verallgemeinerte Riesel-Vermutung ist nun bewiesen: k=50 ist das kleinste k, zu dem keine Primzahl der Form k*832^n-1 existiert.

    Basis R832 bewiesen
    Am 20. April hat Doug, Mitglied von Gridcoin, die letzte Primzahl zur Basis R832 gefunden.
    Die Primzahl 35*832^332073-1 hat 969696 Dezimalstellen und erreicht die Top 5000 in Chris Caldwells Datenbank der größten bekannten Primzahlen.

    Großartig!
    25.04.2019, 20:34:24 MEZ


    Leider kommt es immer wieder vor, dass gefundene Primzahlen unter dem Namen des Administrators in die Datenbank der größten bekannten Primzahlen eingetragen werden, da der Finder nur eine Privatnachricht erhält und innerhalb von fünf Tagen selbst die Meldung vornehmen soll. Daher wird dringend empfohlen, in den Communityeinstellungen E-Mail-Benachrichtigungen über neue Privatnachrichten zu aktivieren:

    Primzahlmeldung
    Ich möchte euch eine kurze Information zum Melden von Primzahlen geben.

    Ihr müsst auf einige Dinge aufpassen.

    Aktiviert die E-Mail-Benachrichtigung, das ist sehr wichtig, damit ihr eine Nachricht bekommt, wenn ihr eine Primzahl gefunden habt, damit ihr diese innerhalb von 5 Tagen melden könnt. Das Zeitfenster ist so kurz, weil ich neue Arbeit vorbereiten muss und erledigte Arbeit an CRUS melden muss. Wenn ihr nicht rechtzeitig eure E-Mails lesen und die Primzahl melden könnt, sendet mir eine Privatnachricht und ich werde Chris Caldwell bitten, die vom Projekt gemeldete Primzahl auf euer Benutzerkonto zu übertragen.

    Nur meine bescheidene Meinung...
    25.04.2019, 20:26:53 MEZ


    Originaltexte:
    Zitat Zitat von http://srbase.my-firewall.org/sr5/forum_thread.php?id=1171
    base R832 proven
    On 20th of April, Doug, a member of the team Gridcoin found the last prime for base R832.
    The prime 35*832^332073-1 has 969696 digits and entered the TOP5000 in Chris Caldwell's The Largest Known Primes Database.

    Great!
    25 Apr 2019, 19:34:24 UTC
    Zitat Zitat von http://srbase.my-firewall.org/sr5/forum_thread.php?id=1169
    prime reporting
    I want to give you guys a short info about the prime reporting.

    You need to pay attention on some things.

    Enable email notification, thats very important that you get a message where you have found a prime to report it in 5 days. I have this short time because I must setup new work and report work to CRUS. If you cant check emails and report it in time then you can leave me a PM and I can ask Chris Caldwell to transfer the prime reported by the project to your account.

    Just my 2c...
    25 Apr 2019, 19:26:53 UTC
    von Veröffentlicht: 25.04.2019 16:55
    1. Kategorien:
    2. Projekte

    Das Projektteam hat kürzlich Zuwachs bekommen:

    Neuer MilkyWay@home-Wissenschaftler
    Hallo zusammen!

    Mein Name ist Tom Donlon. Ich habe schon seit einigen Jahren mit Prof. Newberg an einer Reihe von Themen zu Mehrkörpersimulationen und dem Ursprung der galaktischen Substruktur zusammengearbeitet. Ich werde nun dazu übergehen, als Doktorand zu arbeiten, und werde für meine Doktorarbeit an einem Projekt mit Bezug zur Separation-Anwendung arbeiten. Daher werde ich Unterstützung für diese Anwendung leisten und von Jake lernen, den Betrieb des Servers aufrechtzuerhalten. Bitte seid verständnisvoll während meiner Einarbeitungsphase.

    Vielen Dank für eure fortwährende Unterstützung und ich freue mich darauf, euch alle kennenzulernen.

    Mit freundlichem Gruß,
    Tom
    10.04.2019, 19:06:14 MEZ


    Außerdem gab es eine neue Version der Anwendung für das reine CPU-Subprojekt Milkyway@home N-Body Simulation. Anders als die bisherigen Versionen kann diese nicht mehr mehrere CPU-Kerne für dieselbe WU benutzen.

    Neue Version von MilkyWay Nbody
    Hallo zusammen,
    wir haben gerade eine neue Version der MilkyWay@home-Nbody-Anwendung veröffentlicht. Wir haben noch keine neuen Durchläufe dafür gestartet. Wir werden in der nächsten oder der darauffolgenden Woche neue Durchläufe starten. Danke für eure fortwährende Unterstützung!
    -Eric Mendelsohn
    23.04.2019, 16:16:54 MEZ


    Die Ausgabe der neuen WUs ging dann schneller als angekündigt, zumal auch die noch im System befindlichen alten WUs nicht mehr kompatibel waren.

    Neue Durchläufe für MilkyWay Nbody
    Hallo zusammen,
    ich wollte euch wissen lassen, dass die neuen Durchläufe für die neueste Version der MilkyWay@home-Nbody-Anwendung gerade veröffentlicht wurden. Die Namen dieser neuen Durchläufe lauten:
    -de_nbody_04_23_2019_v176_40k__data__1
    -de_nbody_04_23_2019_v176_40k__data__2
    -de_nbody_04_23_2019_v176_40k__data__3
    Ich bitte, die Unannehmlichkeiten in den letzten Tagen zu entschuldigen. Falls ihr irgendwelche Probleme mit diesen Durchläufen habt, lasst es mich bitte in diesem Thread (engl.) wissen und ich werde versuchen, sie so schnell wie möglich zu beheben.
    Damit ihr Bescheid wisst: Einige der Änderungen, die wir in dieser Nbody-Version vorgenommen haben, benötigen Durchläufe, die extrem lange Rechenzeiten und sofortige Rückmeldungen benötigt hätten. Daher könnte die Punktevergabe für Nbody ein wenig seltsam sein, bis der Server sich auf die neue durchschnittliche Laufzeit eingestellt hat. Nehmt auch zur Kenntnis, dass Multithreading nicht mehr unterstützt wird.
    Nochmals danke für eure fortwährende Unterstützung.
    -Eric Mendelsohn
    23.04.2019, 22:07:28 MEZ


    Originaltexte:
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/forum_thread.php?id=4428
    New MilkyWay@home Scientist
    Hey Everyone!

    My name is Tom Donlon. I have worked with Prof. Newberg for several years now on a variety of topics involving n-body simulations and the origin of galactic substructure. I will be transitioning to working as a graduate student and will be working on a project involving the separation application for my thesis. As such I will be providing support for this application and learning how to maintain the server from Jake. Please be gentle during my transition.

    Thank you for your continued support and I look forward to getting to know all of you.

    Best,
    Tom
    10 Apr 2019, 18:06:14 UTC
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/forum_thread.php?id=4438
    New version of MilkyWay Nbody
    Hello all,
    We have just released a new version of the MilkyWay@home Nbody application. We have not put up new runs for this yet. We will be putting up new runs next week or the following week. Thank you for your support!
    -Eric Mendelsohn
    23 Apr 2019, 15:16:54 UTC
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/forum_thread.php?id=4439
    New runs of MilkyWay Nbody out
    Hello all,
    I just wanted to let you know that new runs for the newest version of the MilkyWay@home Nbody program have just been released. The names of these new runs are:
    -de_nbody_04_23_2019_v176_40k__data__1
    -de_nbody_04_23_2019_v176_40k__data__2
    -de_nbody_04_23_2019_v176_40k__data__3
    I apologize for any inconveniences over the last few days. If you have any issues with these runs, please let me know on this thread and I will try to sort them out as quickly as I can.
    Just so you know, some of the changes we made for this nbody version take runs that would've taken extremely long times to compute and return success immediately. As such, credit for nbody may be a little strange until the server recognizes the new average runtime. Also note that there is no longer support for multi-threaded.
    Again, thank you all for your continued support.
    -Eric Mendelsohn
    23 Apr 2019, 21:07:28 UTC
    von Veröffentlicht: 19.04.2019 18:10
    1. Kategorien:
    2. Projekte

    Der März brachte erwartungsgemäß wieder weniger Primzahlfunde als der Februar, unter den 128 Funden war jedoch immerhin die erste Top-100-Primzahl von PrimeGrid in diesem Jahr. 22-mal sind Mitglieder von SETI.Germany als Erstfinder in Aktion getreten, 6-mal als Doublechecker.

    Der Top-100-Fund gelang bei GFN-19 und wurde bereits in den Projektnachrichten bekanntgegeben:
    • 2733014^524288+1, 3374655 Dezimalstellen, gefunden von Yair Givoni (Team: The Planetary Society) aus Israel am 18.03.2019 um 08:26:42 MEZ


    Es gab acht weitere Megaprimzahlfunde:
    • Die 1087414-stellige Proth-Primzahl 1005*2^3612300+1 wurde am 01.03.2019 um 13:02:33 MEZ von 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i7-4770K gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 18 Minuten benötigt wurden. Die Bestätigung erfolgte am 01.03.2019 um 18:03:19 MEZ durch usverg aus Russland mit einem Intel Core i5-3470, wobei für den Primalitätstest mit LLR etwa 3 Stunden 2 Minuten benötigt wurden.

    • Die 1018006-stellige verallgemeinerte Fermat-Primzahl 58447642^131072+1 wurde am 03.03.2019 um 03:51:27 MEZ von DeleteNull (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1070 Ti in Verbund mit einem Intel Core i7-6700K gefunden, wobei für den PRP-Test mit Genefer 7 Minuten 31 Sekunden benötigt wurden. Die Bestätigung erfolgte am 03.03.2019 um 03:54:29 MEZ durch Robert Hoffman aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 Ti in Verbund mit einem Intel Core i9-7980XE, wobei für den PRP-Test mit Genefer6 Minuten 41 Sekunden benötigt wurden.

    • Die 1018006-stellige verallgemeinerte Fermat-Primzahl 58447816^131072+1 wurde am 03.03.2019 um 04:05:20 MEZ von DeleteNull (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-7820X gefunden, wobei für den PRP-Test mit Genefer 6 Minuten 52 Sekunden benötigt wurden. Die Bestätigung erfolgte am 03.03.2019 um 05:40:14 MEZ durch Medijate (The Knights Who Say Ni!) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-8700K, wobei für den PRP-Test mit Genefer 6 Minuten 51 Sekunden benötigt wurden.

    • Die 1018080-stellige verallgemeinerte Fermat-Primzahl 58523466^131072+1 wurde am 05.03.2019 um 11:52:41 MEZ von Dad (Storm) aus Australien mit einer NVIDIA GeForce GTX 1070 Ti in Verbund mit einem Intel Core i7-8700K gefunden, wobei für den PRP-Test mit Genefer 9 Minuten 28 Sekunden benötigt wurden. Die Bestätigung erfolgte am 05.03.2019 um 12:26:50 MEZ durch [AF>EDLS]GuL (L'Alliance Francophone) aus Frankreich mit einer NVIDIA GeForce GTX TITAN Black in Verbund mit einem Intel Core i7-4790K, wobei für den PRP-Test mit Genefer 11 Minuten 38 Sekunden benötigt wurden.

    • Die 1087935-stellige Proth-Primzahl 95*2^3614033+1 wurde am 06.03.2019 um 15:28:59 MEZ von LucasBrown (XKCD) aus den Vereinigten Staaten mit einem Intel Core i7-6700K gefunden, wobei für den Primalitätstest mit LLR etwa 50 Minuten benötigt wurden. Die Bestätigung erfolgte am 06.03.2019 um 22:11:43 MEZ durch royanee (PrimeSearchTeam) aus den Vereinigten Staaten mit einem Intel Core i7-6700, wobei für den Primalitätstest mit LLR etwa 2 Stunden 8 Minuten benötigt wurden.

    • Die 1018145-stellige verallgemeinerte Fermat-Primzahl 58589880^131072+1 wurde am 08.03.2019 um 02:01:21 MEZ von vko (University of Maryland) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 Ti in Verbund mit einem Intel Core i9-7940X gefunden, wobei für den PRP-Test mit Genefer 5 Minuten 59 Sekunden benötigt wurden. Die Bestätigung erfolgte am 08.03.2019 um 02:12:29 MEZ durch Robert Hoffman aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 Ti in Verbund mit einem Intel Core i9-7980XE, wobei für den PRP-Test mit Genefer 6 Minuten 22 Sekunden benötigt wurden.

    • Die 1089299-stellige Proth-Primzahl 485*2^3618563+1 wurde am 22.03.2019 um 15:35:16 MEZ von ext2097 (SETIKAH@KOREA) aus der Republik Korea mit einem Intel Xeon E3-1231 v3 gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 18 Minuten benötigt wurden. Die Bestätigung erfolgte am 22.03.2019 um 17:37:46 MEZ durch beijinghouse mit einem Intel Xeon E5-2680 v2, wobei für den Primalitätstest mit LLR etwa 2 Stunden 41 Minuten benötigt wurden.

    • Die 1018697-stellige verallgemeinerte Fermat-Primzahl 59161754^131072+1 wurde am 31.03.2019 um 18:43:47 MEZ von Frank aus den Niederlanden mit einer NVIDIA GeForce RTX 2080 in Verbund mit einem AMD Ryzen 7 2700X gefunden, wobei für den PRP-Test mit Genefer 4 Minuten 20 Sekunden benötigt wurden. Die Bestätigung erfolgte am 31.03.2019 um 19:27:03 MEZ durch pons66 (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 970 in Verbund mit einem Intel Core i7-5820K, wobei für den PRP-Test mit Genefer 14 Minuten 25 Sekunden benötigt wurden.


    Auch ein erweiterter verallgemeinerter Fermatzahl-Teiler wurde gefunden:
    • Die 461652-stellige Proth-Primzahl 1303*2^1533564+1 ist ein Teiler der erweiterten verallgemeinerten Fermat-Zahl xGF(1533561,8,5)=8^2^1533561+5^2^1533561. Sie wurde am 12.03.2019 um 15:15:46 MEZ von yank (Aggie The Pew) aus den Vereinigten Staaten mit einem Intel Core i7-7700 gefunden, wobei für den Primalitätstest mit LLR etwa 17 Minuten benötigt wurden. Die Bestätigung erfolgte am 12.03.2019 um 19:51:02 MEZ durch BenCovert (Parker Square) aus den Vereinigten Staaten mit einem Intel Core i3-7100U, wobei für den Primalitätstest mit LLR etwa 32 Minuten benötigt wurden.


    Die weiteren 118 Primzahlfunde verteilen sich wie folgt auf die Subprojekte:
    • Proth Prime Search (PPS): 1 Fund: 569*2^2711451+1 (816231 Dezimalstellen)
    • Proth Prime Search Extended (PPSE): 22 Funde im Bereich 1532479 ≤ n ≤ 1534801 (461326-462025 Dezimalstellen), darunter ein Erstfund und ein Doublecheck von Patrick Schmeer, je ein Erstfund von Flow und ID4 sowie ein Doublecheck von pan2000
    • Sophie Germain Prime Search (SGS): 51 Funde im Bereich 4309361479185 ≤ k ≤ 4358030432787 (388342 Dezimalstellen), darunter zwölf Erstfunde und drei Doublechecks von DeleteNull sowie ein Erstfund von JayPi
    • Generalized Fermat Prime Search (n=15): 26 Funde im Bereich 116322280 ≤ b ≤ 119482198 (264296-264678 Dezimalstellen), darunter drei Erstfunde von boss sowie ein Erstfund von Patrick Schmeer
    • Generalized Fermat Prime Search (n=16): 16 Funde im Bereich 57955358≤ b ≤ 59282734 (508763-509407 Dezimalstellen)
    • Generalized Fermat Prime Search (n=17 low): 2 Funde: 14613898^131072+1 (939101 Dezimalstellen), 14790404^131072+1 (939784 Dezimalstellen)


    von Veröffentlicht: 19.04.2019 11:00
    1. Kategorien:
    2. Projekte

    Außer dem kürzlich erwähnten Artikel wurde im letzten Jahr noch eine weitere Arbeit zum Gravitationswellenereignis GW170817 bei Astronomy & Astrophysics eingereicht. Demnach ergeben sich in den Simulationen tendenziell eher kurze Zeiträume zwischen Abschluss der Entstehung der ursprünglichen Doppelsterne und der Verschmelzung der daraus hervorgegangenen Neutronensternpaare (als Verzögerungszeit bezeichnet), was derzeitig zu Abweichungen zwischen Simulationen und Beobachtungen führt.

    Weiterer Artikel über GW170817
    Bitte entschuldigt die späte Benachrichtigung!

    Weitere Forschungsergebnisse über die berühmte Quelle GW170817, welche mit Universe@Home erhaltene Daten verwenden, wurden im vergangenen Jahr veröffentlicht. In dieser Studie wurde gezeigt, dass die Verschmelzungsraten von Doppel-Neutronensternen (aus einer direkten Beobachtung berechnet) weiterhin den Erwartungen aus den Beobachtungen von Doppelpulsaren in der Milchstraße widersprechen. Grund dafür ist die Verzögerungszeitverteilung, welche kürzere Verzögerungszeiten bevorzugt. Die Studie betont das Problem, auf welches Wissenschaftler beim Versuch stoßen, die Entwicklungsvorhersagen und die Beobachtungen der ersten Neutronensternverschmelzung zu verknüpfen.

    Der Originalartikel ist hier zu finden:
    https://arxiv.org/abs/1812.10065 (engl.)
    19.04.2019, 6:25:22 MEZ

    Originaltext:
    Zitat Zitat von https://universeathome.pl/universe/forum_thread.php?id=413
    Another paper on GW170817
    Sorry for late notification!

    Another research on the famous GW170817 source, which used data obtained from the Universe@Home project, have been published last year. In this study, it was shown that the merger rates of double neutron stars (calculated from one direct observation) stay in contradiction with these inferred from the observations of double pulsars in our Galaxy. The reason behind this tension is the delay time distribution which favours short delays. The study highlights the problem that scientist encounter trying to connect evolutionary predictions and the observations of the first double neutron star merger.

    The original paper can be found here:
    http://adsabs.harvard.edu/abs/2018arXiv181210065B
    19 Apr 2019, 5:25:22 UTC
    von Veröffentlicht: 19.04.2019 10:25
    1. Kategorien:
    2. Projekte

    Seit gestern können die Ergebnisse des Subprojektes CMS Simulation nicht mehr auf den Hintergrundspeicher geschrieben werden. Aus Teilnehmersicht fällt das nicht sofort auf, aber das Projekt bittet darum, vorerst keine neuen Aufgaben dieses Subprojektes zu bearbeiten.

    Problem beim Schreiben der Ergebnisse von CMS-Aufgaben; bitte meidet CMS-Aufgaben, bis wir den Grund gefunden haben
    Seit irgendwann in der letzten Nacht scheinen die CMS-Aufgaben ihre Ergebnisse nicht mehr auf den CERN-Speicher (DataBridge) schreiben zu können. BOINC-Aufgaben sind nicht betroffen, sie laufen weiterhin und Credits werden vergeben, soweit ich das sehen kann. In der Übersicht werden die Aufgaben jedoch als fehlerhaft angezeigt, daher die großen roten Bereiche in den Grafiken zu den Aufgaben.
    Bis wir das Problem lokalisiert haben, ist es am besten, keine neuen Aufgaben zuzulassen oder CMS-Aufgaben anderweitig zu umgehen. Ich lasse euch wissen, wenn alles wieder normal läuft.
    18.04.2019, 16:44:45 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4998
    Problem writing CMS job results; please avoid CMS tasks until we find the reason
    Since some time last night CMS jobs appear to have problems writing results to CERN storage (DataBridge). It's not affecting BOINC tasks as far as I can see, they keep running and credit is given. However, Dashboard does see the jobs as failing, hence the large red areas on the job plots.
    Until we find out where the problem lies, it's best to set No New Tasks or otherwise avoid CMS jobs. I'll let you know when things are back to normal again.
    18 Apr 2019, 15:44:45 UTC
    Seite 3 von 64 Erste 1 2 3 4 5 13 53 ... Letzte
Single Sign On provided by vBSSO