• SETI.Germany News RSS-Feed

    von Veröffentlicht: 19.11.2017 09:40
    1. Kategorien:
    2. Projekte

    SRBase ist inzwischen seit über 3 Jahren aktiv und hat wieder einen Rückblick auf das letzte Jahr gewagt:

    SRBase - Rückblick auf 3 Jahre
    Das Projekt hat das dritte Jahr hinter sich gebracht.

    Verglichen mit den letzten Jahren wurde folgender Fortschritt erreicht:

    2014-2015 - 87M WUs bearbeitet, 1 Basis gelöst, 314 Basen noch nicht begonnen
    2015-2016 - 88M WUs bearbeitet, 5 Basen gelöst, 297 Basen noch nicht begonnen
    2016-2017 - 99M WUs bearbeitet, 5 Basen gelöst, 282 Basen noch nicht begonnen
    insgesamt - 274M WUs bearbeitet, 11 Basen gelöst, 282 Basen noch nicht begonnen

    Die Rechenleistung lag über der 40-TFLOP-Marke. KEP arbeitet an einem genaueren statistischen Überblick, der vielleicht im Januar 2018 veröffentlicht wird, also bleibt dran.

    Die nächste LLR-Anwendung wird eine neue GWNUM-Bibliothek mit voller AMD-Ryzen-Unterstützung mitbringen, aber ich weiß nicht, wann sie veröffentlicht wird.

    Mangels verfügbarer gesiebter Kandidatenlisten gibt es einige Unterbrechungen bei der WU-Erzeugung. Die fehlenden Primzahlen für diese Basen sind sehr groß, die Tests liegen jenseits von einer Million. Das Projekt kann nicht mit so vielen Dateien in einem Ordner umgehen, weshalb diese in mehrere Stapel aufgeteilt werden müssen.

    Das Projekt yoyo@home hat das Aussieben für CRUS / SRBase übernommen. Immer mehr neue gesiebte Kandidatenlisten werden zukünftig innerhalb kurzer Zeit verfügbar sein. Wenn ihr dort helfen wollt, aktiviert das Sieben in den Einstellungen.

    Großer Dank an Gridcoin für die großartige Rechenleistung in den letzten Monaten und natürlich an alle anderen Teilnehmer und Teams, welche ihre Leistung eingesetzt haben, um das Projekt voranzubringen.

    Interessierte können nun eine öffentliche Beschreibung von SRBase herunterladen. Ich werde bald einen Link auf die Startseite setzen. Wenn ihr Fragen dazu habt, lasst sie uns im Forum diskutieren.

    Ich freue mich auf die Zukunft...
    18.11.2017, 23:43:06 MEZ

    Originaltext:
    Zitat Zitat von http://srbase.my-firewall.org/sr5/
    SRBase - 3 years review
    The project has passed the third year.

    Compared with last years the following process was made:

    2014-2015 - 87M WUs processed, 1 base solved, 314 bases unstarted
    2015-2016 - 88M WUs processed, 5 bases solved, 297 bases unstarted
    2016-2017 - 99M WUs processed, 5 bases solved, 282 bases unstarted
    in total - 274M WUs processed, 11 bases solved, 282 bases unstarted

    The computing power was beyond the 40TFLOP mark. KEP is still working on a more precise stats overview and will be released maybe in January 2018 so stay tuned.

    The next upcoming llr app will have a new gwnum lib with full AMD Ryzen support but I dont know when it will be released.

    Due the lack of available sievefiles there are some gaps in the work generation. The remaining primes for these bases are very high, the tests are going over a million. The project cannot handle so many files into one folder thats why they must be splitted into some batches.

    The yoyo@home project took over the sieving part for CRUS / SRBase. More and more new sievefiles will be available in the future in a short time period. If you want to help there enable sieving in prefs.

    A big thx to the Gridcoin team for the amazing computing power in the past months and of course all the other users / teams spend their power to bring the project forward.

    For those who are interested in the public paper for SRBase this is now ready for download.. I will add a link on the frontpage soon. If you have any questions about it let us discuss this in the forum.

    Looking forward...
    18 Nov 2017, 22:43:06 UTC
    von Veröffentlicht: 14.11.2017 12:00
    1. Kategorien:
    2. Projekte

    Nachdem die diesjährige Challenge Series bisher eine reine CPU-Veranstaltung und stark von LLR-Challenges geprägt war, wird nun der Kontrapunkt gesetzt und es können auch Grafikkarten eingesetzt werden. Wie könnte der 410. Geburtstag Pierre de Fermats besser gefeiert werden als durch das Finden einiger verallgemeinerter Fermat-Primzahlen?

    Pierre de Fermat's Birthday Challenge
    Beginn: 17.11.2017, 12:00 UTC = 13:00 MEZ
    Ende: 20.11.2017, 12:00 UTC = 13:00 MEZ
    Subprojekte: Generalized Fermat Prime Search
    - n=15 (GFN-15)
    - n=16 (GFN-16)
    - n=17 Low (GFN-17-Low)


    Der offizielle Thread zur Challenge im PrimeGrid-Forum ist hier zu finden.

    Es zählen für diese Challenge nur WUs der oben genannten Subprojekte, die nach dem 17.11. um 13:00 Uhr heruntergeladen und vor dem 20.11. um 13:00 Uhr zurückgemeldet werden! Das richtige Subprojekt kann in den PrimeGrid-Einstellungen ausgewählt werden.

    Unterstützt werden NVIDIA-Grafikkarten ab der GTX-400-Serie (Compute Capability 2.0 oder größer), alle OpenCL-fähigen ATI/AMD-Grafikkarten und auch CPUs. Anwendungen sind für Windows, Linux und macOS vorhanden (Grafikkarten unter macOS nur in der 64-Bit-Version).

    Zu erwarten sind kurze Laufzeiten von teils unter einer Minute (GFN-15) über wenige Minuten (GFN-16) bis zu unter 10 Minuten (GFN-17-Low) auf schnellen Grafikkarten, wobei sich auf den meisten Grafikkarten mit GFN-17-Low die beste Auslastung erreichen lässt. Bei schlechter GPU-Auslastung kann es sich lohnen, einen CPU-Kern freizuhalten. Auf CPU liegen die Laufzeiten im Bereich von 15 Minuten (GFN-15) über etwa 1 Stunde (GFN-16) bis hin zu wenigen Stunden (GFN-17-Low), wobei Hyperthreading von Vorteil ist und oft GFN-15 die beste Wahl ist.

    Die Punkte für die Challenge-Statistik sind identisch mit den BOINC-Credits, werden jedoch sofort gutgeschrieben, während die BOINC-Credits erst vergeben werden, wenn das Quorum von 2 übereinstimmenden Ergebnissen erreicht ist. Sollte sich ein Ergebnis als falsch erweisen, werden die Punkte natürlich wieder abgezogen.

    Team-Stats bei PrimeGrid
    User-Stats bei PrimeGrid

    Zum Diskussionsthread
    von Veröffentlicht: 11.11.2017 11:15
    1. Kategorien:
    2. Projekte

    Für die seit Mittwoch herausgegebenen WUs werden 50% mehr Credits vergeben als Entschädigung für die vorangegangenen Validierungsprobleme. Allerdings scheinen diese Probleme doch nicht behoben zu sein, es gibt weiterhin viele WUs ohne eindeutiges Ergebnis, weshalb auch immer noch neue Aufgaben bereitstehen.

    Neuigkeiten zum SoFiA-Produktivbetrieb, Teil 1
    Die Möglichkeit, die vom Validator für WUs vergebenen Credits zu skalieren, wurde hinzugefügt. Derzeit beträgt der Skalierungsfaktor 1,5, um die Validierungsprobleme zu kompensieren, die wir hatten.

    Wir bearbeiten derzeit einen neuen Satz WUs, der innerhalb der nächsten ca. 12 Stunden geschafft sein sollte.
    08.11.2017, 7:54:13 MEZ

    Originaltext:
    Zitat Zitat von https://sourcefinder.theskynet.org/duchamp/
    SoFiA Production Update 1
    Added the ability to scale credit awarded to workunits by the validator. Currently credit scaling is at x1.5 to make up for the validation errors we've been having.

    Currently processing a new batch of work units, which should be done within the next 12 or so hours.
    8 Nov 2017, 6:54:13 UTC
    von Veröffentlicht: 11.11.2017 08:20
    1. Kategorien:
    2. Projekte

    Eine Meldung zum Fortschritt des Subprojekts Perfect Cuboid sei nachgereicht:

    Zusätzliche Statistiken zu Perfect Cuboid
    Wir haben teilnehmerbezogene Statistiken der gefundenen Parallelepipede erstellt und die Subprojektstatus-Seite wurde um einige gängige Statistiken ergänzt.

    Seit heute zeigen wir die Treffer im Subprojekt Perfect Cuboid an, sodass ihr euch ab jetzt nicht nur in Credits, sondern auch in der Anzahl der gefundenen Parallelepipede messen könnt. Free-DC zeigt die Treffer bereits in den Subprojekt-Statistiken an.

    Eine weitere gute Neuigkeit ist, dass wir heute den "Äquator" des ersten Abschnitts überschritten haben, die höchste in Bearbeitung befindliche Zahl liegt nun über 2^49 = 562.949.953.421.312, was die Hälfte unseres ersten Ziels, 2^50, ist.
    27.10.2017


    Außerdem werden ab heute Mittag etwas kürzere WUs mit höherer Trefferchance ausgegeben:

    Übersprungener Bereich mit mehr Parallelepipeden wird begonnen
    Am 11. November um 12:11 MEZ werden wir mit dem am Anfang übersprungenen Bereich 0-10T beginnen, der fast so viele Parallelepipede enthält wie wir bisher gefunden haben, und werden um einen Faktor 4 kürzere WUs ausgeben, um allen interessierten Teilnehmern die Möglichkeit zu geben, eine große Zahl von Parallelepipeden in ihre persönliche Statistik einzutragen. Verpasst nicht die Startzeit.
    10.11.2017


    Auch zum Subprojekt ECM gibt es etwas zu vermelden: Ein Primfaktor der Zahl (10^593+1)/11 ist einer der größten bisher mit ECM gefundenen Faktoren:

    P73-Rekordzahl mit gmp-ecm gefunden
    Der Teilnehmer astroboylok hat eine 73-stellige Primzahl für das ECM-Repunit-Projekt gefunden. Diese Zahl erreicht die Liste der größten mit gmp-ecm gefundenen Primzahlen.
    07.11.2017


    Originaltexte:
    Zitat Zitat von https://www.rechenkraft.net/yoyo/
    Additional stats for Perfect Cuboid
    We added per user statistics of found cuboids and as well the subproject status page was extended some common statistics.

    Today we have added Hits to Perfect Cuboid subproject, so from now you can compete not only in earned Credits, but also in the amount of found cuboids. Free-DC is already showing Hits in Subproject Stats.

    And also good news, today we "crossed the equator" of the 1st Batch, Max In Progress threshold has exceeded 2^49 = 562.949.953.421.312, which is the half of our 1st goal - 2^50.
    27 Oct 2017
    Zitat Zitat von https://www.rechenkraft.net/yoyo/
    Perfect Cuboid: Starting skipped range with more cuboids
    [...] 11 November at 11:11 UTC we are going to launch the 0-10T range which we skipped from the beginning, which contains almost the same amount of cuboids we've already discovered, and throw out 4 times shorter tasks to give an opportunity for all concerned users to put into the personal statistics a large number of cuboids. So, don't miss the start time.
    10 Nov 2017
    Zitat Zitat von https://www.rechenkraft.net/yoyo/
    P73 record number found with gmp-ecm
    For the ECM repunit project user astroboylok found a 73 digit prime. This number will make it into the largest primes list ever found with gmp-ecm.
    07 Nov 2017
    von Veröffentlicht: 09.11.2017 00:00
    1. Kategorien:
    2. SETI.Germany,
    3. Teamaktion,
    4. WCG Birthday Challenge

    SETI.Germany lädt zur 13th Birthday Challenge bei WCG ein.



    Die Challenge findet vom

    Beginn: 16.11.2017 00:00 Uhr (UTC) (d. h. 16.11.2017, 01:00 Uhr MEZ)
    Ende: 22.11.2017 23:59:59 Uhr UTC (UTC) (d. h. 23.11.2017, 00:59:59 Uhr MEZ)

    statt.

    Wie kann ich teilnehmen?
    SETI.Germany-Mitglieder nehmen automatisch teil, eine gesonderte Anmeldung ist nicht erforderlich.
    Da es sich um eine Team-Challenge handelt, nehmen automatisch alle Mitglieder der angemeldeten Teams teil. Welche Teams sich zur Challenge angemeldet haben, kann man hier https://www.worldcommunitygrid.org/t...allengeId=8617 einsehen.

    Wie melde ich mich an?
    Um dein Team zur Challenge anzumelden, muss euer WCG-Team-Captain euer Team auf dieser Seite anmelden: https://secure.worldcommunitygrid.or...allengeId=8617
    Sollte Euer Team-Captain nicht mehr erreichbar sein, so solltet ihr schnellstmöglich einen Wechsel des Team-Captains beantragen. Dieser dauert beim WCG mindestens 4 Wochen!

    Gewertet werden alle während der Challenge gutgeschriebenen WCG-Points, auch wenn die WU bereits vor Beginn der Challenge berechnet wurde. WUs, die zu Challenge-Ende im Pending sind, können jedoch nicht berücksichtigt werden!

    Weitere Informationen zu den diesjährigen Challenge-Modalitäten findet ihr hier: https://www.seti-germany.de/wcg/1_de_Willkommen.html

    Um im Laufe der Challenge in Kontakt zu treten, hast Du mehrere Möglichkeiten:

    1. Benutze die Shoutbox

    2. Benutze den Thread im Hauptforum

    SETI.Germany wünscht euch viel Spaß bei der 13th Birthday Challenge.
    von Veröffentlicht: 07.11.2017 16:05
    1. Kategorien:
    2. Projekte

    Eine Veröffentlichung über Entstehungsraten, Verschmelzungen und Explosionen von Strange-Quark-Sternen auf Basis der Berechnungen des Subprojektes QuarkStars ist im Astrophysical Journal erschienen:

    Nächste Veröffentlichung im Astrophysical Journal publiziert
    Simulationen unter Verwendung von Universe@Home und die Auswertung im Rahmen der Zusammenarbeit der Universität Warschau (Polen) und der Universität Ferrara (Italien) haben zur Veröffentlichung eines wissenschaftlichen Artikels im Astrophysical Journal geführt, einer der angesehensten wissenschaftlichen Fachzeitschriften weltweit! Der Artikel ist auf arXiv zu finden: https://arxiv.org/abs/1707.01586

    Die Untersuchung hypothetischer Quarksterne war die erste ihrer Art und führte zu einigen sehr interessanten Schlussfolgerungen. Obwohl wir gezeigt haben, dass das Auftreten dieser Objekte auf Basis der verfügbaren Beobachtungen weder bewiesen noch widerlegt werden kann, könnten Quarksterne längere Gammastrahlenausbrüche und das Problem der sogenannten Verschmutzung mit seltsamer Materie erklären.
    06.11.2017, 12:09:53 MEZ

    Originaltext:
    Zitat Zitat von https://universeathome.pl/universe/
    Next paper published in the Astrophysical Journal
    Simulations done with the use of Universe@Home and the analysis performed in the cooperation between University of Warsaw (Poland) and University of Ferrara (Italy) resulted in a research paper publication in the Astrophycial Journal, one of the highest ranked scientific journals worldwide! The article can be found on arXiv: https://arxiv.org/abs/1707.01586

    The research on hypothetical quark stars was the first of its kind and gave a few very interesting conclusions. Although we showed that the presence of these objects cannot be proved or rejected on the base of available observations, quark stars have a potential to explain the long gamma ray burst phenomena and the so called "strangelets pollution" problem.

    [...]
    6 Nov 2017, 11:09:53 UTC
    von Veröffentlicht: 03.11.2017 18:55
    1. Kategorien:
    2. Projekte

    Auf den Tag genau vier Monate nach dem letzten Fund wurde eine weitere Primzahl bei GFN-18 gefunden, gleichzeitig die dreihundertste bekannte Primzahl mit mindestens einer Million Dezimalstellen:

    GFN-262144-Megaprimzahl!
    Am 30. Oktober 2017 um 02:31:18 MEZ hat PrimeGrids Generalized Fermat Prime Search eine verallgemeinerte Fermat-Megaprimzahl gefunden:

    3547726^262144+1

    Die Primzahl hat 1717031 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 6 für verallgemeinerte Fermat-Primzahlen und Platz 53 insgesamt.

    Die Entdeckung gelang Scott Brown (Scott Brown) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 Ti in Verbund mit einem Intel Xeon E5-1650 v3 @ 3,50 GHz mit 32 GB RAM unter Windows 7. Diese GPU brauchte etwa 17 Minuten für den PRP-Test mit GeneferOCL3. Scott ist Mitglied des Teams Aggie The Pew.

    Die Primzahl wurde am 30. Oktober 2017 um 12:31:11 MEZ von Alexander Falk (Alexander Falk) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-7700K @ 4,20 GHz mit 64 GB RAM unter Windows 10 bestätigt. Diese GPU brauchte etwa 18 Minuten für den PRP-Test mit GeneferOCL3. Alexander ist Mitglied des Teams The Knights Who Say Ni!.

    Die Primalität dieser PRP wurde mit einem Intel Core i5-4670K @ 3,40 GHz mit 24 GB RAM unter Windows 7 bewiesen. Dieser Rechner brauchte etwa 12 Stunden 30 Minuten für den Primalitätstest mit LLR im Multithread-Modus.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    01.11.2017 | 15:17:46 MEZ


    Und auch der November bleibt nicht ohne Proth-Megaprimzahlfund:

    Weitere PPS-Megaprimzahl!
    Am 2. November 2017 um 17:43:22 MEZ hat PrimeGrids Subprojekt PPS Mega Prime Search eine Megaprimzahl gefunden:
    943*2^3440196+1

    Die Primzahl hat 1035606 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 208 insgesamt.

    Die Entdeckung gelang Lukáš Hron (LookAS) aus der Tschechischen Republik mit einem Intel Core i7-4790 @ 3,60 GHz mit 8 GB RAM unter Windows 10. Dieser Rechner brauchte etwa 1 Stunde 30 Minuten für den Primalitätstest mit LLR. Lukáš ist Mitglied des Czech National Team.

    Die Primzahl wurde am 2. November 2017 um 22:52:50 MEZ vom PrimeGrid-Teilnehmer "BarryAZ" aus den Vereinigten Staaten mit einem Intel Core i5-4590 @ 3,30 GHz mit 10 GB RAM unter Windows 7 bestätigt. Dieser Rechner brauchte etwa 1 Stunde 9 Minuten für den Primalitätstest mit LLR. BarryAZ ist Mitglied des Teams BOINC Synergy.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    03.11.2017 | 14:15:00 MEZ


    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/
    GFN-262144 Mega Prime!
    On 30 October 2017, 01:31:18 UTC, PrimeGrid’s Generalized Fermat Prime Search found the Generalized Fermat mega prime:

    3547726^262144+1

    The prime is 1,717,031 digits long and enters Chris Caldwell's The Largest Known Primes Database ranked 6th for Generalized Fermat primes and 53rd overall.

    The discovery was made by Scott Brown (Scott Brown) of the United States using a Nvidia GeForce GTX 1080 Ti in an Intel(R) Xeon(R) E5-1650 v3 CPU at 3.50GHz with 32GB RAM, running Microsoft Windows 7 Enterprise Edition. This GPU took about 17 minutes to probable prime (PRP) test with GeneferOCL3. Scott is a member of the Aggie The Pew team.

    The prime was verified on 30 October 2017, 11:31:11 UTC by Alexander Falk (Alexander Falk) of the United States using an NVidia GeForce GTX 1080 GPU in an Intel(R) Core(TM) i7-7700K CPU at 4.20GHz with 64GB RAM, running Microsoft Windows 10 Professional Edition. This GPU took about 18 minutes to probable prime (PRP) test with GeneferOCL3. Alexander is a member of The Knights Who Say Ni! team.

    The PRP was confirmed prime by an Intel(R) Core(TM) i5-4670K CPU @ 3.40GHz with 24GB RAM, running Microsoft Windows 7 Professional Edition. This computer took about 12 hours 30 minutes to complete the primality test using multithreaded LLR.

    For more details, please see the official announcement.
    1 Nov 2017 | 14:17:46 UTC
    Zitat Zitat von https://www.primegrid.com/
    Another PPS-Mega Prime!
    On 2 November 2017, 16:43:22 UTC, PrimeGrid’s PPS Mega Prime Search project found the Mega Prime:
    943*2^3440196+1

    The prime is 1,035,606 digits long and will enter Chris Caldwell's The Largest Known Primes Database ranked 208th overall.

    The discovery was made by Lukáš Hron (LookAS) of the Czech Republic using an Intel(R) Core(TM) i7-4790 CPU @ 3.60GHz with 8GB RAM, running Microsoft Windows 10. This computer took about 1 hour 30 minutes to complete the primality test using LLR. Lukáš is a member of the Czech National Team.

    The prime was verified on 2 November 2017, 21:52:50 UTC by PrimeGrid user “BarryAZ” of the United States using an Intel(R) Core(TM) i5-4590 CPU @ 3.30GHz with 10GB RAM, running Microsoft Windows 7. This computer took about 1 hour 9 minutes to complete the primality test using LLR. BarryAZ is a member of the BOINC Synergy team.

    For more details, please see the official announcement.
    3 Nov 2017 | 13:15:00 UTC
    von Veröffentlicht: 02.11.2017 21:05
    1. Kategorien:
    2. Projekte

    Nach den Tests in den vergangenen zwei Monaten ist die SoFiA-Anwendung nun im Produktivbetrieb. Die WU-Versorgung sollte in nächster Zeit relativ konstant sein.

    Produktive WUs mit SoFiA
    Grüße an alle!

    Ich freue mich, den Start der produktiven WUs für SoFiA bekanntzugeben. Nach Entfernen des Parameters Wm50 ist das bisherige Determinismus-Problem verschwunden, sodass ich nun produktive WUs herausgeben kann.

    Diese WUs sind genau die gleichen wie die Duchamp-WUs, etwa 15 MB groß. Dieses Mal testen wir jedoch 486 verschiedene Parameterkombinationen, deutlich mehr als die 176 Parameterkombinationen mit Duchamp. Ihr könnt mit längeren WU-Laufzeiten und mehr Punkten pro WU rechnen.

    Die Projektwissenschaftler sind außerdem dabei, den DINGO-Würfel neu in größere Teile von 100 MB aufzuspalten, die wir ebenfalls mit SoFiA bearbeiten werden. Wenn diese Würfelchen verfügbar sind, werde ich sie in einen Satz von 5 verschiedenen Durchläufen aufteilen, mit unterschiedlichen Parametersätzen für jeden Durchlauf. Die ersten vier Durchläufe werden 100 der 486 SoFiA-Parameter enthalten, der letzte die verbleibenden 86 Parameter.
    Ich halte euch auf dem Laufenden, wann diese WUs verfügbar sein werden.

    Ich muss außerdem empfehlen, dass ihr derzeit NICHT auf VirtualBox 5.2 aktualisieren solltet. Ich warte darauf, dass BOINC die zu VirtualBox 5.2 kompatiblen Wrapper-Versionen offiziell herausgibt.

    Schließlich werde ich versuchen, das Sourcefinder-Forum täglich zu überprüfen statt nur mittwochs, wenn ich tatsächlich an Sourcefinder arbeite. Hoffentlich werde ich dadurch deutlich schneller auf Probleme mit Sourcefinder reagieren können, die in den kommenden Monaten auftauchen.

    Danke euch allen für eure Geduld mit dem recht langsamen Fortschritt der SoFiA-Beta. Ich hoffe, dass die Versorgung mit produktiven WUs recht stetig sein wird.

    Frohes Crunchen!

    Sam.
    01.11.2017, 3:43:17 MEZ

    Originaltext:
    Zitat Zitat von https://sourcefinder.theskynet.org/duchamp/
    SoFia Production Workunits
    Greetings Everyone!

    I'm pleased to announce that I'm starting production workunits for SoFiA. After the removal of the Wm50 parameter from SoFiA's parameter files, the previous determinism issues disappeared, so I'm ready to begin pushing out production work units.

    These work units are the exact same as the Duchamp ones, around 15MB in size. This time, however, we're running 486 different parameter combinations, which is up significantly from Duchamp's 176 parameter combinations. You can expect longer WU times, with a larger amount of credit per WU.

    The project scientists are also in the process of re-chopping the DINGO cube in to larger, 100MB pieces that we'll also be running through SoFiA. When these cubelets are available, I will be splitting them in to a set of 5 different runs, with a different parameter set for each run. The first 4 runs will contain 100 of the 486 SoFiA parameters, with the final run making up the remaining 86 parameters.
    I'll keep you updated as to when these workunits will be available.

    I must also recommend that everyone does NOT update to VirtualBox 5.2 for the time being. I'm currently waiting on BOINC to officially release their VirtualBox 5.2 compatible wrapper versions.

    Finally, I'm going to attempt to make time to check the Sourcefinder message boards every day, instead of only on Wednesdays when I'm actually working on Sourcefinder tasks. Hopefully this'll help me be significantly more responsive to any Sourcefinder related issues that crop up over the coming months.

    Thank you everyone for being patient with the rather slow progress of the SoFiA beta. I hope to have a fairly steady flow of production work units.

    Happy Crunching!

    Sam.
    1 Nov 2017, 2:43:17 UTC
    von Veröffentlicht: 30.10.2017 16:40
    1. Kategorien:
    2. Projekte

    Wie er selbst schon verkündete, hat dh1saj drei Wochen nach seinem zweiten Megaprimzahlfund gleich noch einmal zugeschlagen:

    Noch eine PPS-Megaprimzahl!
    Am 27. Oktober 2017 um 23:42:37 MEZ hat PrimeGrids Subprojekt PPS Mega Prime Search eine Megaprimzahl gefunden:
    625*2^3438572+1

    Die Primzahl hat 1035117 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 207 insgesamt.

    Die Entdeckung gelang Jochen Beck (dh1saj) aus Deutschland mit einem Intel Core i7-4790K @ 4,00 GHz mit 32 GB RAM unter Windows 10. Dieser Rechner brauchte etwa 51 Minuten für den Primalitätstest mit LLR. Jochen ist Mitglied des Teams SETI.Germany.

    Die Primzahl wurde am 27. Oktober 2017 um 23:48:56 MEZ von Lars Fricke (Lars Fricke) aus Deutschland mit einem Intel Xeon E5-2620 v4 @ 2,10 GHz mit 64 GB RAM unter Linux bestätigt. Dieser Rechner brauchte etwa 1 Stunde 29 Minuten für den Primalitätstest mit LLR.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    30.10.2017 | 13:53:02 MEZ


    Und das sollte nicht der einzige Fund in der letzten Woche bleiben:

    Und noch eine PPS-Megaprimzahl!
    Am 29. Oktober 2017 um 18:33:36 MEZ hat PrimeGrids Subprojekt PPS Mega Prime Search eine Megaprimzahl gefunden:
    543*2^3438810+1

    Die Primzahl hat 1035188 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 207 insgesamt.

    Die Entdeckung gelang Randall Scalise (Randall J. Scalise) aus den Vereinigten Staaten mit einem Intel Core i5-3570 @ 3,40 GHz mit 8 GB RAM unter Windows 10. Dieser Rechner brauchte etwa 1 Stunde 48 Minuten für den Primalitätstest mit LLR.

    Die Primzahl wurde am 30. Oktober 2017 um 05:48:03 MEZ von Pete Allivato (Todderbert) aus den Vereinigten Staaten mit einem Intel Xeon E31240 @ 3,30 GHz mit 8 GB RAM unter Windows 7 bestätigt. Dieser Rechner brauchte etwa 1 Stunde 27 Minuten für den Primalitätstest mit LLR. Pete ist Mitglied des Teams GPU Users Group.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    30.10.2017 | 17:03:52 MEZ


    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/
    Yet Another PPS-Mega Prime!
    On 27 October 2017, 22:42:37 UTC, PrimeGrid’s PPS Mega Prime Search project found the Mega Prime:
    625*2^3438572+1

    The prime is 1,035,117 digits long and will enter Chris Caldwell's The Largest Known Primes Database ranked 207th overall.

    The discovery was made by Jochen Beck (dh1saj) of Germany using an Intel(R) Core(TM) i7-4790K CPU @ 4.00GHz with 32GB RAM, running Windows 10 Professional Edition. This computer took about 51 minutes to complete the primality test using LLR. Jochen is a member of the SETI.Germany team.

    The prime was verified on 27 October 2017, 22:48:56 UTC by Lars Fricke (Lars Fricke) of Germany using an Intel(R) Xeon(R) E5-2620 v4 CPU @ 2.10GHz with 64GB RAM, running Linux. This computer took about 1 hour 29 minutes to complete the primality test using LLR.

    For more details, please see the official announcement.
    30 Oct 2017 | 12:53:02 UTC
    Zitat Zitat von https://www.primegrid.com/
    And Yet Another PPS-Mega Prime!
    On 29 October 2017, 18:33:36 UTC, PrimeGrid’s PPS Mega Prime Search project found the Mega Prime:
    543*2^3438810+1

    The prime is 1,035,188 digits long and will enter Chris Caldwell's The Largest Known Primes Database ranked 207th overall.

    The discovery was made by Randall Scalise (Randall J. Scalise) of the United States using an Intel(R) Core(TM) i5-3570 CPU @ 3.40GHz with 8GB RAM, running Windows 10 Enterprise Edition. This computer took about 1 hour 48 minutes to complete the primality test using LLR.

    The prime was verified on 30 October 2017, 04:48:03 UTC by Pete Allivato (Todderbert) of the United States using an Intel(R) Xeon(R) E31240 CPU @ 3.30GHz with 8GB RAM, running Windows 7 Professional Edition. This computer took about 1 hour 27 minutes to complete the primality test using LLR. Pete is a member of the GPU Users Group team.

    For more details, please see the official announcement.
    30 Oct 2017 | 16:03:52 UTC
    von Veröffentlicht: 26.10.2017 19:55
    1. Kategorien:
    2. Projekte

    Eine neue Veröffentlichung von Wenjie Fang beschäftigt sich am Beispiel der beiden ehemaligen yoyo@home-Subprojekte Harmonious Trees und Odd Weird Search damit, wie bestimmte Fragestellungen, die nicht von Haus aus einfach parallelisierbar sind, dennoch effizient von Volunteer-Computing-Projekten bearbeitet werden können.

    Eine Veröffentlichung zu Harmonious Trees und Odd Weird Search
    Ja, es gab lange Zeit keine Neuigkeiten über die Ergebnisse der Subprojekte Harmonious Trees oder Odd Weird Search. Wir wussten nur, dass wir nichts gefunden haben, die Vermutungen nicht widerlegt und sogar gestärkt wurden. Das klingt etwas enttäuschend.

    Aber nein! In dieser Zeit haben wir fleißig an etwas gearbeitet. Es ist, um genau zu sein, ein Forschungsartikel, der beschreibt, was wir getan haben, um beide Projekte zu ermöglichen, was wir beobachtet haben und was wir tun können, um es zu verbessern (wenn aus einem ähnlichen Problem ein Volunteer-Computing-Projekt entstehen soll). Und schließlich, nach vielem Schreiben und Bearbeiten zwischen langen Zeiträumen der Prokrastination (ja, ich habe zwischendurch einen Doktorgrad in Mathematik erlangt und yoyo musste natürlich neben seiner Arbeit das Projekt unterhalten), wurde er heute endlich veröffentlicht!

    Unter dem Titel Parallel Tree Search in Volunteer Computing: a Case Study (engl., Parallele Baumsuche mit Volunteer Computing: eine Fallstudie) kann der Artikel hier gefunden werden:
    https://link.springer.com/article/10...723-017-9411-5 (engl.)

    Der Zugang ist frei, sodass es jeder kostenlos herunterladen und anschauen kann. Danke an die TU Graz (ich bin dort Postdoktorand), den FWF (der österreichische Wissenschaftsfonds) und die Bibliothek der TU Graz, dass sie eine Open-Access-Vereinbarung mit Springer haben. Andernfalls müssen die Autoren in der Regel tausende Dollar für die Open-Access-Option bezahlen. Also, viel Spaß damit, wenn es euch interessiert!

    Hier ist eine Kurzfassung des Artikels:

    Während sich Volunteer Computing, als ein eingeschränktes Modell parallelen Rechnens, als ein erfolgreiches Paradigma für wissenschaftliches Rechnen mit exzellenten Vorteilen bei der Kosteneffizienz und Öffentlichkeitsarbeit erwiesen hat, sind die meisten Probleme, die auf diesem Weg gelöst werden, intrinsisch hochparallel. Viele effiziente Algorithmen, darunter Rücksetzverfahren, nehmen jedoch die Form einer Baumsuche in einem extrem ungleichmäßigen Baum an, welche für das Volunteer-Computing-Paradigma nicht auf einfache Weise effizient parallelisierbar sind. Wir erforschen in diesem Artikel, wie solche Suchen effizient als Volunteer-Computing-Projekte durchgeführt werden können. Wir schlagen ein paralleles Suchbaum-Schema vor und beschreiben zwei reale Anwendungsbeispiele, Harmonious Tree und Odd Weird Search, welche beide beim Volunteer-Computing-Projekt yoyo@home durchgeführt wurden. Um die beobachtete Effizienz unseres Schemas zu bestätigen, nehmen wir eine mathematische Analyse vor, welche beweist, dass unser Schema unter vernünftigen Annahmen, die mit experimentellen Beobachtungen übereinstimmen, nur einen konstanten Faktor von perfekter Parallelität entfernt ist. Einzelheiten zur Verbesserung der Gesamtleistung werden ebenfalls diskutiert.
    24.10.2017

    Originaltext:
    Zitat Zitat von https://www.rechenkraft.net/yoyo/
    A publication on Harmonious Trees and Odd Weird Search
    It has been a long time, we know, that there was no news whatsoever the results of Harmonious Trees, or Odd Weird Search. All we knew was that we found nothing, the conjectures remained safe, and even taking on more credence. It sounds a bit anti-climatic.

    But no! In this interval, we have been busy working on something. It is a research article, to be precise, that describes what we did to make both projects possible, what we observed, and what we can do to make it better (if there is a similar problem to be made into a volunteer computing project). And finally, after a lot of writing and editing in between great periods of procrastination (yes, I did a PhD in math in between, and yoyo of course needs to maintain the project alongside his work), today it is finally published!

    Titled Parallel Tree Search in Volunteer Computing: a Case Study, the article can be found here:
    https://link.springer.com/article/10...723-017-9411-5

    It is open access, meaning that everyone can download it and have a look freely. Thanks to TU Graz (I am a postdoc there), FWF (the Austria founding agency) and the library of TU Graz for having an open access arrangement with Springer. Otherwise, the authors generally have to pay thousands of dollars for the open access option. So, enjoy if you are interested!

    Here is an abstract of the article:

    While volunteer computing, as a restricted model of parallel computing, has proved itself to be a successful paradigm of scientific computing with excellent benefit on cost efficiency and public outreach, many problems it solves are intrinsically highly parallel. However, many efficient algorithms, including backtracking search, take the form of a tree search on an extremely uneven tree that cannot be easily parallelized efficiently in the volunteer computing paradigm. We explore in this article how to perform such searches efficiently on volunteer computing projects. We propose a parallel tree search scheme, and we describe two examples of its real-world implementation, Harmonious Tree and Odd Weird Search, both carried out at the volunteer computing project yoyo@home. To confirm the observed efficiency of our scheme, we perform a mathematical analysis, which proves that, under reasonable assumption that agrees with experimental observation, our scheme is only a constant multiplicative factor away from perfect parallelism. Details on improving the overall performance are also discussed.
    24 Oct 2017

    Seite 41 von 107 Erste ... 31 39 40 41 42 43 51 91 ... Letzte
Single Sign On provided by vBSSO