• pschoefer

    von Veröffentlicht: 06.09.2019 23:45
    1. Kategorien:
    2. Projekte

    Seit wenigen Minuten ist mit Fermat Divisor Search LLR (PPS-DIV) ein neues Subprojekt aktiv, welches gezielt nach Teilern von Fermat-Zahlen (2^2^n+1) sucht. Wie der Kurzname PPS-DIV vermuten lässt, handelt es sich hierbei eigentlich nur um einen Teil des Suchbereichs der Proth Prime Search, da jeder Fermatzahl-Teiler die Form k*2^n+1 hat.

    Zunächst wird k=19683 bis n~4M gebracht (was sehr schnell gehen sollte), anschließend 5 ≤ k ≤ 49 bis n=9M. Insgesamt dürfte dieses Subprojekt nur wenige Monate dauern.

    Neues Subprojekt: Fermat Divisor Search
    PrimeGrid ist stolz, ein neues Subprojekt bekanntgeben zu können, die Suche nach Fermatzahl-Teilern.

    Dies ist eine Variante unserer anderen PPS-Subprojekte (Proth Prime Search) und speziell darauf ausgerichtet, eine bessere Chance zum Finden eines Fermatzahl-Teilers zu haben.

    Anders als die meisten anderen unserer Subprojekte wird dieses nicht für immer laufen. Es gibt eine begrenzte Anzahl von Kandidaten zu testen, und sobald diese abgearbeitet sind, ist das Subprojekt beendet. Ich schätze. dass dieses Projekt etwa 3 Monate dauern wird.

    Es werden das gleiche Abzeichen und die gleichen Statistiken wie für die anderen PPS-Subprojekte verwendet, es gibt also kein neues Abzeichen. Aber dies ist womöglich die beste Chance, einen Fermatzahl-Teiler zu finden und das seltene Abzeichen zu bekommen.

    Für weitere Informationen und zur Diskussion, siehe diesen Thread oder besucht unseren Discord-Server.
    06.09.2019 | 23:18:39 MEZ

    Originaltext:
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=8780
    New Project: Fermat DIvisor Search
    PrimeGrid is proud to announce that we have a new sub-project, the Fermat Divisor search.

    This is a variant of our other PPS (Proth Prime Search) sub-projects and is specially designed to have a better chance of finding a Fermat Divisor.

    Unlike most of our other sub-projects, this one will not run forever. It has a limited number of candidates to check, and once they're gone, the project is over. My best guess is that this project will last about three months.

    It uses the same badge and stats as the other PPS sub-projects, so there's no new badge. But this is probably the best chance of discovering a Fermat divisor and earning that rare badge.

    For more information and discussion, read this forum thread or join our Discord server.
    6 Sep 2019 | 22:18:39 UTC
    von Veröffentlicht: 03.09.2019 16:10
    1. Kategorien:
    2. Projekte

    Alle Ergebnisse und weitere Materialien zu der vor wenigen Monaten abgeschlossenen Suche nach orthogonalen diagonalen lateinischen Quadraten (engl. orthogonal diagonal Latin squares, ODLS) neunter Ordnung wurden nun in einem Archiv veröffentlicht:

    RakeSearch-R9-Archiv veröffentlicht!
    Liebe Teilnehmer!

    Auf der Seite About RakeSearch project (engl.) haben wir Links zum Archiv der Suche im Raum der diagonalen lateinischen Quadrate neunter Ordnung veröffentlicht. Wir haben alle Ergebnisse mit "permutationellen" ODLS, alle gefundenen Graphen (weitere Graphen könnten noch gefunden werden!), sämtliche WUs und einige Generationen des Quellcodes hochgeladen.

    Diese Ergebnisse wären ohne eure Hilfe nicht erreichbar gewesen. Vielen Dank für eure Teilnahme und Aufmerksamkeit für das Projekt!
    31.08.2019, 21:01:16 MEZ

    Originaltext:
    Zitat Zitat von https://rake.boincfast.ru/rakesearch/forum_thread.php?id=194
    RakeSearch R9 archive published!
    Dear participants!

    On About RakeSearch project page we published links on the archive of search on space of diagonal Latin squares of rank 9. We uploaded all results which contain "permutational" ODLS, all found graphs (but other graphs may be found or detected!), entire sets of results and workunits, and source code of several generations.

    These results could not be obtained without your help. Thank you very much for participation and attention to the project!
    31 Aug 2019, 20:01:16 UTC
    von Veröffentlicht: 30.08.2019 16:30
    1. Kategorien:
    2. Projekte

    Eine Information für die kleine Besuchergruppe aus Reihen unseres Teams:

    Tage der offenen Tür am CERN in 2 Wochen!
    Während der Tage der offenen Tür 2019 des CERN werden wir einen kleinen LHC@home-Stand als Teil der IT-Aktivitäten in Gebäude 504 in der Nähe des Rechenzentrums haben.

    LHC@home wird auch am Ort des ATLAS-Experiments vertreten sein, in der ATLAS Computing Corner.

    Wir hoffen, dass viele von euch das CERN während der Tage der offenen Tür besuchen können und würden uns freuen, euch hier zu sehen!

    Bitte berücksichtigt die Besuchsplanungsseite (engl.) und die Liste der Aktivitäten während der Tage der offenen Tür (engl.) für weitere Informationen über alle Besuchspunkte auf dem CERN-Gelände.
    30.08.2019, 10:07:17 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5129
    CERN Open Days in 2 weeks!
    During the CERN Open Days 2019, we will have a small LHC@home stand as part of the IT activities in building 504 near the Data Centre.

    LHC@home will also be present at the ATLAS experiment site, in the ATLAS Computing Corner.

    We hope that many of you will be able to visit CERN during the Open Days and would be happy to see you here!

    Please refer to: Plan your visit and the list of activities during the Open days for more information about all the visit points on the CERN sites.
    30 Aug 2019, 9:07:17 UTC
    von Veröffentlicht: 30.08.2019 06:10
    1. Kategorien:
    2. Projekte

    Wegen Unterfinanzierung wird das Projekt bis auf weiteres auf Eis gelegt:

    DHE stillgelegt
    Hallo zusammen,

    leider müssen wir DHE stilllegen, bis wir neue finanzielle Mittel gesichert haben. Ein großer Dank euch allen, die für unser Projekt gecruncht haben, an das BOINC-Team und ein besonderer Dank an diejenigen, die uns auf vielfältige Weise freiwillig unterstützt haben.

    Alles Gute,
    Michael
    29.08.2019, 14:44:30 MEZ

    Originaltext:
    Zitat Zitat von https://www.dhep.ga/boinc/forum_thread.php?id=149
    DHE suspended
    Hello everyone,

    Unfortunately we are having to suspend DHE until we secure funding. A big thanks to all of you who crunched for our project, the BOINC team, and a special thanks to those who volunteered with us in many ways.

    All the best,
    Michael
    29 Aug 2019, 13:44:30 UTC
    von Veröffentlicht: 25.08.2019 09:25
    1. Kategorien:
    2. Projekte

    Seit einiger Zeit ist es möglich (und zumindest bei längeren WUs auch deutlich effizienter), mehrere CPU-Kerne parallel an derselben WU rechnen zu lassen. Bisher musste das clientseitig mit einer app_config.xml eingestellt werden, bald wird das auch über die Projekteinstellungen auf der Webseite möglich sein.

    Wer derzeit aktiv ein LLR-Subprojekt mit Multithreading cruncht und vermeiden will, dass nach der projektseitigen Umstellung zunächst die Standardeinstellungen verwendet werden, kann jetzt schon die app_config.xml entsprechend erweitern wie in den folgenden Übersetzungen beschrieben. Natürlich werden diese Änderungen erstmal zur Fehlermeldung führen, dass die Planklasse mt unbekannt sei; sobald die erste neue WU nach der projektseitigen Umstellung heruntergeladen wird, werden die Einstellungen dann aber korrekt verwendet.

    Kommende NOTWENDIGE Änderungen an der app_config.xml
    Falls ihr nicht wisst, was eine app_config.xml ist oder keine solche für LLR-Anwendungen bei PrimeGrid nutzt, könnt ihr diese Nachricht ignorieren. Das betrifft euch nicht.

    Falls ihr aber eine app_config.xml für irgendeine unserer LLR-Anwendungen verwendet, wird diese nach einigen Änderungen auf unserer Seite nicht mehr funktionieren, weil wir die Planklasse der LLR-Anwendungsversionen ändern. Für Einzelheiten und eine Anleitung, was ihr jetzt schon tun solltet, siehe bitte diese Nachricht. Kommentare, Fragen und die Diskussion finden sich auch in diesem Thread.
    22.08.2019 | 16:55:33 MEZ


    Nachfolgend die Übersetzung des verlinkten Beitrags:

    Wichtig:

    PrimeGrid wird in naher Zukunft Multithreading über die Projekteinstellungen anbieten.
    Falls ihr eine app_config.xml (wahrscheinlich zum Einrichten von Multithreading) verwendet, wird diese nicht mehr funktionieren, wenn das neue Multithreading-System in Betrieb genommen wird. Wenn ihr wollt, dass eure app_config.xml weiterhin funktioniert, solltet ihr jetzt Änderungen vornehmen, damit sie sowohl vor als auch nach der Umstellung funktioniert.

    Nur LLR-Subprojekte sind betroffen.

    Jeder <app_version>-Block für ein LLR-Subprojekt sollte kopiert werden und die Kopie zusätzlich um die Zeile <plan_class>mt<plan_class> ergänzt werden. Für ESP mit 4 Threads sieht das beispielsweise so aus:

    Code:
    <app>
      <name>llrESP</name>
      <fraction_done_exact>1</fraction_done_exact>
      <report_results_immediately>1</report_results_immediately>
    </app>
    
    <app_version>
      <app_name>llrESP</app_name>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    
    <app_version>
      <app_name>llrESP</app_name>
      <plan_class>mt</plan_class>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    Ihr könnt das heute ändern und der alte app_version-Block wird weiterhin funktionieren. Sobald wir das neue Multithreading installieren, wird dieser app_version-Block ignoriert und stattdessen der zweite app_version-Block für die Planklasse mt verwendet. Die meisten Leute werden dann ihre app_config.xml oder zumindest die Abschnitte für die LLR-Subprojekte löschen und die Multithreading-Einstellungen auf der Webseite verwenden können.

    Es gibt noch keinen genauen Termin für diese Änderung, aber es wird nicht mehr im August passieren, sondern hoffentlich Anfang September.
    22.08.2019 | 16:43:13 MEZ


    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=8758
    Upcoming REQUIRED changes to app_config.xml
    If you don't know what app_config.xml is, or if you don't use it for PrimeGrid's LLR apps, you can ignore this notice. This doesn't affect you.

    But if you are using app_config.xml on any of our LLR apps, we are changing the plan class of the LLR app versions, and therefore your app_config.xml won't work after the changes. For details, as well as what you should do right now, please see this message. Comments, questions, and discussion are also located in that thread.
    22 Aug 2019 | 15:55:33 UTC
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=8750&nowrap=true#132260
    IMPORTANT:

    PrimeGrid will be switching to a preferences-based method for setting up multi-threading in the near future.
    If you are using app_config.xml (probably to set up multi-threading) it's going to stop working when the multi-threading system goes live. If you want your app_config.xml to continue working, you should make modifications now that will allow it to work both before and after the change.

    Only LLR projects are affected.

    Every <app_version> block for an LLR project should be duplicated, with the duplicate having a <plan_class>mt<plan_class> line added to it. For example, this is the before and after for ESP, set up for 4 threads:

    Code:
    <app>
      <name>llrESP</name>
      <fraction_done_exact>1</fraction_done_exact>
      <report_results_immediately>1</report_results_immediately>
    </app>
    
    <app_version>
      <app_name>llrESP</app_name>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    
    <app_version>
      <app_name>llrESP</app_name>
      <plan_class>mt</plan_class>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    You can do this today, and the original app_version block will continue to work. Once we install the new multi-tasking, that app_version block will be ignored and the second app_version block for the mt plan class will take over. At that point, most people can erase app_config.xml, or at least the parts for LLR projects, and start using the multi-threading controls on the website.

    I don't have an exact time yet for this change, but it won't happen in August. I'm hoping for early September.
    22 Aug 2019 | 15:43:13 UTC
    von Veröffentlicht: 25.08.2019 08:30
    1. Kategorien:
    2. Projekte

    Seit einigen Tagen befinden sich mehrere Millionen Sixtrack-WUs im System, wodurch die Datenbank zu einem Flaschenhals bei der WU-Verteilung geworden ist. Etwas Abhilfe schaffen inzwischen zusätzliche Scheduler, jedoch haben diese auch Nebeneffekte wie beispielsweise Ungenauigkeiten auf der Serverstatus-Seite.

    Viele Aufgaben in der Warteschlange - Serverstatus-Seite irrig
    Wegen der sehr großen Zahl Sixtrack-WUs in der Warteschlange haben wir die Last auf vier Scheduler/Feeder-Server verteilt, um den Bedarf zu befriedigen. (Unser Flaschenhals ist die Datenbank, aber mehrere Scheduler können mehr WUs zur Verteilung vorhalten.)

    Unsere Serverstatus-Seite zeigt den Status der Dienste auf anderen Servern derzeit nicht in Echtzeit. Daher kann die Serverstatus-Seite anzeigen, dass Serverprozesse wie der Feeder auf boincai12 nicht laufen, obwohl sie in Ordnung sind.

    Bitte habt auch Geduld, wenn ihr nicht ausreichend schnell WUs für eure bevorzugte Anwendung erhaltet. Nach einigen Versuchen wird es einige WUs geben. Vielen Dank für euer Verständnis und frohes Crunchen!

    ---das Team
    21.08.2019, 12:41:17 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5119
    Many queued tasks - server status page erratic
    Due to the very high number of queued Sixtrack tasks, we have enabled 4 load-balanced scheduler/feeder servers to handle the demand. (Our bottleneck is the database, but several schedulers can cache more tasks to be dispatched.)

    Our server status page does not currently show in real time the daemon status on remote servers. Hence the server status page may indicate that server processes like feeder on boincai12 is down, while it is ok.

    Please also be patient if you are not getting tasks for your preferred application quickly enough. After a few retries, there will be some tasks. Thanks for your understanding and happy crunching!

    ---the team
    21 Aug 2019, 11:41:17 UTC
    von Veröffentlicht: 16.08.2019 18:45
    1. Kategorien:
    2. Projekte

    Die Gesamtzahl der Primzahlfunde ist im Juli etwas zurückgegangen, da der markante Zuwachs bei den mittelgroßen Funden (nicht zuletzt dank der Challenge zum Jahrestag der ersten Mondlandung) den Rückgang bei den sehr großen und sehr kleinen Primzahlfunden nicht ganz ausgleichen konnte. An insgesamt 138 Funden waren Mitglieder von SETI.Germany zwölfmal als Erstfinder und dreimal als Doublechecker beteiligt.

    Keine Top-100-, aber fünf kleinere Megaprimzahlen wurden gefunden, eine der entsprechenden WUs landete sogar ausschließlich auf Rechnern von SETI.Germany-Mitgliedern:

    • Die 1095538-stellige Proth-Primzahl 567*2^3639287+1 wurde am 02.07.2019 um 21:33:53 MEZ von TeardropOnFire aus dem Vereinigten Königreich mit einem Intel Core i7-8750H gefunden, wobei für den Primalitätstest mit LLR etwa 3 Stunden 9 Minuten benötigt wurden. Die Bestätigung erfolgte am 06.07.2019 um 18:27:49 MEZ durch 288larsson (Team: Sicituradastra.) aus Schweden mit einem Intel Core i9-7980XE, wobei für den Primalitätstest mit LLR etwa 47 Minuten benötigt wurden.

    • Die 1000259-stellige Proth-Primzahl 8619*2^3322774+1 wurde am 27.07.2019 um 14:15:56 MEZ von Randall J. Scalise aus den Vereinigten Staaten mit einem Intel Core i5-4590 gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunde 33 Minuten benötigt wurden. Die Bestätigung erfolgte am 31.07.2019 um 05:31:45 MEZ durch neuralstatic aus den Vereinigten Staaten mit einem Intel Core i9-9900K, wobei für den Primalitätstest mit LLR etwa 1 Stunde 10 Minuten benötigt wurden.

    • Die 1021215-stellige verallgemeinerte Fermat-Primzahl 61837354^131072+1 wurde am 28.07.2019 um 07:01:28 MEZ von dh1saj (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-3770 gefunden, wobei für den PRP-Test mit Genefer 6 Minuten 39 Sekunden benötigt wurden. Die Bestätigung erfolgte am 28.07.2019 um 07:08:28 MEZ durch Patrick Schmeer (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Core i7-7700, wobei für den PRP-Test mit Genefer 11 Minuten 33 Sekunden benötigt wurden.

    • Die 1000270-stellige Proth-Primzahl 9485*2^3322811+1 wurde am 28.07.2019 um 12:09:59 MEZ von Robert Hoffman aus den Vereinigten Staaten mit einem Intel Xeon E5-2687W v2 gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 37 Minuten benötigt wurden. Die Bestätigung erfolgte am 29.07.2019 um 12:48:45 MEZ durch Wenjie Zheng (Team China) aus China mit einem Intel Core i7-4790K, wobei für den Primalitätstest mit LLR etwa 1 Stunde 37 Minuten benötigt wurden.

    • Die 1000302-stellige Proth-Primzahl 6505*2^3322916+1 wurde am 31.07.2019 um 07:52:30 MEZ von vko (University of Maryland) aus den Vereinigten Staaten mit einem Intel Core i9-7940X gefunden, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 20 Minuten benötigt wurden. Die Bestätigung erfolgte am 31.07.2019 um 05:31:45 MEZ durch 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i7-7820X, wobei für den Primalitätstest mit LLR etwa 37 Minuten benötigt wurden.


    Die Challenge brachte auch einen erweiterten verallgemeinerten Fermatzahl-Teiler hervor:

    • Die 827916-stellige Proth-Primzahl 701*2^2750267+1 ist ein Teiler der erweiterten verallgemeinerten Fermat-Zahl xGF(2750266,7,4)=7^2^2750266+4^2^2750266. Sie wurde am 15.07.2019 um 21:44:50 MEZ von bcavnaugh (Crunching@EVGA) aus den Vereinigten Staaten mit einem Intel Core i9-7940X gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 5 Minuten benötigt wurden. Die Bestätigung erfolgte am 17.07.2019 um 09:52:20 MEZ durch Sebastian* (Sicituradastra.) aus Deutschland mit einem Intel Core i7-4790K, wobei für den Primalitätstest mit LLR etwa 29 Minuten benötigt wurden.


    Die Verteilung der 132 weiteren Primzahlfunde ist wie folgt:

    • Proth Prime Search (PPS): 29 Funde im Bereich 2739805 ≤ n ≤ 2794357 (824767-841189 Dezimalstellen), darunter drei Erstfunde von DeleteNull sowie ein Erstfund von pschoefer
    • Proth Prime Search Extended (PPSE): 11 Funde im Bereich 1541791 ≤ n ≤ 1543398 (464130-464613 Dezimalstellen), darunter ein Erstfund von ID4
    • Sophie Germain Prime Search (SGS): 32 Funde im Bereich 4540486653657 ≤ k ≤ 4574123792997 (388342 Dezimalstellen), darunter drei Erstfunde und ein Doublecheck von DeleteNull sowie ein Erstfund und ein Doublecheck von trebotuet
    • Generalized Fermat Prime Search (n=15): 44 Funde im Bereich 131174206 ≤ b ≤ 135038646 (266006-266419 Dezimalstellen), darunter ein Erstfund von boss
    • Generalized Fermat Prime Search (n=16): 13 Funde im Bereich 63722348 ≤ b ≤ 64758794 (511463-511922 Dezimalstellen), darunter ein Erstfund von EmmettDe
    • Generalized Fermat Prime Search (n=17): 3 Funde im Bereich 15567144 ≤ b ≤ 15731520 (942698-943296 Dezimalstellen)


    von Veröffentlicht: 11.08.2019 13:10
    1. Kategorien:
    2. Projekte

    Erste Zahlen zur kürzlich begonnenen Suche nach orthogonalen diagonalen lateinischen Quadraten (engl. orthogonal diagonal Latin squares, ODLS) zehnter Ordnung wurden bekanntgegeben. Die 15318 im Juli bearbeiteten WUs enthielten keine ODLS, aber einige teilweise orthogonale Quadrate mit einem Orthogonalitätsgrad bis 88. Es waren 86 Teilnehmer am Fund von 163 Quadrat-Paaren mit Orthogonalitätsgrad 86, 10 Paaren mit Grad 87 und 4 Paaren mit Grad 88 beteiligt, darunter mit [SG-2W]Kurzer, [SG]steini, Roadranner, axels, VogeL und Novalor auch Mitglieder von SETI.Germany.

    Außerdem wurde die Anwendung noch etwas verbessert, indem einige Quadrate schneller von der Suche ausgeschlossen werden:

    Neue Version der Anwendung für Ordnung 10
    Liebe Teilnehmer!

    Wir verteilen eine neue Version der Anwendung für die Suche im Raum der Quadrate zehnter Ordnung. Sie wird schneller sein als die bisherige Version, da einige Kombinationen, die zu keinem Ergebnis führen, frühzeitiger ausgeschlossen werden - wir haben einen Filter eingebaut, der Kombinationen mit gleichen Zeilen an einer Stelle ausschließt. Ein Beispiel für eine ähnliche Kombination könnt ihr in den Zahlen für Juli 2019 ansehen.

    Wir gehen davon aus, dass die Ergebnisse von mit verschiedenen Versionen der Anwendung berechneten WUs sich unterscheiden und als ungültig markiert werden könnten. Wir schätzen aber, dass die Zahl solcher Ergebnisse recht klein sein wird - einige zehn, vielleicht 100 oder 200. Wenn ihr solche WUs beobachtet, meldet sie bitte in diesem Thread!

    Danke für eure Aufmerksamkeit für das Projekt und die Teilnahme!
    07.08.2019, 22:08:17 MEZ

    Originaltext:
    Zitat Zitat von https://rake.boincfast.ru/rakesearch/forum_thread.php?id=192
    New version of application for Rank 10
    Dear participants!

    We deploy a new version of the application for search in rank 10 space. It will be faster than the previous version due to the earlier exclusion of some combinations that do not lead to a result - we add a filter for excluding combinations with the same rows in one position. Example of a similar combination you can view in July 2019 totals.

    We expect that the results for the same workunit processed by the different versions of the application may differ and marked as incorrect. But in our estimation, the number of such results will be relatively small - about several tens, maybe 100 or 200. If you face with such workunits - post these numbers in this thread, please!

    Thank you for attention for the project and participation!
    7 Aug 2019, 21:08:17 UTC
    von Veröffentlicht: 09.08.2019 13:45
    1. Kategorien:
    2. SETI.Germany

    Soeben wurde anlässlich des Wow!-Events eine neue Ausgabe des SETI.Germany-Newsletters versendet.

    Für alle, die den Newsletter nicht abonniert haben oder es nach dem letzten Newsletter versäumt haben, ihr Abonnement zu bestätigen, sei auch hier der vollständige Text geteilt:

    SETI.Germany Newsletter #77

    Liebe Mitglieder und Freunde von SETI.Germany,

    vielen Dank, dass ihr nach Erhalt des letzten Newsletters vor drei Monaten bestätigt habt, auch weiterhin Newsletter erhalten zu wollen. Zwar haben drei Viertel der bisherigen Abonnenten nicht reagiert oder konnten aufgrund veralteter Adressen gar nicht mehr erreicht werden, doch die Zahl von etwa 300 bestätigten Abonnenten zeigt, dass durchaus noch immer ein gewisses Interesse an diesem Angebot besteht.

    Mit der heutigen Ausgabe sei auf eine Veranstaltung hingewiesen, in deren Rahmen die Hardware für den Rest des Monats ausgelastet werden kann.


    Inhalt:

    1) SETI@Home-Wow!-Event 2019 (15.-29. August)

    ------------------------------------------------------------

    1) SETI@Home-Wow!-Event 2019 (15.-29. August)

    Genau 42 Jahre nach der Entdeckung des Wow!-Signals aus Richtung des Sternbildes Schütze und gut 20 Jahre nach dem Start von SETI@home lädt SETI.Germany zum achten SETI@Home-Wow!-Event ein. Zwischen dem 15. August, 18:00 MESZ, und dem 29. August, 18:00 MESZ, können sich Cruncher aus allen Teams miteinander messen, das Projekt mit ihren CPUs und Grafikkarten voranbringen und vielleicht ja sogar ein neues Wow!-Signal finden.

    Für diesen Wettbewerb schließen sich die Teilnehmer einer von zwölf frei wählbaren Gruppen an, die nach den zwölf Tierkreiszeichen benannt sind. Daher ist es auch erforderlich, dass sich jeder Teilnehmer unter Angabe seines SETI@home-Benutzernamens, seiner SETI@home-Benutzer-ID (zu finden auf https://setiathome.berkeley.edu/home.php) und der gewünschten Gruppe auf dieser Seite anmeldet: https://www.seti-germany.de/Wow/register/de

    Weitere Links:
    * SETI@home: https://setiathome.berkeley.edu/
    * Wow!-Event-Seite: https://www.seti-germany.de/Wow/de
    * Thread im Hauptforum: https://www.seti-germany.de/forum/th...%21-Event-2019


    Happy Vollgascrunching!
    von Veröffentlicht: 07.08.2019 07:10
    1. Kategorien:
    2. Projekte

    Eine neue Version der GPU-Anwendungen behebt ein Problem, das dazu führen konnte, dass große Teile der WU auf CPU berechnet werden:

    neue Version der GPU-Anwendungen
    Ich habe festgestellt, dass die bisherige Version der GPU-Anwendungen beim Datensatz 15x271 sehr langsam war. Ich habe das Problem gefunden - ein großer Teil der Diskriminanten war zu groß für die fest programmierte Genauigkeit. Wenn das passiert, übergibt die GPU an die CPU, um damit umzugehen. Daher verbrachte die GPU mehr Zeit im Leerlauf, während sie darauf wartete, dass die CPU die Aufgabe beendet. Als Nebeneffekt konnten die WUs auch fast einen ganzen CPU-Kern nutzen.

    Ich habe die fest programmierte Genauigkeit erhöht und mit den schwierigen Datensätzen sowie dem neuesten Datensatz 16x271 getestet. Das Problem scheint behoben, aber bitte meldet etwaiges unerwartetes Verhalten.
    07.08.2019, 6:39:56 MEZ

    Originaltext:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/forum_thread.php?id=396
    new GPU app versions
    I was noticing a slow down with the GPU app versions on the 15x271 data set. I found the problem - a large fraction of the discriminants were exceeding the hard coded precision. When this happens the GPU kicks it back to the CPU to handle. As a result, the GPU spent more time idling as it waited on the CPU to finish the task. A side effect of this was that the WU would also use almost an entire CPU core.

    I increased the hard coded precision and tested on the troublesome data sets as well as the newest 16x271 data set. The issue seems to be fixed, but please report any unexpected behavior.
    7 Aug 2019, 5:39:56 UTC
    Seite 1 von 67 1 2 3 11 51 ... Letzte
Single Sign On provided by vBSSO