• pschoefer

    von Veröffentlicht: 25.08.2019 09:25
    1. Kategorien:
    2. Projekte

    Seit einiger Zeit ist es möglich (und zumindest bei längeren WUs auch deutlich effizienter), mehrere CPU-Kerne parallel an derselben WU rechnen zu lassen. Bisher musste das clientseitig mit einer app_config.xml eingestellt werden, bald wird das auch über die Projekteinstellungen auf der Webseite möglich sein.

    Wer derzeit aktiv ein LLR-Subprojekt mit Multithreading cruncht und vermeiden will, dass nach der projektseitigen Umstellung zunächst die Standardeinstellungen verwendet werden, kann jetzt schon die app_config.xml entsprechend erweitern wie in den folgenden Übersetzungen beschrieben. Natürlich werden diese Änderungen erstmal zur Fehlermeldung führen, dass die Planklasse mt unbekannt sei; sobald die erste neue WU nach der projektseitigen Umstellung heruntergeladen wird, werden die Einstellungen dann aber korrekt verwendet.

    Kommende NOTWENDIGE Änderungen an der app_config.xml
    Falls ihr nicht wisst, was eine app_config.xml ist oder keine solche für LLR-Anwendungen bei PrimeGrid nutzt, könnt ihr diese Nachricht ignorieren. Das betrifft euch nicht.

    Falls ihr aber eine app_config.xml für irgendeine unserer LLR-Anwendungen verwendet, wird diese nach einigen Änderungen auf unserer Seite nicht mehr funktionieren, weil wir die Planklasse der LLR-Anwendungsversionen ändern. Für Einzelheiten und eine Anleitung, was ihr jetzt schon tun solltet, siehe bitte diese Nachricht. Kommentare, Fragen und die Diskussion finden sich auch in diesem Thread.
    22.08.2019 | 16:55:33 MEZ


    Nachfolgend die Übersetzung des verlinkten Beitrags:

    Wichtig:

    PrimeGrid wird in naher Zukunft Multithreading über die Projekteinstellungen anbieten.
    Falls ihr eine app_config.xml (wahrscheinlich zum Einrichten von Multithreading) verwendet, wird diese nicht mehr funktionieren, wenn das neue Multithreading-System in Betrieb genommen wird. Wenn ihr wollt, dass eure app_config.xml weiterhin funktioniert, solltet ihr jetzt Änderungen vornehmen, damit sie sowohl vor als auch nach der Umstellung funktioniert.

    Nur LLR-Subprojekte sind betroffen.

    Jeder <app_version>-Block für ein LLR-Subprojekt sollte kopiert werden und die Kopie zusätzlich um die Zeile <plan_class>mt<plan_class> ergänzt werden. Für ESP mit 4 Threads sieht das beispielsweise so aus:

    Code:
    <app>
      <name>llrESP</name>
      <fraction_done_exact>1</fraction_done_exact>
      <report_results_immediately>1</report_results_immediately>
    </app>
    
    <app_version>
      <app_name>llrESP</app_name>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    
    <app_version>
      <app_name>llrESP</app_name>
      <plan_class>mt</plan_class>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    Ihr könnt das heute ändern und der alte app_version-Block wird weiterhin funktionieren. Sobald wir das neue Multithreading installieren, wird dieser app_version-Block ignoriert und stattdessen der zweite app_version-Block für die Planklasse mt verwendet. Die meisten Leute werden dann ihre app_config.xml oder zumindest die Abschnitte für die LLR-Subprojekte löschen und die Multithreading-Einstellungen auf der Webseite verwenden können.

    Es gibt noch keinen genauen Termin für diese Änderung, aber es wird nicht mehr im August passieren, sondern hoffentlich Anfang September.
    22.08.2019 | 16:43:13 MEZ


    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=8758
    Upcoming REQUIRED changes to app_config.xml
    If you don't know what app_config.xml is, or if you don't use it for PrimeGrid's LLR apps, you can ignore this notice. This doesn't affect you.

    But if you are using app_config.xml on any of our LLR apps, we are changing the plan class of the LLR app versions, and therefore your app_config.xml won't work after the changes. For details, as well as what you should do right now, please see this message. Comments, questions, and discussion are also located in that thread.
    22 Aug 2019 | 15:55:33 UTC
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=8750&nowrap=true#132260
    IMPORTANT:

    PrimeGrid will be switching to a preferences-based method for setting up multi-threading in the near future.
    If you are using app_config.xml (probably to set up multi-threading) it's going to stop working when the multi-threading system goes live. If you want your app_config.xml to continue working, you should make modifications now that will allow it to work both before and after the change.

    Only LLR projects are affected.

    Every <app_version> block for an LLR project should be duplicated, with the duplicate having a <plan_class>mt<plan_class> line added to it. For example, this is the before and after for ESP, set up for 4 threads:

    Code:
    <app>
      <name>llrESP</name>
      <fraction_done_exact>1</fraction_done_exact>
      <report_results_immediately>1</report_results_immediately>
    </app>
    
    <app_version>
      <app_name>llrESP</app_name>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    
    <app_version>
      <app_name>llrESP</app_name>
      <plan_class>mt</plan_class>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    You can do this today, and the original app_version block will continue to work. Once we install the new multi-tasking, that app_version block will be ignored and the second app_version block for the mt plan class will take over. At that point, most people can erase app_config.xml, or at least the parts for LLR projects, and start using the multi-threading controls on the website.

    I don't have an exact time yet for this change, but it won't happen in August. I'm hoping for early September.
    22 Aug 2019 | 15:43:13 UTC
    von Veröffentlicht: 25.08.2019 08:30
    1. Kategorien:
    2. Projekte

    Seit einigen Tagen befinden sich mehrere Millionen Sixtrack-WUs im System, wodurch die Datenbank zu einem Flaschenhals bei der WU-Verteilung geworden ist. Etwas Abhilfe schaffen inzwischen zusätzliche Scheduler, jedoch haben diese auch Nebeneffekte wie beispielsweise Ungenauigkeiten auf der Serverstatus-Seite.

    Viele Aufgaben in der Warteschlange - Serverstatus-Seite irrig
    Wegen der sehr großen Zahl Sixtrack-WUs in der Warteschlange haben wir die Last auf vier Scheduler/Feeder-Server verteilt, um den Bedarf zu befriedigen. (Unser Flaschenhals ist die Datenbank, aber mehrere Scheduler können mehr WUs zur Verteilung vorhalten.)

    Unsere Serverstatus-Seite zeigt den Status der Dienste auf anderen Servern derzeit nicht in Echtzeit. Daher kann die Serverstatus-Seite anzeigen, dass Serverprozesse wie der Feeder auf boincai12 nicht laufen, obwohl sie in Ordnung sind.

    Bitte habt auch Geduld, wenn ihr nicht ausreichend schnell WUs für eure bevorzugte Anwendung erhaltet. Nach einigen Versuchen wird es einige WUs geben. Vielen Dank für euer Verständnis und frohes Crunchen!

    ---das Team
    21.08.2019, 12:41:17 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5119
    Many queued tasks - server status page erratic
    Due to the very high number of queued Sixtrack tasks, we have enabled 4 load-balanced scheduler/feeder servers to handle the demand. (Our bottleneck is the database, but several schedulers can cache more tasks to be dispatched.)

    Our server status page does not currently show in real time the daemon status on remote servers. Hence the server status page may indicate that server processes like feeder on boincai12 is down, while it is ok.

    Please also be patient if you are not getting tasks for your preferred application quickly enough. After a few retries, there will be some tasks. Thanks for your understanding and happy crunching!

    ---the team
    21 Aug 2019, 11:41:17 UTC
    von Veröffentlicht: 16.08.2019 18:45
    1. Kategorien:
    2. Projekte

    Die Gesamtzahl der Primzahlfunde ist im Juli etwas zurückgegangen, da der markante Zuwachs bei den mittelgroßen Funden (nicht zuletzt dank der Challenge zum Jahrestag der ersten Mondlandung) den Rückgang bei den sehr großen und sehr kleinen Primzahlfunden nicht ganz ausgleichen konnte. An insgesamt 138 Funden waren Mitglieder von SETI.Germany zwölfmal als Erstfinder und dreimal als Doublechecker beteiligt.

    Keine Top-100-, aber fünf kleinere Megaprimzahlen wurden gefunden, eine der entsprechenden WUs landete sogar ausschließlich auf Rechnern von SETI.Germany-Mitgliedern:

    • Die 1095538-stellige Proth-Primzahl 567*2^3639287+1 wurde am 02.07.2019 um 21:33:53 MEZ von TeardropOnFire aus dem Vereinigten Königreich mit einem Intel Core i7-8750H gefunden, wobei für den Primalitätstest mit LLR etwa 3 Stunden 9 Minuten benötigt wurden. Die Bestätigung erfolgte am 06.07.2019 um 18:27:49 MEZ durch 288larsson (Team: Sicituradastra.) aus Schweden mit einem Intel Core i9-7980XE, wobei für den Primalitätstest mit LLR etwa 47 Minuten benötigt wurden.

    • Die 1000259-stellige Proth-Primzahl 8619*2^3322774+1 wurde am 27.07.2019 um 14:15:56 MEZ von Randall J. Scalise aus den Vereinigten Staaten mit einem Intel Core i5-4590 gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunde 33 Minuten benötigt wurden. Die Bestätigung erfolgte am 31.07.2019 um 05:31:45 MEZ durch neuralstatic aus den Vereinigten Staaten mit einem Intel Core i9-9900K, wobei für den Primalitätstest mit LLR etwa 1 Stunde 10 Minuten benötigt wurden.

    • Die 1021215-stellige verallgemeinerte Fermat-Primzahl 61837354^131072+1 wurde am 28.07.2019 um 07:01:28 MEZ von dh1saj (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-3770 gefunden, wobei für den PRP-Test mit Genefer 6 Minuten 39 Sekunden benötigt wurden. Die Bestätigung erfolgte am 28.07.2019 um 07:08:28 MEZ durch Patrick Schmeer (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Core i7-7700, wobei für den PRP-Test mit Genefer 11 Minuten 33 Sekunden benötigt wurden.

    • Die 1000270-stellige Proth-Primzahl 9485*2^3322811+1 wurde am 28.07.2019 um 12:09:59 MEZ von Robert Hoffman aus den Vereinigten Staaten mit einem Intel Xeon E5-2687W v2 gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 37 Minuten benötigt wurden. Die Bestätigung erfolgte am 29.07.2019 um 12:48:45 MEZ durch Wenjie Zheng (Team China) aus China mit einem Intel Core i7-4790K, wobei für den Primalitätstest mit LLR etwa 1 Stunde 37 Minuten benötigt wurden.

    • Die 1000302-stellige Proth-Primzahl 6505*2^3322916+1 wurde am 31.07.2019 um 07:52:30 MEZ von vko (University of Maryland) aus den Vereinigten Staaten mit einem Intel Core i9-7940X gefunden, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 20 Minuten benötigt wurden. Die Bestätigung erfolgte am 31.07.2019 um 05:31:45 MEZ durch 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i7-7820X, wobei für den Primalitätstest mit LLR etwa 37 Minuten benötigt wurden.


    Die Challenge brachte auch einen erweiterten verallgemeinerten Fermatzahl-Teiler hervor:

    • Die 827916-stellige Proth-Primzahl 701*2^2750267+1 ist ein Teiler der erweiterten verallgemeinerten Fermat-Zahl xGF(2750266,7,4)=7^2^2750266+4^2^2750266. Sie wurde am 15.07.2019 um 21:44:50 MEZ von bcavnaugh (Crunching@EVGA) aus den Vereinigten Staaten mit einem Intel Core i9-7940X gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 5 Minuten benötigt wurden. Die Bestätigung erfolgte am 17.07.2019 um 09:52:20 MEZ durch Sebastian* (Sicituradastra.) aus Deutschland mit einem Intel Core i7-4790K, wobei für den Primalitätstest mit LLR etwa 29 Minuten benötigt wurden.


    Die Verteilung der 132 weiteren Primzahlfunde ist wie folgt:

    • Proth Prime Search (PPS): 29 Funde im Bereich 2739805 ≤ n ≤ 2794357 (824767-841189 Dezimalstellen), darunter drei Erstfunde von DeleteNull sowie ein Erstfund von pschoefer
    • Proth Prime Search Extended (PPSE): 11 Funde im Bereich 1541791 ≤ n ≤ 1543398 (464130-464613 Dezimalstellen), darunter ein Erstfund von ID4
    • Sophie Germain Prime Search (SGS): 32 Funde im Bereich 4540486653657 ≤ k ≤ 4574123792997 (388342 Dezimalstellen), darunter drei Erstfunde und ein Doublecheck von DeleteNull sowie ein Erstfund und ein Doublecheck von trebotuet
    • Generalized Fermat Prime Search (n=15): 44 Funde im Bereich 131174206 ≤ b ≤ 135038646 (266006-266419 Dezimalstellen), darunter ein Erstfund von boss
    • Generalized Fermat Prime Search (n=16): 13 Funde im Bereich 63722348 ≤ b ≤ 64758794 (511463-511922 Dezimalstellen), darunter ein Erstfund von EmmettDe
    • Generalized Fermat Prime Search (n=17): 3 Funde im Bereich 15567144 ≤ b ≤ 15731520 (942698-943296 Dezimalstellen)


    von Veröffentlicht: 11.08.2019 13:10
    1. Kategorien:
    2. Projekte

    Erste Zahlen zur kürzlich begonnenen Suche nach orthogonalen diagonalen lateinischen Quadraten (engl. orthogonal diagonal Latin squares, ODLS) zehnter Ordnung wurden bekanntgegeben. Die 15318 im Juli bearbeiteten WUs enthielten keine ODLS, aber einige teilweise orthogonale Quadrate mit einem Orthogonalitätsgrad bis 88. Es waren 86 Teilnehmer am Fund von 163 Quadrat-Paaren mit Orthogonalitätsgrad 86, 10 Paaren mit Grad 87 und 4 Paaren mit Grad 88 beteiligt, darunter mit [SG-2W]Kurzer, [SG]steini, Roadranner, axels, VogeL und Novalor auch Mitglieder von SETI.Germany.

    Außerdem wurde die Anwendung noch etwas verbessert, indem einige Quadrate schneller von der Suche ausgeschlossen werden:

    Neue Version der Anwendung für Ordnung 10
    Liebe Teilnehmer!

    Wir verteilen eine neue Version der Anwendung für die Suche im Raum der Quadrate zehnter Ordnung. Sie wird schneller sein als die bisherige Version, da einige Kombinationen, die zu keinem Ergebnis führen, frühzeitiger ausgeschlossen werden - wir haben einen Filter eingebaut, der Kombinationen mit gleichen Zeilen an einer Stelle ausschließt. Ein Beispiel für eine ähnliche Kombination könnt ihr in den Zahlen für Juli 2019 ansehen.

    Wir gehen davon aus, dass die Ergebnisse von mit verschiedenen Versionen der Anwendung berechneten WUs sich unterscheiden und als ungültig markiert werden könnten. Wir schätzen aber, dass die Zahl solcher Ergebnisse recht klein sein wird - einige zehn, vielleicht 100 oder 200. Wenn ihr solche WUs beobachtet, meldet sie bitte in diesem Thread!

    Danke für eure Aufmerksamkeit für das Projekt und die Teilnahme!
    07.08.2019, 22:08:17 MEZ

    Originaltext:
    Zitat Zitat von https://rake.boincfast.ru/rakesearch/forum_thread.php?id=192
    New version of application for Rank 10
    Dear participants!

    We deploy a new version of the application for search in rank 10 space. It will be faster than the previous version due to the earlier exclusion of some combinations that do not lead to a result - we add a filter for excluding combinations with the same rows in one position. Example of a similar combination you can view in July 2019 totals.

    We expect that the results for the same workunit processed by the different versions of the application may differ and marked as incorrect. But in our estimation, the number of such results will be relatively small - about several tens, maybe 100 or 200. If you face with such workunits - post these numbers in this thread, please!

    Thank you for attention for the project and participation!
    7 Aug 2019, 21:08:17 UTC
    von Veröffentlicht: 09.08.2019 13:45
    1. Kategorien:
    2. SETI.Germany

    Soeben wurde anlässlich des Wow!-Events eine neue Ausgabe des SETI.Germany-Newsletters versendet.

    Für alle, die den Newsletter nicht abonniert haben oder es nach dem letzten Newsletter versäumt haben, ihr Abonnement zu bestätigen, sei auch hier der vollständige Text geteilt:

    SETI.Germany Newsletter #77

    Liebe Mitglieder und Freunde von SETI.Germany,

    vielen Dank, dass ihr nach Erhalt des letzten Newsletters vor drei Monaten bestätigt habt, auch weiterhin Newsletter erhalten zu wollen. Zwar haben drei Viertel der bisherigen Abonnenten nicht reagiert oder konnten aufgrund veralteter Adressen gar nicht mehr erreicht werden, doch die Zahl von etwa 300 bestätigten Abonnenten zeigt, dass durchaus noch immer ein gewisses Interesse an diesem Angebot besteht.

    Mit der heutigen Ausgabe sei auf eine Veranstaltung hingewiesen, in deren Rahmen die Hardware für den Rest des Monats ausgelastet werden kann.


    Inhalt:

    1) SETI@Home-Wow!-Event 2019 (15.-29. August)

    ------------------------------------------------------------

    1) SETI@Home-Wow!-Event 2019 (15.-29. August)

    Genau 42 Jahre nach der Entdeckung des Wow!-Signals aus Richtung des Sternbildes Schütze und gut 20 Jahre nach dem Start von SETI@home lädt SETI.Germany zum achten SETI@Home-Wow!-Event ein. Zwischen dem 15. August, 18:00 MESZ, und dem 29. August, 18:00 MESZ, können sich Cruncher aus allen Teams miteinander messen, das Projekt mit ihren CPUs und Grafikkarten voranbringen und vielleicht ja sogar ein neues Wow!-Signal finden.

    Für diesen Wettbewerb schließen sich die Teilnehmer einer von zwölf frei wählbaren Gruppen an, die nach den zwölf Tierkreiszeichen benannt sind. Daher ist es auch erforderlich, dass sich jeder Teilnehmer unter Angabe seines SETI@home-Benutzernamens, seiner SETI@home-Benutzer-ID (zu finden auf https://setiathome.berkeley.edu/home.php) und der gewünschten Gruppe auf dieser Seite anmeldet: https://www.seti-germany.de/Wow/register/de

    Weitere Links:
    * SETI@home: https://setiathome.berkeley.edu/
    * Wow!-Event-Seite: https://www.seti-germany.de/Wow/de
    * Thread im Hauptforum: https://www.seti-germany.de/forum/th...%21-Event-2019


    Happy Vollgascrunching!
    von Veröffentlicht: 07.08.2019 07:10
    1. Kategorien:
    2. Projekte

    Eine neue Version der GPU-Anwendungen behebt ein Problem, das dazu führen konnte, dass große Teile der WU auf CPU berechnet werden:

    neue Version der GPU-Anwendungen
    Ich habe festgestellt, dass die bisherige Version der GPU-Anwendungen beim Datensatz 15x271 sehr langsam war. Ich habe das Problem gefunden - ein großer Teil der Diskriminanten war zu groß für die fest programmierte Genauigkeit. Wenn das passiert, übergibt die GPU an die CPU, um damit umzugehen. Daher verbrachte die GPU mehr Zeit im Leerlauf, während sie darauf wartete, dass die CPU die Aufgabe beendet. Als Nebeneffekt konnten die WUs auch fast einen ganzen CPU-Kern nutzen.

    Ich habe die fest programmierte Genauigkeit erhöht und mit den schwierigen Datensätzen sowie dem neuesten Datensatz 16x271 getestet. Das Problem scheint behoben, aber bitte meldet etwaiges unerwartetes Verhalten.
    07.08.2019, 6:39:56 MEZ

    Originaltext:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/forum_thread.php?id=396
    new GPU app versions
    I was noticing a slow down with the GPU app versions on the 15x271 data set. I found the problem - a large fraction of the discriminants were exceeding the hard coded precision. When this happens the GPU kicks it back to the CPU to handle. As a result, the GPU spent more time idling as it waited on the CPU to finish the task. A side effect of this was that the WU would also use almost an entire CPU core.

    I increased the hard coded precision and tested on the troublesome data sets as well as the newest 16x271 data set. The issue seems to be fixed, but please report any unexpected behavior.
    7 Aug 2019, 5:39:56 UTC
    von Veröffentlicht: 30.07.2019 13:00
    1. Kategorien:
    2. Projekte

    Nur kurz ist die Pause nach der vorigen Challenge, hoffentlich aber genug Zeit, dass die Temperaturen wieder in einen ähnlich angenehmen Bereich fallen. Die August-Challenge ist Lennart Vogel gewidmet, ohne dessen Arbeit in früheren Jahren PrimeGrid nicht das wäre, was es heute ist, und der hoffentlich in diesen Tagen seinen 65. Geburtstag feiert.

    Lennart Vogel Honorary Challenge
    Beginn: 03.08.2019, 00:00 UTC = 01:00 MEZ = 02:00 MESZ
    Ende: 10.08.2019, 00:00 UTC = 01:00 MEZ = 02:00 MESZ
    Subprojekt: Extended Sierpinski Problem LLR (ESP)


    Der offizielle Thread zur Challenge im PrimeGrid-Forum ist hier zu finden.

    Es zählen für diese Challenge nur WUs des Subprojekts Extended Sierpinski Problem LLR (ESP), die nach dem 03.08. um 02:00 Uhr heruntergeladen und vor dem 10.08. um 02:00 Uhr zurückgemeldet werden! Das gewünschte Subprojekt kann in den PrimeGrid-Einstellungen festgelegt werden.

    Anwendungen gibt es für Windows, Linux und MacOS (Intel), jeweils 32- und 64-Bit. Wer in den letzten Monaten keine WUs von einem PrimeGrid-LLR-Subprojekt berechnet hat, sollte dies vielleicht schon vor der Challenge mit kleineren WUs wie SGS nachholen, um die relativ große Anwendung (~35 MB) bereits auf dem Rechner zu haben.

    Die verwendete LLR-Anwendung belastet die CPU sehr stark und toleriert keinerlei Fehler. Daher bitte nicht zu stark übertakten und auf gute Kühlung achten!

    Die Laufzeiten liegen auf aktuellen CPUs im Bereich von einigen Stunden, sofern mehrere CPU-Kerne an einer WU arbeiten, was auf den meisten Rechnern auch im Hinblick auf die Effizienz zu empfehlen ist. Das lässt sich mit einer app_config.xml erreichen (im Beispiel für 4 Kerne):
    Code:
    <app_config>
      <app_version>
        <app_name>llrESP</app_name>
        <cmdline>-t 4</cmdline>
        <avg_ncpus>4</avg_ncpus>
      </app_version>
    </app_config>
    Dieser Text muss als app_config.xml im Unterverzeichnis projects\www.primegrid.com des BOINC-Datenverzeichnisses (unter Windows standardmäßig C:\ProgramData\BOINC) gespeichert werden. Die Einstellung wird durch Konfigurationsdatei einlesen oder Neustart für neue WUs übernommen.

    In jedem Fall haben moderne Intel-CPUs durch die automatisch benutzten Optimierungen (AVX, FMA3, AVX-512) einen erheblichen Vorteil. CPUs, die Hyperthreading unterstützen, laufen oft effizienter, wenn Hyperthreading nicht benutzt wird.

    Die Punkte für die Challenge-Statistik sind identisch mit den BOINC-Credits, werden jedoch sofort gutgeschrieben, während die BOINC-Credits erst vergeben werden, wenn das Quorum von 2 übereinstimmenden Ergebnissen erreicht ist.

    Team-Stats bei PrimeGrid
    User-Stats bei PrimeGrid

    Team-Stats bei SETI.Germany
    Detail-Statistik für SETI.Germany
    User-Stats bei SETI.Germany

    Zum Diskussionsthread
    von Veröffentlicht: 28.07.2019 22:55
    1. Kategorien:
    2. Projekte

    In Vorbereitung eines kommenden Fachartikels stellt das Projekt nun eine Datenbank der Simulationsergebnisse für Populationen Schwarzer Löcher in unterschiedlichen Umgebungen bereit:

    Ergebnisdatenbanken
    Nach der letzten Server-Aktualisierung habe ich auch Netzwerkspeicher mit Ergebnisdatenbanken vorbereitet.
    Hier ist die Ergebnisseite, auf welcher ihr alle von unserem Projekt bearbeiteten Daten herunterladen könnt.
    26.07.2019, 18:12:14 MEZ

    Originaltext:
    Zitat Zitat von https://universeathome.pl/universe/forum_thread.php?id=436
    Results databases
    After last server update I have also prepared NFS based folders with results databases.
    So, here is rsults page where you can download all processed data from our project.
    26 Jul 2019, 17:12:14 UTC
    von Veröffentlicht: 28.07.2019 22:45
    1. Kategorien:
    2. Projekte

    Eine zu aggressiv eingestellte serverseitige Firewall kann derzeit für Verbindungsprobleme zum Projekt sorgen. Wer geblockt wurde, kann zwar manuell entsperrt werden, das dürfte aber praktisch nur für Teilnehmer mit fester IP-Adresse sinnvoll sein.

    Schwarze Liste der Firewall
    Ich wurde darauf aufmerksam gemacht, dass einige Teilnehmer auf die Schwarze Liste des Firewall-Systems der Universität gelandet sind. Das bedeutet üblicherweise, dass der Teilnehmer keine Aufgaben herunterladen oder sich auch nur mit der Webseite verbinden kann.

    Wir versuchen derzeit, die Einschränkungen der Firewall zu verringern, damit das nicht mehr passiert. In der Zwischenzeit kann ich als Notlösung die IT-Abteilung bitten, einzelne IP-Adressen auf die Weiße Liste zu setzen.

    Falls ihr oder jemand, den ihr kennt, Verbindungsprobleme habt, lasst es mich wissen, damit ich euch auf die Weiße Liste setzen lassen kann.
    27.07.2019, 3:07:06 MEZ

    Originaltext:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/forum_thread.php?id=389
    firewall black listing
    It has come to my attention that some users have been black listed by the university firewall system. This usually means that the volunteer cant download tasks or even connect to the website.

    We are currently looking at ways to reduce the firewall restrictions so this will stop happening. In the meantime, the work around is for me to request the IT department to white list an IP address on an individual basis.

    If you or someone you know is experiencing connection problems, please let me know so I can have them added to the white list.
    27 Jul 2019, 2:07:06 UTC
    von Veröffentlicht: 28.07.2019 22:25
    1. Kategorien:
    2. Projekte

    Eine Nachricht vom TomᚠBrada Experimental Grid beschreibt die technischen Abläufe des laufenden Subprojekts zu pseudo-assoziativen diagonalen lateinischen Quadraten (engl. pseudo-associative diagonal Latin squares, PADLS):

    Subprojekt PADLS Total läuft einwandfrei
    Besser spät als nie. Das in diesem Thread beschriebene PADLS-Total-Experiment (russ.) läuft einwandfrei auf diesem Server und produziert gute Ergebnisse.

    Technischer Hintergrund: Der Suchbereich wurde in sogenannte Segmente aufgeteilt. Aus jedem Segment wird eine WU erzeugt. Die WUs können beliebig groß sein, derzeit sind sie so eingestellt, dass sie etwa zwei Stunden auf meinem Rechner laufen. Sobald das Ergebnis einer WU an den Server gemeldet wird, greift das Validator-Programm es auf. Das Programm überprüft die Gültigkeit des Ergebnisses, speichert das Ergebnis in der Datenbank und erzeugt eine neue WU, um das Segment weiter zu bearbeiten.

    Die Ergebnisse werden zweimal am Tag exportiert und können als Text- oder SQL-Datei heruntergeladen werden.

    Der Suchalgorithmus ist nicht der effizienteste, gibt aber vernünftige Ergebnisse. Es wurde angeregt, das Subprojekt auf dem Server boinc.Progger.info zu installieren.
    25.07.2019, 9:37:19 MEZ

    Originaltext:
    Zitat Zitat von https://boinc.tbrada.eu/forum_thread.php?id=3039
    Padls Total subproject running fine
    Better late than never. The PADLS Total experiment described in this thread is running fine on this server and is producing good results.

    Technical: the search space has been split to so called segments. From each segment one workunit is generated. The workunits can be made any size, but are currently set to run approximately two hours on my computer. Once result of a workunit is returned to the server, it is picked up by the validator program. This program checks the result validity, saves the result into the database and generates a new workunit to continue processing the segment.

    Results are exported twice a day in, and they are available for download as text or sql.

    The search algorithm is not the most efficient, but gives reasonable results. A effort was initiated to install the subproject over at boinc.Progger.info server.
    25 Jul 2019, 8:37:19 UTC
    Seite 1 von 66 1 2 3 11 51 ... Letzte
Single Sign On provided by vBSSO